Wenn die Maschine versagt…: Amazon-Tool zeigt sich frauenfeindlich

Veröffentlicht: 12.10.2018
imgAktualisierung: 12.10.2018
Geschrieben von: Tina Plewinski
Lesezeit: ca. 2 Min.
12.10.2018
img 12.10.2018
ca. 2 Min.
Kleine Frau neben großem Mann
© ArtFamily - Shutterstock
Auch Amazon hat manchmal Probleme mit Technik: Eine KI des Online-Riesen zeigte sich frauenfeindlich.


Auf der Suche nach neuen Mitarbeitern sollten Unternehmen den Prinzipien der Fairness und Gleichberechtigung folgen. Doch ein neuer Fall aus der Welt von Amazon zeigt, dass solche Grundsätze schnell in Schieflage geraten – selbst wenn künstliche Intelligenzen involviert sind.

Eigentlich klingt es nach einer zukunftsträchtigen Strategie: Im Hause Amazon sollte eine künstliche Intelligenz seit 2014 dabei helfen, Bewerbungsverfahren zu optimieren und bei der Einstellung neuer Mitarbeiter zu helfen. Dazu wurde eine KI in ein Tool integriert, welche dann automatisch Bewerbungstexte bewertet hatte. Das Ziel war dabei, vielversprechende Bewerber herauszufiltern.

Funktioniert hat der Einsatz der künstlichen Intelligenz jedoch nicht so, wie geplant: Wie Heise Online mit Verweis auf Reuters berichtet, hatte die KI Frauen im Rahmen der Bewertungen „systematisch benachteiligt“.

Benachteiligung wurde vom Menschen gelernt

Grund der besagten Benachteiligung war, dass der Algorithmus mit Datensätzen vorangegangener Auswahlverfahren gefüttert wurde und von den entsprechenden Entscheidungen – das heißt von den Daten der früheren, angenommenen Bewerber – lernte. Auf Basis dieses Vorgehens sollte die KI erkennen, welche Eigenschaften im Rahmen von Bewerbungen von Amazon als positiv bewertet und dementsprechend bevorzugt würden.

„Weil das Unternehmen aber Teil einer von Männern dominierten Industrie ist, waren in den zugrunde gelegten vergangenen zehn Jahren vor allem Männer eingestellt worden“, heißt es bei Heise weiter. Demnach schlussfolgerte der Algorithmus, dass die Bewerbung einer Frau ganz grundsätzlich schlechter zu bewerten sei als die eines konkurrierenden Mannes. „Allein das Geschlecht sorgte dabei für die Herunterstufung“ – und zwar nur, weil das System aus vorangegangenen menschlichen Entscheidungen lernte.

Tool unterliegt grundlegendem KI-Problem

Ein Team von Amazon habe das Tool im Verlauf zwar angepasst, dennoch hätten die entsprechenden Stellen nicht sicherstellen können, dass das System künftig nicht dennoch zu diskriminierenden Entscheidungen kommen würde. Für das Tool war eigentlich vorgesehen, dass dieses den Auswahlprozess der Bewerbungen komplett übernimmt. Aufgrund der Fehlerhaftigkeit und der beschriebenen Diskriminierungen war der Algorithmus jedoch nie über das Stadium einer vorschlagenden Instanz hinausgekommen. Heute setze Amazon die Software demnach „nur noch in deutlich eingeschränktem Umfang“ ein.

Das Problem, dem sich Amazon hier gegenübersieht, ist kein Einzelfall: Da Menschen Systeme programmieren, selbst jedoch kaum neutral agieren, werden die Algorithmen – ob gewollt oder nicht – häufig zwangsläufig auch nicht neutral geschrieben. Da sie immer wieder mit gewissen emotional/kulturell/religiös oder sonstig belasteten Grundannahmen versehen werden, führen diese programmierten Datensätze zu Fehlern. – Ein Grundproblem bei der Arbeit mit Algorithmen und künstlicher Intelligenz.

Veröffentlicht: 12.10.2018
img Letzte Aktualisierung: 12.10.2018
Lesezeit: ca. 2 Min.
Artikel weiterempfehlen
Tina Plewinski

Tina Plewinski

Tina fokussiert sich auf Amazon, Marketingstrategien und digitale Plattformen – inklusive der Schattenseiten wie Online-Kriminalität.

KOMMENTARE
1 Kommentare
Kommentar schreiben

Avenger
18.10.2018

Antworten

Man kann es auch anders sehen.... :)

Wenn eine "Künstliche Intelligenz", die rein logisch handelt, der Meinung ist, dass man besser Männer als Frauen einstellen sollte, dann sollte uns das zu denken geben.