Amazons künstliche Intelligenz (KI) zur Gesichtserkennung „Rekognition“ versagt bei Tests und verwechselt Männer und Frauen.
Die Technologie zur Gesichtserkennung soll künftig vor allem in der Bekämpfung und Prävention von Kriminalität zum Einsatz kommen. Vereinzelt nutzen Polizisten in den USA und das FBI die Software bereits, vor allem Amazon hatte seine Technologie aggressiv vermarktet. Die New York Times hat jetzt gemeinsam mit dem Media Lab des Massachusetts Institute of Technology (MIT) unterschiedliche Systeme von verschiedenen Anbietern getestet, unter anderem von Amazon, IBM und Microsoft. Das Ergebnis: Vor allem Amazons Gesichtserkennung „Rekognition“ schnitt dabei schlecht ab, berichtet die Times.
In einem Fünftel der untersuchten Fälle verwechselte Amazons „Rekognition“ Frauen mit Männern. Bei dunkelhäutigen Frauen war die Quote sogar noch höher – bei rund einem Drittel der Personen lag die künstliche Intelligenz daneben. Hellhäutige Männer hingegen konnte „Rekognition“ besser zuordnen. Aber andere Anbieter lieferten deutlich bessere Ergebnisse: Microsofts Technologie verbuchte zum Beispiel bei der Zuordnung von dunkelhäutigen Frauen nur eine Fehlerquote von 1,5 Prozent.
Kommentar schreiben