Im Rahmen der Ausstellung Planet Digital sind vier Filme zu sehen, die aufzeigen, wie Algorithmen dafür sorgen können, dass wir einen Job nicht bekommen, weil wir eine Frau sind oder Brillenträger oder unsere Hautfarbe nicht weiss ist. Dasselbe gilt für digitale Vorauswahlen durch Algorithmen beim Bewerbungsprozess. Menschen mit aussergewöhnlichen Lebensläufen, die nicht wirklich auswertbar sind, fallen so gerne durch die digitalen Maschen und werden gar nicht erst für eine weitere Bewerbungsrunde ausgewählt. Ein Auswahl-Programm per Video bewertet einen Lebenslauf /eine Person auch als geeigneter, wenn im Hintergrund ein Bücherregal steht oder der/die Kandidat/in die Helligkeit des Videos verändert. Kurzum: Vermutlich liefert das Tool überhaupt keine sinnvollen Ergebnisse
Online-Stelleninserate, z.B. auf Facebook, werden weltweit substanziell häufiger Männern als Frauen gezeigt, obwohl Frauen mit einer höheren Wahrscheinlichkeit reagieren.
Zudem gelten Familien in armen Verhältnissen automatisch als gefährdender für das Kindeswohl, da es genügend auszuwertende Daten (z.B. am Sozialamt) über sie gibt, während der Algorithmus eventuell für wohlhabende Familien aufgrund mangelnder Daten keine Kindeswohlgefährdung erkennt.
Ähnliches gilt für Computerprogramme, die arbeitssuchende Personen in erfolgsversprechende, unterstützenswerte und hoffnungslose Fälle einteilen. Frauen generell, Frauen nach der Geburt, alleinerziehende Mütter, Menschen mit körperlicher Beeinträchtigung oder gesundheitlichen Problemen oder jemand, der schon länger arbeitslos ist / länger nicht gearbeitet hat, werden schlechter bewertet und gelten so als nicht vermittlungsfähig, werden ergo als nicht unterstützenswürdig eingeteilt. Eine Abwärtsspirale, aus der die betreffende Person kaum mehr rauskommt. Je mehr Daten dieser Art über eine Person vorhanden sind, umso schlechter ihre Chancen, wieder einen Job zu bekommen. Diskriminierung aufgrund von Bewertungen via Algorithmen.
In den USA gibt es ein Programm, dass darüber entscheiden soll, welche Patient:innen Zugang zu einem Pflegeprogramm mit persönlicher Betreuung erhalten sollen. Wer hohe Kosten verursacht galt als bedürftiger als jener mit niedrigen Gesundheitskosten. Nicht bedacht wurde, dass people of color generell niedrigere Kosten verursachten als Weisse bei gleich schlechtem Gesundheitszustand. Das Programm teilte sie aber als weniger bedürftig ein.
Ähnliche Ungerechtigkeiten aufgrund zu weniger Daten oder falscher Schlussfolgerungen gab es bei Gesichtserkennungsprogrammen weltweit von Microsoft, IBM und Face++ : Bei Frauen mit dunkler Hautfarbe lagen die Fehlerraten zwischen 20.8 und 34.7%, bei jenen von Männern mit heller Hautfarbe bei 0.0 - 0.8%; zudem bei Video-Persönlichkeits-Profilen in Deutschland, bei der Aufdeckung von Sozialhilfebetrug in den Niederlanden, bei der Notenvergabe per Algorithmus im Vereinigten Königreich, bei der Bewertung von Gefangenen in der Schweiz und bei der Zuweisung von Geflüchteten in der Schweiz, den Niederlanden und Kanada.
Museum für Gestaltung Zürich
Tobia Urech, Anna Mätzener, AlgorithmWatch Schweiz Tristesse
Corinne Hartweck, Christoph Heitz, School of Engineering, ZHAW
www.susann-klossek.ch - Susann Klossek
Keine Kommentare:
Kommentar veröffentlichen