„Maschinen tragen keine Verantwortung. Menschen tragen Verantwortung!“ Dieser eingängige Satz von Jessica Wulf von AlgorithmWatch bei ihrem Vortrag „Sind Algorithmen diskriminierend?“, den sie am 07. April im Auftrag vom Netzwerk gegen Rechts im Oberbergischen Kreis und der VHS Oberberg gehalten hat, blieb uns im Gedächtnis. Er bedeutet, dass wir dafür verantwortlich sind, dass von uns verwendete „automatisierte Entscheidungsfindungen“ Menschen nicht diskriminieren.
Algorithmen sind im Alltag überall zu finden, etwa in Bereichen wie social media, in Spam Ordnern bei E-Mail-Anbietern, in Suchmaschinen, Taschenrechnern und Navigationssystemen. Sie bilden die Basis sehr vieler, von uns im Alltag genutzten Computerprogrammen. Heute können Programmierungen und Maschinen schon viele Unterscheidungen und Einordnungen treffen von denen wir vor einigen Jahren noch dachten, dass diese nur von uns Menschen getroffen werden können.
Dabei ist wichtig, immer den Kontext zu betrachten, in den Algorithmen in der Gesellschaft eingebettet sind. Algorithmen, oder besser automatisierte Entscheidungsfindungssysteme, diskriminieren nicht von alleine, sondern spiegeln die Vorurteile der Gesellschaft wider, da schon die Datengrundlage, mit der sie entwickelt werden, Stereotype enthalten.
Hier ein kleines Beispiel:
Wir geben den Satz „Die Ärztin und der Krankenpfleger essen gemeinsam zu Mittag“ bei DeepL ein und übersetzen ihn auf Finnisch (im Finnischen gibt es kein grammatikalisches Geschlecht). Anschließend geben wir den finnischen Satz ein und lassen ihn auf Deutsch übersetzen. Herauskommt: „Der Arzt und die Krankenschwester essen gemeinsam zu Mittag.“ (siehe Foto).
Diese Fehlentscheidungen entstehen aus Datensätzen, bei denen die zugrundeliegenden Stichproben nicht der Gesellschaft entsprechen (wie viele der Mediziner*innen sind männlich, wie viele weiblich und wer überhaupt divers in diesem Datensatz?), aber auch, weil Menschen die Algorithmen programmieren und bewusst oder unbewusst ihre Vorurteile in ihre Arbeit übertragen.
Dies zeigt also, wenn menschliche Vorurteile (Arzt = Mann; Krankenpfleger*in = Frau) auf Algorithmen übertragen werden, systematisieren und verselbstständigen sie sich innerhalb der automatisierten Entscheidungsfindungen und fließen bei jeder weiteren Nutzung mit ein.
Die Folge können dann schwerwiegende Diskriminierungen, Bevorteilungen, aber auch Rassismus (wie bspw. bei der automatisierten Gesichtserkennung) sein. Wichtig wäre es deshalb, Kategorien der Beurteilung offen zu legen, um etwas daran ändern und Einspruch erheben zu können.
32 Personen nahmen an der Veranstaltung via Zoom teil und eine rege Fragerunde schloss sich an den Vortrag an. Jessica Wulf endete mit dem Hinweis, dass Sexismus und Rassismus durch Algorithmen nicht gelöst werden können, deshalb müssen wir gemeinsam entscheiden, wie und wo wir automatisierte Entscheidungsfindungen einsetzen.
Weitere Hinweise: