Sind Algorithmen diskriminierend?

12. April 2021

„Maschinen tragen keine Verantwortung. Menschen tragen Verantwortung!“ Dieser eingängige Satz von Jessica Wulf von AlgorithmWatch bei ihrem Vortrag „Sind Algorithmen diskriminierend?“, den sie am 07. April im Auftrag vom Netzwerk gegen Rechts im Oberbergischen Kreis und der VHS Oberberg gehalten hat, blieb uns im Gedächtnis. Er bedeutet, dass wir dafür verantwortlich sind, dass von uns verwendete „automatisierte Entscheidungsfindungen“ Menschen nicht diskriminieren.

Algorithmen sind im Alltag überall zu finden, etwa in Bereichen wie social media, in Spam Ordnern bei E-Mail-Anbietern, in Suchmaschinen, Taschenrechnern und Navigationssystemen. Sie bilden die Basis sehr vieler, von uns im Alltag genutzten Computerprogrammen. Heute können Programmierungen und Maschinen schon viele Unterscheidungen und Einordnungen treffen von denen wir vor einigen Jahren noch dachten, dass diese nur von uns Menschen getroffen werden können.

Dabei ist wichtig, immer den Kontext zu betrachten, in den Algorithmen in der Gesellschaft eingebettet sind. Algorithmen, oder besser automatisierte Entscheidungsfindungssysteme, diskriminieren nicht von alleine, sondern spiegeln die Vorurteile der Gesellschaft wider, da schon die Datengrundlage, mit der sie entwickelt werden, Stereotype enthalten.

Hier ein kleines Beispiel:

Wir geben den Satz „Die Ärztin und der Krankenpfleger essen gemeinsam zu Mittag“ bei DeepL ein und übersetzen ihn auf Finnisch (im Finnischen gibt es kein grammatikalisches Geschlecht). Anschließend geben wir den finnischen Satz ein und lassen ihn auf Deutsch übersetzen. Herauskommt: „Der Arzt und die Krankenschwester essen gemeinsam zu Mittag.“ (siehe Foto).

Sind Algorithmen rassistisch

Diese Fehlentscheidungen entstehen aus Datensätzen, bei denen die zugrundeliegenden Stichproben nicht der Gesellschaft entsprechen (wie viele der Mediziner*innen sind männlich, wie viele weiblich und wer überhaupt divers in diesem Datensatz?), aber auch, weil Menschen die Algorithmen programmieren und bewusst oder unbewusst ihre Vorurteile in ihre Arbeit übertragen.

Dies zeigt also, wenn menschliche Vorurteile (Arzt = Mann; Krankenpfleger*in = Frau) auf Algorithmen übertragen werden, systematisieren und verselbstständigen sie sich innerhalb der automatisierten Entscheidungsfindungen und fließen bei jeder weiteren Nutzung mit ein.

Die Folge können dann schwerwiegende Diskriminierungen, Bevorteilungen, aber auch Rassismus (wie bspw. bei der automatisierten Gesichtserkennung) sein. Wichtig wäre es deshalb, Kategorien der Beurteilung offen zu legen, um etwas daran ändern und Einspruch erheben zu können.

32 Personen nahmen an der Veranstaltung via Zoom teil und eine rege Fragerunde schloss sich an den Vortrag an. Jessica Wulf endete mit dem Hinweis, dass Sexismus und Rassismus durch Algorithmen nicht gelöst werden können, deshalb müssen wir gemeinsam entscheiden, wie und wo wir automatisierte Entscheidungsfindungen einsetzen.

Weitere Hinweise:

https://algorithmwatch.org/de/

https://netzpolitik.org/

Weitere Blogbeiträge

Jugendkulturpreis 2024

Jugendkulturpreis 2024

Anlässlich der Verleihung des Jugendkulturpreis am 08.11.2024 kamen junge Talente aus dem Oberbergischen Kreis im Lindenforum in Gummersbach zusammen, um ihre kreativen Werke und ihr Engagement gebührend feiern zu lassen. Unter dem Motto: „Bunt statt braun – Gestern,...

Radikalisierung: Prävention oder Abschiebung?

Radikalisierung: Prävention oder Abschiebung?

Ein Beitrag zur aktuellen Debatte. Extremistischer Islamismus: Der Begriff Islamismus wird unterschiedlich interpretiert. Eine häufig verwendete wissenschaftliche Definition beschreibt Islamismus als eine Ideologie, die darauf abzielt, das gesellschaftliche,...

Rechtsaußen Parteien im Europäischen Parlament

Rechtsaußen Parteien im Europäischen Parlament

Nach dem Rauswurf der AfD aus der ID Fraktion, kurz vor Ende der letzen Legislaturperiode, hat sie sich mit anderen rechtsaußen Kräften zusammen getan. "Europa souveräner Nationen" nennt sich die neue Fraktion, deren Abgeordnete meist noch rechts von den großen...

Auf dem Laufenden bleiben