Wie Künstliche Intelligenz Diskriminierung reproduziert

Von Marie Huber

Wir erwarten von KI Innovation und bekommen oft Klischees, Rassismus und gefährliche Fehlentscheidungen. Doch nicht nur beim Generieren von Bildern wird deutlich, dass viele künstliche Intelligenzen problematische Inhalte wiedergeben. Denn das Problem der Diskriminierung reicht bis hinein in staatlich genutzte Softwares und zeigt sich auch in Selektionstools großer Unternehmen.

Zunächst einmal ist es wichtig zu klären: Was ist künstliche Intelligenz überhaupt und wie kommt es dazu, dass sie zu diskriminiert? Um es einfach zu formulieren, bezeichnet KI einen Teilbereich der Informatik, der darauf ausgelegt ist menschliche kognitive Fähigkeiten wie zum Beispiel das logische Denken, Lernen, Planen etc. zu imitieren. Dafür wird eine eng definierte Abfolge von Schritten programmiert, die auf eine Problemlösung hinarbeitet. Diese Abfolge nennt man Algorithmus. Eine KI besteht demnach aus vielen verschiedenen Algorithmen, die durch ihre Programmierung dazu in der Lage sind, neue Algorithmen zu erstellen. Das sorgt dafür, dass KI Muster erkennen, klassifizieren, Daten verarbeiten und vor allem auch neue Daten synthetisieren kann. Dadurch ist der Anwendungsbereich von künstlicher Intelligenz enorm und aus dem heutigen Leben beinahe nicht mehr wegzudenken. Die große Besonderheit von KI besteht demnach im selbständigen Lernen und Weiterentwickeln. Das heißt, die KI-Systeme suchen automatisch nach gewissen Mustern in Datensätzen. Das bietet auch die Grundlage für eine KI, die Diskriminierungsformen zu reproduzieren.

Die zwei wichtigsten Faktoren, die zur Diskriminierung durch KI beitragen sind also die Ausgangsqualität der genutzten Daten, als auch durch wen die Programmierung des entsprechenden KI-Systems erfolgt. Es wird deutlich: Die KI ist nicht neutral! Und die Folgen hiervon beobachten wir bereits im kleinen Rahmen.

Ein Beispiel, von dem mittlerweile wahrscheinlich viele gehört haben, sind Fälle wie die anfangs beschriebene Situation. Man möchte, aus welchen Gründen auch immer, ein Bild generieren und das Ergebnis besteht aus plumpen Klischees. Im Podcast »KI verstehen« zitieren die Moderatorinnen ein Selbstexperiment im englischsprachigen Raum, bei dem KI-betriebene Bildgeneratoren angewiesen wurden, verschiedene Berufsgruppen darzustellen. Und siehe da: Ein Anwalt wurde konsequent männlich gezeigt, während eine Pflegekraft immer als Frau dargestellt wurde. Man könnte jetzt meinen, das läge nun mal daran, dass das jeweilige Geschlecht eben in diesen Berufsgruppen überrepräsentiert ist und die KI sich demnach einfach an den Zahlen der Geschlechterverteilung in den Datensätzen orientiert. Doch das stimmt nicht. Die KI stellte auch Ärzte und Buchhalter als überwiegend männlich dar, obwohl mittlerweile klar ist, dass mehr Frauen als »Accountants« arbeiten und in vielen Ländern deutlich mehr Frauen als Männer Medizin studieren. Hinzu kommt, dass die generierten Bilder vorwiegend weiße, normschöne Menschen abbilden.

Aber das Problem beschränkt sich nicht nur auf ChatBots und Bildgeneratoren, die wir ab und zu im Alltag verwenden, – die den privaten Kontext aber nicht verlassen. Diskriminierung durch KI kann direkten Einfluss auf das Leben von Betroffenen nehmen.

Ein Beispiel hierfür ist das sogenannte »Amazon Recruiting Debacle«. Im Jahr 2014 setzte das Unternehmen erstmals eine KI ein, um Bewerbungen auf Stellen als Softwareingenieur zu überprüfen. Dabei kam heraus, dass die verwendeten Algorithmen besonders Frauen systematisch diskriminierten, indem diese direkt von der KI aussortiert wurden. Das hing damit zusammen, dass die KI mit den Lebensläufen aktueller Softwareingenieure bei Amazon trainiert wurde, wobei es sich zum größten Teil um weiße Männer handelte.

Ein ähnlicher Mechanismus zeigt sich auch in der Vergabe von Limits für Kreditkarten, bei der zunehmend KI verwendet wird. Ein Beispiel aus den USA zeigt ein Ehepaar, das getrennte Finanzen pflegte und zur gleichen Zeit eine neue Kreditkarte beantragte. Die Frau erzielte einen deutlich höheren »credit score«, da sie weniger Schulden hatte und über ein höheres Kapital verfügte als ihr Ehemann. Nichtsdestotrotz erhielt sie ein geringeres Kreditkartenlimit, da die KI lernte, dass Männer höhere Kredite aufnehmen und schlussfolgerte, dass Frauen demnach trotz besserem Score ein geringeres Limit haben sollten. 

Doch nicht nur Unternehmen machen von Künstlicher Intelligenz so viel Gebrauch wie nie zuvor. KI-basierte Softwares haben sich schon lange ihren Weg in die staatliche Exekutive gebahnt. In den USA wird beispielsweise schon seit einigen Jahren das KI-System »Correctional Offender Management Profiling for Alternative Sanctions«, kurz COMPAS, eingesetzt. Dieses System hat zum Ziel, Inhaftierten in den USA eine Sozialprognose zu stellen, die die Wahrscheinlichkeit eines Rückfalls in die Kriminalität berechnen soll. Da die Datengrundlage dieses KI-Systems jedoch gesellschaftlich verbreitete rassistische Vorurteile enthält, kommt es prozentual zu einer doppelt so häufigen schlechten Sozialprognose für Schwarze Menschen. Dabei haben Untersuchungen ergeben, dass weiße Menschen, denen eine positive Sozialprognose ausgesprochen wurde, häufiger wieder straffällig wurden als Schwarze Menschen. Der Konfirmationsbias der KI im COMPAS-System sorgt also dafür, dass People of Color öfter unbegründet keine Chance auf eine frühzeitige Entlassung erhalten.

Wir stellen also fest: Wenn man beim Thema Diskriminierung durch KI weitergräbt, tut sich ein Abgrund auf, der riesige gesellschaftliche Missstände in sich trägt. Um sich dagegen zu wehren ist es zunächst einmal wichtig anzuerkennen, dass KI einerseits als Spiegel der Gesellschaft betrachtet werden muss. Wir alle tragen mit dem, was wir beispielsweise im Internet veröffentlichen zu einer Datengrundlage bei, deren Inhalte eine KI später wiedergibt. Auf der anderen Seite jedoch ist die KI, vor allem in repressiven Kontexten, auch als Auswuchs eines Systems zu betrachten, das auf der Diskriminierung von Minderheiten beruht und sich KI zu eigen macht, um dieses System durchzusetzen. Deshalb ist es wichtig sich bereits im Kleinen über diese Problematik bewusst zu werden. Um etwas gegen Diskriminierung durch KI zu unternehmen, müssen wir lernen Diskriminierung zu erkennen und zu benennen, selbst wenn wir nicht direkt von ihr betroffen sind.

Über die Autorin:
Marie Huber

 Marie ist 21 Jahre alt, kommt aus Freiburg und  studiert aus Leidenschaft und Interesse an Frankreich in Straßburg Sozialwissenschaften mit dem Ziel, später mal Journalistin zu werden. Ungerechtigkeiten zu bekämpfen ist ihr sehr wichtig und gerade heutzutage in Zeiten der digitalen Welt werden Diskriminerungsformen deutlich subtiler und schwieriger zu erkennen.

Kommentar verfassen

Zurück nach oben

Entdecke mehr von Stimmen gegen Rassismus und Populismus

Jetzt abonnieren, um weiterzulesen und auf das gesamte Archiv zuzugreifen.

Weiterlesen