Menü
Kieler Nachrichten | Ihre Zeitung aus Kiel
Wissen Algorithmen und ihre Vorurteile
Nachrichten Wissen Algorithmen und ihre Vorurteile
Partner im Redaktionsnetzwerk Deutschland
15:00 26.11.2018
Algorithmen sind nicht per se fair. Sie können auch diskriminierend sein. Quelle: iStock | Montage: RND
Hannover

Wer hat das größere Risiko, rückfällig zu werden – Brisha oder Vernon? Brisha und ihre Freundin hatten ein Kinderfahrrad und einen Tretroller von der Straße geklaut. Vernon hatte Werkzeuge in einem Baumarkt mitgehen lassen. In beiden Fällen betrug der Wert des Diebesguts ungefähr 80 Dollar. Wie wahrscheinlich ist es, dass Brisha oder Vernon wieder straffällig werden?

Eine fehlerhafte Einschätzung

Gerichte müssen schwierige Entscheidungen treffen. Weil niemand die Zukunft eines Menschen kennt, verlassen sie sich dabei auf andere Mittel wie Intuition, Statistik, andere Fälle, Experten und – beispielsweise in den USAAlgorithmen. Im Fall von Brisha und Vernon kam ein Programm namens Compas zu dem Schluss, dass bei Brisha die Gefahr, rückfällig zu werden, sehr hoch liege. Für Vernon schätzte es das Risiko dagegen eher gering ein. Doch das war falsch. Brisha wurde nicht mehr auffällig – Vernon dagegen brach in eine Lagerhalle ein und landete für acht Jahre hinter Gittern.

Wie konnte Compas sich so irren? Das Programm war, das haben Journalisten gezeigt, auf gewisse Weise rassistisch. Bei weißen Menschen – wie Vernon – kam Compas viel öfter fälschlicherweise zu dem Schluss, dass das Rückfallrisiko gering sei. Schwarze Angeklagte – wie Brisha – wurden dagegen häufiger zu Unrecht als zukünftige Verbrecher eingestuft.

Algorithmen beeinflussen Leben

Allgemein gesagt legen Algorithmen fest, wie eine Aufgabe gelöst wird. Sie geben Computern eine Anleitung, sie sagen einer Maschine am Fließband, wo und wie sie eine Schraube eindrehen soll. „Informationstechnologie arbeitet schon immer mit Algorithmen“, sagt Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn. Das hat uns nur bisher nie so richtig beeindruckt.

Das ist anders, seit wir es mit einer anderen Art von Algorithmen zu tun haben. Sie sind nun anpassungsfähig, das Ergebnis ihrer Arbeit hängt von den Daten ab, die sie verwenden und von denen sie lernen. Die neuen Algorithmen sind so in der Lage, in einem gigantischen Wust aus Daten Muster zu erkennen, Schlüsse zu ziehen.

Ob im Justizsystem, bei der Kontrolle am Flughafen oder bei der Kreditvergabe – Algorithmen beeinflussen oder treffen mittlerweile viele Entscheidungen, die für Menschen ganz reale Konsequenzen haben. Österreichische Arbeitsämter wollen zum Beispiel Arbeitslose von Algorithmen nach ihren Chancen auf dem Arbeitsmarkt sortieren lassen.

Es gehe bei Algorithmen nicht um die Frage, ob sie schlechter oder besser als Menschen seien, erklärt Matzner. Sie sind einfach anders als Menschen: Ihr Bild von der Welt entsteht durch Daten. So können sie Dinge wahrnehmen, die Menschen verborgen bleiben.

Algorithmen sind nicht per se fair

Wenn Algorithmen am Werk sind, muss das deshalb nicht automatisch schlecht sein. Algorithmen haben keine miesen Tage, sie können nicht morgens mit dem falschen Fuß aufstehen. Algorithmen muss man auch nicht immer wieder sagen, dass sie bitte nicht auf die Attraktivität eines Bewerbers achten sollen – nur damit sie diesen Hinweis trotzdem ignorieren. Ein Algorithmus wird nicht müde.

Doch die Vorstellung, dass Algorithmen automatisch fair sind, trügt. Algorithmen können diskriminieren. Zum Beispiel, wenn sie im Fall von Gesichtserkennungssoftware nur die Gesichter weißer Männer wirklich treffsicher erkennen. Oder wenn sie einem Menschen den Kredit verweigern, nur weil er in einer Umgebung wohnt, in der viele Menschen ihre Kredite nicht zurückzahlen. Oder wenn der Algorithmus, der für Amazon Bewerber einordnen soll, etwas gegen Frauen hat.

Algorithmen können diskriminierend sein“

Natürlich sind nicht die Algorithmen selbst Rassisten oder Sexisten. Doch wie werden ihre Entscheidungen sexistisch oder rassistisch? Wie werden Algorithmen unfair? „Algorithmen können auf drei Arten diskriminierend sein“, sagt Matzner.

Zum einen kann Diskriminierung mit Absicht in den Code eines Algorithmus eingeschrieben sein – zum Beispiel wenn ein Bewerber nicht bei der Konkurrenz gearbeitet haben soll. Das wäre eine Form der Diskriminierung, die legitim wäre, sagt Matzner.

Zum Zweiten kann Diskriminierung sich unbeabsichtigt im Algorithmus niederschlagen. Das passiert meistens durch die Daten. So war es zum Beispiel im Fall von Compas – oder auch bei Amazon: Der Algorithmus sollte anhand der Bewerbungen der vergangenen zehn Jahre lernen, was einen vielversprechenden Bewerber ausmacht. Das Problem: Die Tech-Industrie war in dieser Zeit von Männern dominiert – die meisten Bewerbungen kamen also von Männern. Der Algorithmus kam daraufhin zu dem Schluss, dass Männer anscheinend zu bevorzugen seien. Tauchte in einer Bewerbung dagegen das Wort „Frau“ auf – weil die Bewerberin beispielsweise die Vorsitzende eines Frauenschachklubs war, wurde das negativ bewertet, wie Reuters berichtete. Der Algorithmus sorgte so dafür, dass eine Ungleichheit aus der Vergangenheit auch in der Gegenwart fortbestehen konnte. Er hatte durch die Daten die Unfairness der Menschen geerbt und fortgeschrieben. Mathematische Modelle, warnt daher auch die Mathematikerin Cathy O’Neil in ihrem Buch „Angriff der Algorithmen“, basieren nicht einfach auf Daten, „sondern auch auf den Entscheidungen, die wir darüber treffen, welche Daten wir beachten – und welche nicht“.

Drittens kann Diskriminierung auch rein zufällig entstehen, in Formen, die für uns Menschen gar keinen Sinn ergeben. So könnte zum Beispiel, sagt Matzner, ein Algorithmus zu dem Schluss kommen, dass Menschen unter 30 aus Süddeutschland kategorisch nicht kreditwürdig sind.

Weiße Tech-Milliardäre wie Elon Musk warnen gerne vor den Gefahren der künstlichen Intelligenz. Eines Tages, behaupten sie, wird sie so schlau sein, dass sie Kriege anzettelt und uns alle vernichtet. Solche Sorgen sind ein Luxusproblem. Die Wirklichkeit ist dagegen: Algorithmen müssen nicht erst Science-Fiction-mäßig schlau sein, um zum Problem zu werden – vor allem für ärmere Menschen, für Minderheiten.

Unfaire Algorithmen: Was hilft?

Zum einen Transparenz auf vielen Ebenen: Man muss wissen, ob eine Entscheidung mithilfe eines Algorithmus gefallen ist. Um dann beispielsweise eine absichtliche Diskriminierung zu erkennen, muss der Quellcode zugänglich sein. Institutionen, die algorithmische Entscheidungsverfahren einsetzen, müssen ebenfalls rechenschaftspflichtig sein. Die Ergebnisse dieser Verfahren müssten überprüft werden – ohne dabei den Datenschutz zu missachten. Neben Transparenz, sagt Matzner, spielt aber auch Zugänglichkeit eine große Rolle. Damit Menschen, die bemerken, dass etwas falsch läuft, die Möglichkeit haben, eine Änderung durchzusetzen.

Von Anna Schughart/RND

Kommentare
Die Debatte geht am Morgen weiter
Die Kommentarfunktion ist zwischen 22:00 und 06:00 Uhr nicht aktiv – denn wir wollen eine gute Moderation der Beiträge gewährleisten.
Wir freuen uns am Morgen über Ihre konstruktiven Beiträge zum Thema!

Ein chinesischer Wissenschaftler behauptet, dass die weltweit ersten mit Crispr/Cas9 behandelten Kinder zu Welt gekommen seien. Die beiden chineschischen Mädchen sollten mit Hilfe der Genschere HIV-resistent werden. Der Deutsche Ethikrat verurteilt das auf Schärfste.

26.11.2018

Was ist der Totensonntag, wie wird er begangen und handelt es sich um einen Feiertag? Lesen Sie hier mehr zu den Hintergründen und traditionellen Bräuchen des Ewigkeitssonntags.

26.11.2018

Elon Musk will sich auf zum Mars machen. In sieben Jahren, sagte der Unternehmer, wolle er auf dem Mars leben. Dass das extrem gefährlich ist, weiß Musk.

26.11.2018