Direkt zum Inhalt

Künstliche Intelligenz verhindert Diskriminierung? Muss nicht – kann aber! Kommentar

DIW Wochenbericht 20 / 2019, S. 372

Gert G. Wagner

get_appDownload (PDF  71 KB)

get_appGesamtausgabe/ Whole Issue (PDF  3.2 MB)

Algorithmen in Form mathematisch-statistischer Verfahren diskriminieren nicht, heißt es oft. Das stimmt aber nicht. Algorithmen sind weder per se neutral, noch ist es unmöglich, dass sogenannte selbstlernende Systeme diskriminieren, ganz im Gegenteil. Gerade bei diesen ist die Gefahr einer systematischen Diskriminierung durch die erlernten Modell groß, denn sie werden auf historischen Daten „trainiert“, die sämtliche historischen und aktuellen Diskriminierungen unserer Gesellschaft nachbilden. Gleichwohl muss man Algorithmen nicht verteufeln, denn sie bieten auch die Möglichkeit, Diskriminierung offenzulegen und zu verhindern.

Früher kam man sexistischen oder anders diskriminierenden Entscheidern, die über ihre Motive schwiegen, nur schwer auf die Schliche. Wenn zum Beispiel ein Privatmann eine Wohnung vermietet, wird man ihm niemals Diskriminierung nachweisen können, wenn er nicht ausspricht, dass er etwa Menschen mit dunkler Hautfarbe oder Familien mit kleinen Kindern als Mieter nicht will. Würde dieser Vermieter jedoch einen Algorithmus einsetzen, etwa einen Fragebogen, der ihm hilft, BewerberInnen vorzusortieren – was Wohnungsbaugesellschaften übrigens machen –, hat dies einen entscheidenden Vorteil: Man kann sich diesen Algorithmus anschauen und testen.

Es wird zwar gerne behauptet, selbstlernende Algorithmen wären aufgrund ihrer Komplexität undurchschaubar, das ist aber nicht einmal die halbe Wahrheit. Selbst für neuronale Netze (das sind Computeralgorithmen, die als völlig undurchschaubar gelten) ist es möglich, herauszubekommen, welche „Nervenzellen“ (Knoten) maßgeblich an einer automatischen Entscheidung beteiligt waren und was sie repräsentieren. Zudem – und das ist technisch immer möglich – kann man schlicht das Verhalten des Algorithmus prüfen, indem man den Entscheidungsprozess, der im Computer abläuft, gar nicht weiter betrachtet und lediglich Ergebnisse für eine Vielzahl von Beispieldaten bzw. Personen hinsichtlich zuvor definierter Kriterien von Fairness und Diskriminierung prüft. Das ist so, als würde die Stiftung Warentest eine Kaffeemaschine testen.

Die Stiftung Warentest braucht nicht den Bauplan zu kennen, um festzustellen, ob die Mühle gut mahlt und wie lange sie durchhält. Testen macht die interne Komplexität eines Algorithmus für die Qualitätskontrolle völlig irrelevant. Mit einem geeigneten „Testset“ von Daten lässt sich also feststellen, ob ein Algorithmus diskriminiert.

Wobei freilich vorab sauber definiert werden muss, was wir unter Fairness überhaupt verstehen. Die Festlegung von Fairness-Kriterien ist weder trivial noch eindeutig. Beispiel Kreditvergabe: Ist die Kreditvergabe nur dann fair, wenn dieselben Anteile von Frauen und Männer, die einen Kredit wollen, auch bekommen? Dann werden Männer bevorzugt, wenn sie öfters als Frauen einen Kredit nicht zurückzahlen. Oder ist es fair, wenn kreditwürdige Frauen und Männer in gleichem Maße Kredite bekommen? Dann ist die Erfolgsquote von Frauen höher als die von Männern. Hört sich plausibel an. Aber man kann unter Fairness auch verstehen, dass tatsächlich kreditwürdige Frauen und Männer im gleichem Maße fälschlich als nicht-kreditwürdig eingestuft werden. Diesen Fehler der „zweiten Art“ gibt es nämlich auch, und in diesem Beispiel würde er die Frauen stärker treffen. Dass alle drei Fairnesskriterien gleichzeitig erfüllt werden, ist theoretisch zwar möglich, aber in der Realität praktisch nie gegeben.

Nicht nur die KI-Forschung muss sich endlich damit befassen, was Fairness eigentlich in welcher Situation bedeutet. Und wir alle sollen uns anhand von Beispielfällen und einer systematischen Definition und Analyse von Fairness im Klaren darüber werden, was Algorithmen mit uns machen. Technisch ist das machbar – der Gesetzgeber muss es nur wollen und sicherstellen, dass es auch geschieht. Dann wird man bei Algorithmen gegebenfalls eingreifen können und sie „lernen“ lassen, nicht zu diskriminieren.

Der Beitrag, der in längerer Form in der Süddeutschen Zeitung am 6. Mai 2019 erschienen ist, entstand in Zusammenarbeit mit der Informatikerin Meike Zehlike, Humboldt Universität Berlin und Max Planck Institut für Softwaresysteme in Saarbrücken.

Gert G. Wagner

Fellow in der Infrastruktureinrichtung Sozio-oekonomisches Panel

keyboard_arrow_up