Navigation auf uzh.ch

Suche

UZH News

KI und Vorurteile

Das verborgene Leben der Algorithmen

Algorithmen sortieren für uns das Internet. Das Problem dabei: Niemand weiss genau, wie sie entscheiden. Anikó Hannák ändert das gerade. Was die Informatikerin dabei herausfindet, gibt zu denken.
Thomas Gull
Anikó Hannák
«In der anlogen Welt ist Diskriminierung verboten, die gleichen Regeln müssen auch online gelten.», sagt Anikó Hannák, Professorin für Social Computing

Das World Wide Web verspricht die grosse Freiheit, den nahezu unbeschränkten Zugang zu Informationen rund um den Globus. Doch wenn wir scheinbar uneingeschränkt und frei durchs Netz surfen und nach Produkten, Jobangeboten oder Ferienzielen suchen, werden wir gelenkt von einer unsichtbaren Hand oder wohl besser – einer Vielzahl unsichtbarer Hände. Das sind die Algorithmen, die Computerprogramme, auf denen Online-Plattformen wie Google, Facebook oder Amazon basieren. Diese Algorithmen kennen uns wahrscheinlich besser als wir uns selbst. Sie wissen, wo wir leben, welche Vorlieben wir haben und welche Freunde. Aufgrund dieses Wissens machen sie uns ständig Vorschläge: was wir kaufen sollen, wo unsere Ferien verbringen, mit welchen Freunden wir uns online verbinden ­könnten.

So geheim wie die Appenzeller Kräutersulz

Das bedeutet, die Algorithmen haben einen enormen Einfluss auf uns und auf die Gesellschaft als Ganzes. Das Verrückte dabei: «Die Programme sind eine Blackbox», sagt die Informatikerin Anikó Hannák, die das verborgene Leben der Algorithmen untersucht: «Wir wissen nicht, wie sie funktionieren, und die Firmen geben diese Informationen nicht Preis.» Für Unternehmen sind die Algorithmen Teil ihres Geschäftsmodells, sie hüten ihre Codes deshalb wie die Appenzeller das Geheimnis der Kräutersulz, mit der sie ihren Käse veredeln.

Forschende als Hacker

Hannák muss deshalb für ihre Forschung diese Systeme ausspionieren, um zu verstehen, was die Algorithmen tun und wie sich das auf die Nutzer auswirkt. Ist das nicht illegal? «Das ist eine komplexe Frage», antwortet Hannák verschmitzt, «es verstösst sicherlich gegen die Nutzungsbedingungen.» Doch für sie ist klar: Forschende müssen Einblick in diese Daten erhalten, denn für die Nutzer haben die Entscheidungen, die Algorithmen fällen, oft weitreichende Konsequenzen, über die sie sich nicht im Klaren sind. In den USA ist eine Klage ihrer früheren Arbeitsgruppe hängig, die genau das bezweckt – Forschende sollen Zugang zu den Codes der Algorithmen erhalten. Solange die Programme nicht freiwillig offengelegt werden, müssen sie halt gehackt werden. «Mittlerweile wissen wir recht gut, wie das geht», sagt Hannák und lacht.

Sie wissen nicht, was sie tun

Was noch verrückter ist als die Intransparenz: Meist wissen die Firmen, die die Algorithmen geschrieben haben, selber nicht genau, was diese machen und wie sie wirken. Das hat damit zu tun, dass die Algorithmen so programmiert sind, dass sie selber lernen und ihre eigenen Schlüsse aus dem Verhalten der Nutzerinnen und Nutzer ziehen.
Ein einfaches Beispiel: Wenn ich online ein Buch kaufe, wird mir der Algorithmus weitere ähnliche Bücher vorschlagen, etwa von der gleichen Autorin oder zum gleichen Thema. Das ist einigermassen harmlos. Doch Algorithmen schlagen nicht nur Bücher vor, sondern etwa auch Personen, die wir engagieren könnten, um Arbeiten für uns zu erledigen, oder solche, die in das Jobprofil eines Personalvermittlers passen, der online nach Arbeitskräften sucht.

Wenn Algorithmen Vorurteile haben

Wenn der Algorithmus in diesen Fällen in irgendeiner Weise parteiisch oder diskriminierend ist, kann das für die Betroffenen schwerwiegende Konsequenzen haben, etwa indem sie einen Auftrag oder einen Job nicht erhalten, weil der Algorithmus jemand anderes vorgeschlagen hat. Ob das tatsächlich so ist, ob Algorithmen wirklich Vorurteile haben und wie sich diese auswirken, erforscht Anikó Hannák. Die gebürtige Ungarin ist seit Anfang Jahr Assistenzprofessorin für Social Computing an der UZH und hat sich bereits in ihrer Dissertation mit dieser Frage beschäftigt.

Arbeitsteilung 

Für ihre Forschung untersucht Hannák, die ihre Dissertation im Lab von David Lazer an der North­eastern University in Boston gemacht hat, verschiedene US-Plattformen, auf denen Jobs vermittelt werden wie Task Rabbit, Fiverr oder Stack Overflow. Task Rabbit, hinter dem das Möbelhaus IKEA steht, vermittelt Personen, die körperliche Arbeit machen, von Zügeln über das Zusammenbauen von Möbeln bis zum Einkaufen. Auf Fiverr werden intellektuelle Arbeiten feilgeboten: Texte schreiben, Videos realisieren, Marketingstrategien entwickeln etwa. Und Stack Overflow ist die Online-Plattform für Tech-Nerds, auf der es für jedes Programmierproblem eine Antwort gibt. Gleichzeitig ist Stack Overflow mittlerweile auch zu einer Jobbörse geworden, die von Personalvermittlern gerne genutzt wird, die nach talentierten Programmierern fahnden.

Diskriminierung à discrétion

Hannák hat analysiert, wie diese Plattformen funktionieren. Konkret: Wer wird mir vorgeschlagen, wenn ich jemanden suche, der für mich ein Video dreht, das Klavier zügelt oder ein Computerprogramm schreibt? Was sie dabei herausgefunden hat, gibt zu denken: Auf allen drei untersuchten Websites wird munter diskriminiert. Dabei trifft es immer die Gleichen: Frauen und Schwarze.
Dafür gibt es zwei Erklärungen: Einerseits spiegeln die Algorithmen die Verhältnisse in der realen Gesellschaft. Sie sind der Spiegel, in dem wir die Fratze unserer Vorurteile sehen. Und, das ist noch problematischer, sie verstärken diese Vorurteile sogar.
Die erste der drei von Hannák untersuchten Websites ist Stack Overflow. Auf der Online-Plattform diskutieren Programmierer Fragen, die bei ihrer Arbeit auftauchen. «Wenn ich ein kniffliges Problem habe, kann ich das meist innerhalb von wenigen Minuten lösen, dank Stack Overflow», erklärt Informatikerin Hannák.

Belohnungssystem

In der Welt der Programmierer sind Frauen rar. Da könnte eine Online-Plattform wie Stack Overflow eine gute Gelegenheit bieten, sich als kompetente Programmierinnen zu präsentieren. Doch bestimmte Mechanismen führen dazu, dass die Männer auch hier sichtbarer sind als ihre weiblichen Kollegen. So verteilt die Plattform Punkte für Fragen und Antworten zu Problemen, die beim Programmieren auftauchen. Wer Fragen stellt oder diese beantwortet, wird mit Punkten belohnt. Dabei seien Fragen genauso wichtig wie Antworten, sagt Hannák denn «fast alle Programmierfragen sind beantwortet, es ist deshalb schwierig, gute Fragen zu stellen.» Trotzdem gab es lange Zeit für Fragen nur fünf Punkte, für Antworten zehn. Diese Punkte sind wichtig, denn wer mehr Punkte hat, ist im Ranking weiter vorn und damit sichtbarer und wird eher vorgeschlagen, wenn ein Personalvermittler nach geeigneten Programmierern sucht.

Geschlechtsspezifischer Unterschied 

Die Crux dabei: Frauen stellen mehr Fragen, Männer geben mehr Antworten. Die unterschiedliche Belohnung benachteiligt deshalb die Frauen. «Das war keine Absicht», sagt Hannák. Bevor sie die Website unter die Lupe nahm, wussten die Betreiber gar nicht, dass es in dieser Hinsicht einen geschlechtsspezifischen Unterschied gibt. Mittlerweile wurde das geändert, jetzt gibt es auch für Fragen zehn Punkte. Ein kleiner Erfolg für Hannák. Und eine Ausnahme. Denn meist reagieren die Betreiber der Website gar nicht oder ablehnend, wenn sie sie darüber informiert, dass es zu Verzerrungen kommt, die gewisse Gruppen benachteiligen.

Frauen und Schwarze werden benachteiligt

Das gilt auch für die Plattformen Task Rabbit und Fiverr, auf denen Selbständige ihre Dienste anbieten. Bei beiden konnte Hannák zeigen, dass Frauen und Schwarze benachteiligt werden und die Algorithmen der Plattformen diese Tendenz noch verstärken. Die wichtigste Ursache für die Diskriminierung sind die Nutzer selbst, denn deren Vorlieben spiegeln sich in den Präferenzen: So werden Angebote von weissen Männern eher angeklickt als solche von Frauen oder Schwarzen. 
Hannák hat auch die verbalen Rückmeldungen untersucht. Dabei zeigt sich: Bei Task Rabbit haben Frauen wesentlich weniger Bewertungen erhalten als Männer, und Schwarze wurden schlechter bewertet als Weisse. Bei Fiverr ergibt sich ein ähnliches Bild, dort erhielten Schwarze 32 Prozent weniger Bewertungen und diese waren wesentlich weniger positiv. Hingegen schnitten asiatische Anbieter wesentlich besser ab als Schwarze. «Wie wir feststellen mussten, gibt es beim Feedback eine klar negative Tendenz gegen Schwarze», kommentiert Hannák. 

Teufelskreis

Die Algorithmen verstärken dann diese Tendenzen noch, weil sie aus den Rückmeldungen «lernen». Das heisst, sie berücksichtigen, wie die Nutzer die Anbieter beurteilen und welche sie auswählen. Aufgrund dieses Wissens schlagen sie dann den Kunden Anbieter vor. Da weisse Männer am besten wegkommen, wird der Algorithmus sie auch eher neuen Kunden empfehlen. Frauen oder Schwarze haben damit von vornherein einen Nachteil, unabhängig von ihrer Leistung.
So entwickelt sich ein eigentlicher Teufelskreis, der nur schwer durchbrochen werden kann. Mögliche Massnahmen wären etwa, dass bei jeder Auswahl gleich viele Frauen wie Männer und Schwarze wie Weisse vorgeschlagen werden müssten. Oder dass Frauen und Schwarze einen Bonus bekommen. «Ein solches System wäre allerdings mit Sicherheit umstritten, weil es als umgekehrte Diskriminierung verstanden werden könnte», sagt Hannák.

Profit über Fairness

Einfache Lösungen gibt es nicht. «Doch um die Probleme überhaupt angehen zu können, muss man sie kennen», sagt Hannák. Leider zeigt die Erfahrung, dass die Firmen wenig Interesse daran haben. «Viele optimieren ihre Plattformen für den Profit, die Fairness bleibt dabei auf der Strecke», kritisiert sie. Faire Verhältnisse herzustellen, ist zu kostspielig. Das würde zuerst einmal voraussetzen, dass die Online-Firmen kontrollieren, was ihre Algorithmen so alles anstellen. Und wenn man dann feststellt, dass sie bestimmte Gruppen diskriminieren, müsste das korrigiert werden. Doch ein solches Monitoring kostet Geld. Die einen Firmen haben es nicht, weil sie noch zu klein sind, anderen fehlt der Wille oder das Bewusstsein, etwas zu ändern.

Algorithmen offenlegen

Doch das muss sich ändern, ist Hannák überzeugt. Appelle an die Eigenverantwortung helfen da jedoch meist nicht weiter. Deshalb braucht es Gesetze, die die Firmen in die Verantwortung nehmen. Und sie sollten verpflichtet werden, ihre Algorithmen offenzulegen, damit überprüft werden kann, was diese tun. Und zwar von unabhängiger Seite. «In der analogen Welt ist Diskriminierung verboten», sagt Hannák, «die gleichen Regeln müssen auch online gelten.» 
Immerhin: Die EU bemühe sich darum, den Online-Wildwuchs zu reglementieren und Verstösse zu ahnden, sagt die Informatik-Professorin. So wurde Google wegen Wettbewerbsverzerrung verurteilt, weil die Plattform bei ihren Empfehlungen eigene Produkte bevorzugte. Und die EU stellt im Moment viel Forschungsgeld zur Verfügung, um Systeme zu entwickeln, mit denen Plattformen überprüft werden können. «Das ist ein Lichtblick», sagt Hannák. Für sie ist klar: Es braucht Transparenz. Nur so kann sichergestellt werden, dass die Nutzer von Online-Plattformen nicht diskriminiert und übervorteilt werden.