Navigation auf uzh.ch

Suche

UZH News

KI und Fairness

Zusammen schlauer werden

Kreditgesuche prüfen, Stellenbewerber auswählen: Immer öfter werden mit Hilfe von Künstlicher Intelligenz Entscheide gefällt. Fairer werden sie damit nicht, sagt Ethiker Markus Christen, dennoch kann KI uns klüger machen.
Interview: Roger Nickl
Markus Christen
«Fairnessprobleme in KI-Systemen lassen sich aus mathematischen Gründen kaum vermeiden.», sagt Markus Christen, Geschäftsführer der Digital Society Initiative (DSI) der UZH und Leiter des Digital Ethics Lab der DSI

Markus Christen, Sie haben in einer grossangelegten Studie die Chancen und Risiken von Künstlicher Intelligenz ausgelotet. Was wird uns KI bringen? 

Markus Christen: Es gibt unzählige unterschiedliche Prognosen. Alle sind sich einig, dass KI unser Leben verändern wird. Was dies bedeutet, ist viel weniger klar. Man muss sich bewusst sein, dass unter dem Begriff Künstliche Intelligenz ganz unterschiedliche Technologien und Anwendungen fallen – von der industriellen Fertigung bis zu Chatbots. So gesehen ist der Begriff sehr unscharf. In der TA-Swiss-Studie (siehe Seite 45) haben wir uns vor allem mit der automatisierten Entscheidung mit Hilfe von KI-Systemen beschäftigt. Solche Systeme werden etwa zur Bearbeitung von Kreditgesuchen, zur Auswahl von Stellenbewerbungen oder in autonomen Fahrzeugen verwendet. Die Frage ist nun, was es für unser Leben bedeutet, wenn KI uns Entscheidungen abnimmt oder uns unterstützt.

Weshalb wird überhaupt auf KI gesetzt, wenn es darum geht, Entscheidungen zu treffen?

Christen: Der Trend zum datenbasierten Entscheiden ist sehr verbreitet. Dahinter verbirgt sich das Ideal des rationalen, objektiven und fairen Urteilens, im Gegensatz zu den zuweilen irrationalen und vorurteilsbehafteten Entscheiden, zu denen wir Menschen neigen. Ob allerdings rein rationale Entscheide auch menschengerecht sind, ist fraglich. Wenn zum Beispiel künftig nur noch eine KI nach rationalen Kriterien über eine Kreditvergabe bestimmen sollte, verarmt damit auch die Entscheidungsvielfalt. Das könnte ein Problem sein. Menschen treffen zwar immer wieder falsche Entscheide, aber für das Gesamtsystem muss das nicht unbedingt schlecht sein. Wir kennen das aus der Wissenschaft: Manchmal führen auch falsche Wege unerwartet zum Ziel.

Wenn KI-Systeme über Fragen entscheiden, die für unsere Leben relevant sind, geben wir auch Kontrolle und Verantwortung ab. Das verunsichert. Wie schätzen Sie diese Entwicklung ein?

Christen: Die Angst davor, dass wir die Kontrolle verlieren und künftig nur noch Maschinen anstatt Menschen entscheiden, halte ich für übertrieben. Denn die KI-Systeme bauen schliesslich wir, das sind unsere Design-Entscheide. Die Systeme können das nicht selbst tun, dazu fehlt ihnen das Bewusstsein. Sie haben auch keine Wünsche, ganz im Gegensatz zu uns. Wir setzen KI unseren Wünschen gemäss ein, weil sie bestimmte Aufgaben besser lösen kann als wir. Last, but not least wird KI selbst im autonomsten Fall immer wieder überprüft werden müssen. Es muss laufend getestet werden, ob das System noch das macht, was es soll. Dafür wird auch in Zukunft ein Mensch zuständig sein. Ein Banker, der sich bei einem Entscheid über eine Hypothek auf die Empfehlungen einer KI stützt, muss schliesslich wissen, wann er dem System trauen kann und wann nicht. 

Heutige KI-Technologie beruht auf lernfähigen Algorithmen. Das macht es schwierig, ihre Arbeitsweise zu durchschauen, weil sie sich durch Lernen immer wieder verändert. Wie können wir mit diesem Problem umgehen? 

Christen: Transparenz ist im Zusammenhang mit KI ganz zentral. Deshalb ist Forschung im Bereich Explainable AI, die Künstliche Intelligenz erklären will, unerlässlich. Es gibt übrigens Anwendungsbereiche für KI, in denen eine Begründungspflicht bestehen sollte. Der Staat beispielsweise, der seinen Bürgern Regeln und Pflichten auferlegen kann, muss in solchen Fällen des hoheitlichen Handelns gute Gründe dafür haben, weshalb und wie er KI einsetzt. 

KI soll Entscheide auch fairer machen. Haben Maschinen wirklich die bessere Moral als wir? 

Christen: Lassen Sie mich dazu ein Beispiel machen: 2016 machte der Compas-Algorithmus der US-Firma Northpointe Schlagzeilen. Das KI-System liefert US-Richterinnen und -Richtern, die über die frühzeitige Haftentlassung von Straftätern befinden müssen, Einschätzungen zur Rückfallgefahr. Eine Organisation für investigativen Journalismus mit dem Namen ProPublica untersuchte die Arbeitsweise des Systems und kam zum Schluss, es mache rassistische Prognosen. Tatsächlich attestierte Compas Afroamerikanern eine fast doppelt so hohe Rückfallquote wie Weissen – und dies, obwohl die Hautfarbe als Kriterium im Programm explizit ausgeschlossen war. ProPublica vermutete nun, dass die Entwickler beim Schreiben des Algorithmus zu wenig sorgfältig oder sogar implizit rassistisch waren. 

Lagen die Kritiker richtig?

Christen: Nein, nach den Enthüllungen von ProPublica konnten Forscherinnen und Forscher zeigen, dass das Problem Teil des Systems selbst ist. Fairnessprobleme in KI-Systemen lassen sich aus mathematischen Gründen kaum vermeiden. Denn unterschiedliche Fairnesskriterien – und diese gilt es beim Programmieren eines Algorithmus zu ­definieren – können sich zuweilen gegenseitig ­ausschliessen. Entsprechend lassen sich diskrimi­nierende Verzerrungen auch mit KI-basierten Entscheidungssystemen nicht völlig aus dem Weg räumen, weil das Ausmerzen einer Form von Unfairness automatisch andere Formen von Unfairness zur Folge hat. 

Faire Entscheidungen mit Hilfe von KI zu treffen, ist eine Illusion?

Christen: Genau. Die Frage, was fair ist, ist uralt. Mit ihr hat sich bereits Aristoteles auseinandergesetzt. Bereits der antike Philosoph hielt fest, dass es unterschiedliche Arten von Gerechtigkeit gibt. Wir müssen nun feststellen, dass uns KI nicht von diesen Problemen befreit. Wir können der Frage, welche Art von Fairness relevant ist, nicht aus dem Weg gehen. Mit einem neuen Forschungsprojekt, das unser Team gemeinsam mit Kollegen anderer Hochschulen lanciert hat, möchten wir nun Software-Spezialisten für Fairnessfragen sensibilisieren. Ziel ist es, Instrumente zu entwickeln, mit denen die Entwickler spielerisch erfahren können, dass es beim Bauen von intelligenten Algorithmen eben nicht allein um Informatikfragen, sondern eben auch um Fairness geht.

Was nützen uns denn KI-Systeme wie Compas, wenn Sie nicht wirklich fairer entscheiden können als wir?

Christen: Solche Systeme können uns vielleicht auf eigene Vorurteile und systematische Fehler aufmerksam machen. KI kann uns keine Entscheidungen abnehmen, aber als eine Art Zweitmeinung Empfehlungen machen. Ganz grundsätzlich glaube ich, dass KI das Potenzial hat, uns klüger zu machen. Weil sie eben ganz anders funktioniert als wir und riesige Datenmengen poolen und verarbeiten kann, die wir nicht kennen, gibt sie uns die Möglichkeit, uns in ihr zu spiegeln. Das ist positiv, gerade auch wenn es um schwierige Entscheidungen geht. Zentral ist: Es muss immer ein Zusammenspiel von Mensch und Maschine sein. Maschinen, die autonom entscheiden, sind nicht erstrebenswert. 

Welche Rolle werden KI-Entscheidungssysteme in Zukunft spielen?

Christen: Transparenz und klare Regeln sind zentral für einen positiven Umgang mit Künstlicher Intelligenz. Gut eingesetzt könnte KI künftig eine wertvolle Begleiterin unseres Denkens werden, die uns wie eine gute Freundin auf Dinge hinweist, auf die wir selber nicht kommen. Wir könnten zusammen schlauer werden. 

 

Macht uns künstliche Intelligenz dümmer, als wir sind? Oder wird sie dabei helfen, die Probleme der Menschheit zu lösen? Im Video gibt Markus Christen gemeinsam mit anderen UZH-Experten Antworten auf diese Fragen. (Video: UZH Kommunikation/Zentrale Informatik, Mels)