KI und Fairness

Zusammen schlauer werden

Kreditgesuche prüfen, Stellenbewerber auswählen: Immer öfter werden mit Hilfe von Künstlicher Intelligenz Entscheide gefällt. Fairer werden sie damit nicht, sagt Ethiker Markus Christen, dennoch kann KI uns klüger machen.

Interview: Roger Nickl

Markus Christen
«Fairnessprobleme in KI-Systemen lassen sich aus mathematischen Gründen kaum vermeiden.», sagt Markus Christen, Geschäftsführer der Digital Society Initiative (DSI) der UZH und Leiter des Digital Ethics Lab der DSI (Bild: Stefan Walter)

Markus Christen, Sie haben in einer grossangelegten Studie die Chancen und Risiken von Künstlicher Intelligenz ausgelotet. Was wird uns KI bringen? 

Markus Christen: Es gibt unzählige unterschiedliche Prognosen. Alle sind sich einig, dass KI unser Leben verändern wird. Was dies bedeutet, ist viel weniger klar. Man muss sich bewusst sein, dass unter dem Begriff Künstliche Intelligenz ganz unterschiedliche Technologien und Anwendungen fallen – von der industriellen Fertigung bis zu Chatbots. So gesehen ist der Begriff sehr unscharf. In der TA-Swiss-Studie (siehe Seite 45) haben wir uns vor allem mit der automatisierten Entscheidung mit Hilfe von KI-Systemen beschäftigt. Solche Systeme werden etwa zur Bearbeitung von Kreditgesuchen, zur Auswahl von Stellenbewerbungen oder in autonomen Fahrzeugen verwendet. Die Frage ist nun, was es für unser Leben bedeutet, wenn KI uns Entscheidungen abnimmt oder uns unterstützt.

Weshalb wird überhaupt auf KI gesetzt, wenn es darum geht, Entscheidungen zu treffen?

Christen: Der Trend zum datenbasierten Entscheiden ist sehr verbreitet. Dahinter verbirgt sich das Ideal des rationalen, objektiven und fairen Urteilens, im Gegensatz zu den zuweilen irrationalen und vorurteilsbehafteten Entscheiden, zu denen wir Menschen neigen. Ob allerdings rein rationale Entscheide auch menschengerecht sind, ist fraglich. Wenn zum Beispiel künftig nur noch eine KI nach rationalen Kriterien über eine Kreditvergabe bestimmen sollte, verarmt damit auch die Entscheidungsvielfalt. Das könnte ein Problem sein. Menschen treffen zwar immer wieder falsche Entscheide, aber für das Gesamtsystem muss das nicht unbedingt schlecht sein. Wir kennen das aus der Wissenschaft: Manchmal führen auch falsche Wege unerwartet zum Ziel.

Wenn KI-Systeme über Fragen entscheiden, die für unsere Leben relevant sind, geben wir auch Kontrolle und Verantwortung ab. Das verunsichert. Wie schätzen Sie diese Entwicklung ein?

Christen: Die Angst davor, dass wir die Kontrolle verlieren und künftig nur noch Maschinen anstatt Menschen entscheiden, halte ich für übertrieben. Denn die KI-Systeme bauen schliesslich wir, das sind unsere Design-Entscheide. Die Systeme können das nicht selbst tun, dazu fehlt ihnen das Bewusstsein. Sie haben auch keine Wünsche, ganz im Gegensatz zu uns. Wir setzen KI unseren Wünschen gemäss ein, weil sie bestimmte Aufgaben besser lösen kann als wir. Last, but not least wird KI selbst im autonomsten Fall immer wieder überprüft werden müssen. Es muss laufend getestet werden, ob das System noch das macht, was es soll. Dafür wird auch in Zukunft ein Mensch zuständig sein. Ein Banker, der sich bei einem Entscheid über eine Hypothek auf die Empfehlungen einer KI stützt, muss schliesslich wissen, wann er dem System trauen kann und wann nicht. 

Heutige KI-Technologie beruht auf lernfähigen Algorithmen. Das macht es schwierig, ihre Arbeitsweise zu durchschauen, weil sie sich durch Lernen immer wieder verändert. Wie können wir mit diesem Problem umgehen? 

Christen: Transparenz ist im Zusammenhang mit KI ganz zentral. Deshalb ist Forschung im Bereich Explainable AI, die Künstliche Intelligenz erklären will, unerlässlich. Es gibt übrigens Anwendungsbereiche für KI, in denen eine Begründungspflicht bestehen sollte. Der Staat beispielsweise, der seinen Bürgern Regeln und Pflichten auferlegen kann, muss in solchen Fällen des hoheitlichen Handelns gute Gründe dafür haben, weshalb und wie er KI einsetzt. 

KI soll Entscheide auch fairer machen. Haben Maschinen wirklich die bessere Moral als wir? 

Christen: Lassen Sie mich dazu ein Beispiel machen: 2016 machte der Compas-Algorithmus der US-Firma Northpointe Schlagzeilen. Das KI-System liefert US-Richterinnen und -Richtern, die über die frühzeitige Haftentlassung von Straftätern befinden müssen, Einschätzungen zur Rückfallgefahr. Eine Organisation für investigativen Journalismus mit dem Namen ProPublica untersuchte die Arbeitsweise des Systems und kam zum Schluss, es mache rassistische Prognosen. Tatsächlich attestierte Compas Afroamerikanern eine fast doppelt so hohe Rückfallquote wie Weissen – und dies, obwohl die Hautfarbe als Kriterium im Programm explizit ausgeschlossen war. ProPublica vermutete nun, dass die Entwickler beim Schreiben des Algorithmus zu wenig sorgfältig oder sogar implizit rassistisch waren. 

Lagen die Kritiker richtig?

Christen: Nein, nach den Enthüllungen von ProPublica konnten Forscherinnen und Forscher zeigen, dass das Problem Teil des Systems selbst ist. Fairnessprobleme in KI-Systemen lassen sich aus mathematischen Gründen kaum vermeiden. Denn unterschiedliche Fairnesskriterien – und diese gilt es beim Programmieren eines Algorithmus zu ­definieren – können sich zuweilen gegenseitig ­ausschliessen. Entsprechend lassen sich diskrimi­nierende Verzerrungen auch mit KI-basierten Entscheidungssystemen nicht völlig aus dem Weg räumen, weil das Ausmerzen einer Form von Unfairness automatisch andere Formen von Unfairness zur Folge hat. 

Faire Entscheidungen mit Hilfe von KI zu treffen, ist eine Illusion?

Christen: Genau. Die Frage, was fair ist, ist uralt. Mit ihr hat sich bereits Aristoteles auseinandergesetzt. Bereits der antike Philosoph hielt fest, dass es unterschiedliche Arten von Gerechtigkeit gibt. Wir müssen nun feststellen, dass uns KI nicht von diesen Problemen befreit. Wir können der Frage, welche Art von Fairness relevant ist, nicht aus dem Weg gehen. Mit einem neuen Forschungsprojekt, das unser Team gemeinsam mit Kollegen anderer Hochschulen lanciert hat, möchten wir nun Software-Spezialisten für Fairnessfragen sensibilisieren. Ziel ist es, Instrumente zu entwickeln, mit denen die Entwickler spielerisch erfahren können, dass es beim Bauen von intelligenten Algorithmen eben nicht allein um Informatikfragen, sondern eben auch um Fairness geht.

Was nützen uns denn KI-Systeme wie Compas, wenn Sie nicht wirklich fairer entscheiden können als wir?

Christen: Solche Systeme können uns vielleicht auf eigene Vorurteile und systematische Fehler aufmerksam machen. KI kann uns keine Entscheidungen abnehmen, aber als eine Art Zweitmeinung Empfehlungen machen. Ganz grundsätzlich glaube ich, dass KI das Potenzial hat, uns klüger zu machen. Weil sie eben ganz anders funktioniert als wir und riesige Datenmengen poolen und verarbeiten kann, die wir nicht kennen, gibt sie uns die Möglichkeit, uns in ihr zu spiegeln. Das ist positiv, gerade auch wenn es um schwierige Entscheidungen geht. Zentral ist: Es muss immer ein Zusammenspiel von Mensch und Maschine sein. Maschinen, die autonom entscheiden, sind nicht erstrebenswert. 

Welche Rolle werden KI-Entscheidungssysteme in Zukunft spielen?

Christen: Transparenz und klare Regeln sind zentral für einen positiven Umgang mit Künstlicher Intelligenz. Gut eingesetzt könnte KI künftig eine wertvolle Begleiterin unseres Denkens werden, die uns wie eine gute Freundin auf Dinge hinweist, auf die wir selber nicht kommen. Wir könnten zusammen schlauer werden. 

 

Macht uns künstliche Intelligenz dümmer, als wir sind? Oder wird sie dabei helfen, die Probleme der Menschheit zu lösen? Im Video gibt Markus Christen gemeinsam mit anderen UZH-Experten Antworten auf diese Fragen. (Video: UZH Kommunikation/Zentrale Informatik, Mels)

Wenn Algorithmen entscheiden

In einer aktuellen Studie mit dem Titel «Wenn Algorithmen für uns entscheiden» werfen Forschende der UZH gemein-sam mit Kolleginnen und Kollegen aus Wien und St. Gallen einen umfassenden Blick auf Chancen und Risiken von Künstlicher Intelligenz. Den Fokus legen sie dabei auf KI-Systeme, die eingesetzt werden, um Entschei-dungs-prozesse zu unter-stützen oder zu automatisieren. Spezifisch in den Blick nehmen die Wissen-schaft-le-rinnen und Wissen-schaftler die Themen Arbeit, Bildung, Forschung, Konsum, Medien, Verwaltung und Rechtsprechung. Grundlage der Studie sind breite Analysen der wissen-schaft-lichen Literatur zum Thema sowie eine zweistufige Befragung von über -300 Fach-personen. Ihre Erkenntnisse haben die Forscherinnen und Forscher in sieben allgemeine Empfehlungen zum Umgang mit Künstlicher Intelligenz gegossen: 

  • Anstelle eines allgemeinen «KI-Gesetzes» sollten  KI-Anwendungen spezifisch betrachtet und allenfalls gesetzlich geregelt werden.
  • Um Risiken und Diskriminierung zu vermeiden, müssen neue Ansätze ausserhalb des Datenschutzrechts entwickelt werden.
  • Für staatliche Akteure wie Polizei, Verwaltung und Gerichte sollten höhere Anforderungen an die KI-Nutzung als für Private gelten.
  • Die Zertifizierung von KI soll auch seitens des Staats gefördert werden.
  • Unternehmen sollten ihre Kunden über den Einsatz von KI informieren und diesen transparent machen.
  • Hochschulen und Bildungsinstitutionen, die KI-Fachleute ausbilden, sollten auch rechtliche, ethische und soziale Aspekte der KI-Nutzung vermitteln.
  • Bund, Hochschulen, Unternehmen und zivilgesellschaftliche Organisationen sollten den gesellschaftlichen Dialog über Chancen und Risiken der KI fördern.

Neben diesen allgemeinen Punkten haben die Autorinnen und Autoren zu jedem der untersuchten Themenbereiche zwei spezifische Empfehlungen formuliert. Entstanden ist die Studie im Auftrag der Stiftung für Technologiefolgen-Abschätzung (TA Swiss). Neben zahlreichen Forschenden der Digital Society Initiative der UZH waren daran Wissen-schaftlerinnen und Wissenschaftler des Techno-logy und Society Lab der Eidgenössischen Material-prüfungs- und Forschungs-anstalt (Empa) in St. Gallen und des Instituts für Techno-logiefolgen-Abschätzung der Österreichischen Akademie der Wissenschaften in Wien beteiligt.www.ta-swiss.ch/KI 

Roger Nickl, Redaktor UZH Magazin