Technologie und Philosophie

Der Hype um die Künstliche Intelligenz

Welche philosophischen Fragen stellen sich im Zusammenhang mit Künstlicher Intelligenz? UZH-Rechtssoziologe Christoph Graber hat zu diesem Thema gemeinsam mit der Harvard University einen Workshop an der UZH veranstaltet.

Interview: Adrian Ritter1 Kommentar

Graber
«Begriffe haben immer auch eine politische Wirkung», sagt UZH-Professor Christoph Graber. (Bild: Adrian Ritter)

 

Christoph Graber, was ist Künstliche Intelligenz?

Christoph Graber: Eine wichtige Feststellung an unserem Workshop war, dass es für den Begriff Künstliche Intelligenz – kurz KI – keine allgemein anerkannte Definition gibt. So wie der Begriff heute verwendet wird, ist meist eine Form der maschinellen Verarbeitung von Daten mithilfe von Algorithmen gemeint. Die Teilnehmenden am Workshop waren sich einig, dass dafür der Begriff Künstliche Intelligenz genau genommen unpassend ist. Das Wort Intelligenz weckt falsche Assoziationen. Intelligenz bezieht sich auf eine Leistung des Gehirns beziehungsweise des menschlichen Bewusstseins, die auch beinhaltet, die wahrgenommene Welt sinnhaft zu interpretieren. Maschinen mögen zwar gewisse Aufgaben besser und schneller erledigen als der Mensch. Aber sie befolgen Befehle und können keinen Sinn reproduzieren. Auch Begriffe wie «machine learning» sind deshalb nicht passend. Denn Lernen ist ebenfalls eine Intelligenzleistung.

Woher stammt der Begriff Künstliche Intelligenz?

Graber: Er tauchte in den 1950er-Jahren im Silicon Valley erstmals auf. Schon damals wurde behauptet, Maschinen würden mit ihren Fähigkeiten den Menschen bald in den Schatten stellen. Als sich die technischen Fortschritte nicht wie erhofft einstellten, verschwand der Begriff in den 1980er-Jahren weitgehend aus der öffentlichen Diskussion. Erst vor etwa 15 Jahren tauchte er wieder auf. Seither erleben wir einen eigentlichen KI-Hype. Das wirft Fragen auf: Warum dieser Hype? Warum gerade jetzt?

Weil es inzwischen grosse technische Fortschritte gab?

Graber: Das mag ein Grund sein. Aber Begriffe haben immer auch eine politische Wirkung. Insofern stellt sich die Frage, ob sie auch ideologisch besetzt sind: Hat jemand ein Interesse daran, einen bestimmten Begriff zu kultivieren? Künstliche Intelligenz ist auch ein Geschäft. Diejenigen, die damit Geld verdienen, könnten entsprechend an einem KI-Hype interessiert sein. Nach dem Motto: Künstliche Intelligenz dient dem Wohle der Menschheit und kann uns lästige Aufgaben abnehmen. Was ja durchaus stimmt. Allerdings geht der Hype heute schon soweit, dass etwa eine neue religiöse Gruppierung namens «Way of the future» entstand. Ihre Anhänger verehren Künstliche Intelligenz als göttliches Wesen. Als Rechtssoziologe erinnert mich das an Karl Marx. Er sprach davon, dass dem Materiellen eine bisweilen fast göttliche Bedeutung zugemessen werde – Marx nannte das Warenfetischismus.

Die gegenwärtige Gesellschaft übertreibt es also mit der Begeisterung für KI?

Graber: Es gibt zweifellos sinnvolle Anwendungen für Künstliche Intelligenz. Sie vermag uns Aufgaben abzunehmen und unser Wissen zu vergrössern. Aber man muss auch im Auge behalten, dass es Entwicklungen gibt, die weniger wünschenswert sind. Wenn uns Algorithmen die Suche nach interessanten Inhalten im Internet abnehmen, können wir in einer Filterblase landen. Studien zeigen zudem, dass Algorithmen bestehende Vorurteile in der Gesellschaft verstärken können. Ein Beispiel: Das Vorurteil, dass Schwarze in den USA häufiger delinquent sind als Weisse, wird durch Algorithmen weiterverbreitet. Weil Algorithmen eben nicht selber denken, sondern vorhandene Muster erkennen und wiedergeben, inklusive Vorurteile.

Sie sind Rechtssoziologe. Sehen Sie auch bedenkliche Entwicklungen der Künstlichen Intelligenz im Rechtswesen?

Graber: Ja, in den USA diskutieren gewisse Politiker derzeit, ob Algorithmen Gutachter ersetzen könnten – wenn es etwa darum geht, die Rückfallgefahr von Straftätern vorauszusagen. Bisweilen ist zu hören, Algorithmen könnten Gerichtsverfahren gleich ganz ersetzen und damit Kosten sparen. Da muss ich zur Vorsicht mahnen. Ein Gerichtsverfahren kann nicht an eine Maschine delegiert werden. Das Recht ist nicht eine formale, geschlossene Logik, sondern besteht aus Begriffen, die interpretiert werden müssen. Deshalb muss jeder Rechtsfall als einzigartig behandelt werden – ansonsten ist ein faires Verfahren nicht gewährleistet. Maschinen können die Komplexität des Lebens nicht berücksichtigen. Weil es ihnen eben an Bewusstsein fehlt.

Wie geht es nach dem Workshop weiter bei der Beschäftigung mit dem Thema KI?

Graber: Das Thema Künstliche Intelligenz wird in alle Teile der Gesellschaft ausstrahlen. Deshalb ist es wichtig, das Thema seitens der Wissenschaft interdisziplinär anzugehen. Wir müssen die Grenzen der Disziplinen überwinden, um eine gemeinsame Sprache zu entwickeln. In einem nächsten Schritt werden wir Fragestellungen für gemeinsame Forschungsprojekte definieren. Weiter ist wichtig, dass Themen wie Künstliche Intelligenz und andere technologische Entwicklungen noch mehr in die Ausbildung der Juristinnen und Juristen einfliessen. Sie werden in ihrem Berufsleben garantiert damit konfrontiert werden.

 

Zur Person

Christoph Graber ist Professor für Rechtssoziologie mit besonderer Berücksichtigung des Medienrechts an der Universität Zürich. Er unterrichtet auf den Gebieten der Rechtssoziologie und der Rechtstheorie, des Internet- und Medienrechts und des Kunst- und Kulturrechts. Sein Forschungsschwerpunkt liegt auf den normativen Wirkungen neuer Technologien im Internet.

Den Workshop «Philosophical Questions about AI, Law and Governance» hat das Team von Christoph Graber gemeinsam mit dem Rechtswissenschaftler Urs Gasser organisiert. Gasser ist Direktor des Berkman Klein Center for Internet and Society, ein interdisziplinäres Forschungszentrum der Harvard University. Es widmet sich rechtlichen und gesellschaftlichen Fragen rund um die Internettechnologie. Ein dortiges Forschungsprojekt beschäftigt sich mit Ethics and Governance of Artificial Intelligence. 

Adrian Ritter ist Redaktor von UZH News

1 Leserkommentar

Walter Schaffner schrieb am Rückzugsgefechte des Homo sapiens? Sehr geehrter Herr Graber. Ich lese da: "Maschinen mögen zwar gewisse Aufgaben besser und schneller erledigen als der Mensch. Aber sie befolgen Befehle und können keinen Sinn reproduzieren. Auch Begriffe wie «machine learning» sind deshalb nicht passend. Denn Lernen ist ebenfalls eine Intelligenzleistung." Da fällt mir nur folgender Kommentar ein: Träumen Sie weiter, Herr Kollege. Ich habe mehr als eine Entwicklung erlebt: Wichtige Resultate -> Hype, natürlich auch kommerziell befeuert -> Aufregung unter Geisteswissenschaftern "Missbrauchsgefahr!" -> unerwartete Schwierigkeiten, da Materie komplexer als erwartet -> höhnlische Kommentare der Journalistenzunft -> Erfolg. Den nimmt man dann als gegeben an. Mit freundlichen Grüssen Walter Schaffner

Kommentar schreiben

Die Redaktion behält sich vor, Kommentare nicht zu publizieren. Unberücksichtigt bleiben insbesondere anonyme, ehrverletzende, rassistische, sexistische, unsachliche oder themenfremde Kommentare sowie Beiträge mit Werbeinhalten.

Anzahl verbleibender Zeichen: 1000