Navigation auf uzh.ch
Die Welt staunt und diskutiert aktuell über die Möglichkeiten und Gefahren, die von Chatbots ausgehen. Nutzen Sie Chat-GPT & Co. im Alltag?
Rico Sennrich: Ich erforsche Chatbots und teste sie darauf, was sie leisten können. Wir untersuchen in kontrollierten Experimenten, wie sich unterschiedliche Eingaben auf die Ausgabetexte auswirken, zum Beispiel Übersetzungen. Wir hinterfragen kritisch, wo die Grenzen der Sprachmodelle liegen, die den Chatbots zugrunde liegen. Aber im Alltag benutze ich sie noch selten – erstaunlicherweise.
Noah Bubenhofer: Ich benutze ChatGPT schon recht intensiv. Einerseits aus Forschungsinteresse, um zu verstehen, was möglich ist, aber auch aus praktischen Gründen. Ich habe neulich von ChatGPT die Zusammenfassung für mein Paper schreiben lassen. Das Resultat war sehr gut. In einem anderen Fall habe ich den Chatbot gebeten, eine freundliche Absage für eine Konferenz zu formulieren, an der ich nicht teilnehmen konnte. Auch da kam ein sehr brauchbarer Text heraus.
Hans-Johann Glock: Ich benutze ChatGPT weniger zum Verfassen von Texten, sondern hauptsächlich dazu, so viel persönliche Erfahrungen damit zu machen, dass ich zu philosophischen und politischen Fragen Stellung nehmen kann. Das heisst, ich stelle bestimmte Fragen – beispielsweise «What is information-theoretic security?» – und bewerte dann die Antworten.
Und haben Sie befriedigende Antworten erhalten?
Glock: Soweit ich das beurteilen kann, ja. Ich muss allerdings sagen, dass ich von Artikeln einschlägiger Expert:innen zu den jeweiligen Themen mehr gelernt habe. ChatGPT hat seine Grenzen. Im Moment verspüre ich auch nicht den Drang, beliebige Texte durch Chatbots generieren zu lassen. Sie sind ein interessanter Forschungsgegenstand, mehr nicht.
Werden Chatbots längerfristig die Forschung selbst, Ihre wissenschaftliche Arbeit verändern?
Bubenhofer: Davon gehe ich aus – Chatbots können mich beispielsweise beim Schreiben von Texten unterstützen und eben etwa ein Paper zusammenfassen oder Textteile verfassen, für die ich die Argumentationslinie vorgebe. ChatGPT ist ein Mix aus Programmierumgebung und Schreibmaschine. Das heisst, als Linguist kann ich damit zum Beispiel eine quantitative Analyse der Wortfrequenz bestimmter Ausdrücke in einem Textkorpus machen lassen. Und ChatGPT kann den Code generieren, um diese Analyse in einer Grafik darzustellen. Das haben früher die Hilfsassistierenden gemacht.
Sie schaffen also die Hilfsassistierenden ab?
Glock: Die sind schon von der Fakultät abgeschafft worden – ganz ohne ChatGPT (lacht).
Bubenhofer: Aber dank KI und Chatbots ergibt sich jetzt die Chance, dass die Hilfsassistenz interessantere Dinge machen kann. Routineaufgaben wie genaues Bibliografieren oder simple Korpusrecherchen kann man getrost an KI-Systeme delegieren. Das heisst aber auch, wir müssen dem wissenschaftlichen Nachwuchs die Kompetenzen vermitteln, wie man geschickt mit diesen Systemen umgeht.
Sennrich: Ich würde sagen, Sprachmodelle sind ein bisschen wie ein Schweizer Taschenmesser, sie haben sehr viele unterschiedliche Anwendungsmöglichkeiten. Man kann nach Fakten fragen, Texte modifizieren oder übersetzen, da sind verschiedenste Transformationen möglich.
Offenbar kann man die KI auch darauf trainieren, Erbgut- oder Aminosäurensequenzen zu lesen und die daraus abgeleiteten Eiweissmoleküle zu modellieren. Es scheint keine Grenzen zu geben.
Sennrich: Die Modelle können grundsätzlich Abbildungen einer Eingabesequenz auf eine Ausgabesequenz lernen. Wenn man da geeignete Trainingsdaten vorgibt, etwa zu Aminosäuresequenzen und den dazugehörigen Proteinen, kann man ähnliche Modelle auch bei biologischen Fragestellungen anwenden. Die Technologie, die den Chatbots zugrunde liegt, ist sehr flexibel einsetzbar.
Glock: Inwiefern KI im Allgemeinen und Chatbots im Speziellen die wissenschaftliche Arbeit übernehmen können, ist eine sehr interessante Frage. Etwa in der Biochemie, wo Proteinstrukturen berechnet werden können. Das hat bei einigen Wissenschaftstheoretikern die Frage aufgeworfen, ob die Theoriebildung in der Forschung künftig überflüssig werden könnte. Also anstatt darüber nachzudenken, wie die Dinge gesetzmässig zusammenhängen, sammelt man Daten, lässt sie probabilistisch berechnen und erhält dann Vorhersagen, ohne genau zu wissen, warum diese Vorhersagen im Einzelnen stimmen. Deshalb wird schon über die Post-Theory-Science diskutiert. Persönlich finde ich das nicht so toll, aber ich bin ja sehr altmodisch.
Sprachmodelle wie ChatGPT besitzen keine Intelligenz. Aber sie können Intelligenz simulieren.
Was finden Sie nicht so toll?
Glock: Isaac Newton lag unter einem Apfelbaum und überlegte sich, wie ein fallender Apfel mit den Keplerschen Gesetzen, welche die physikalische Bewegung der Planeten um die Sonne beschreiben, zusammenhängt. Heute sammelt ein Big Brother die Daten von allen Äpfeln, die irgendwo herunterfallen, und sagt allein aufgrund dieser Daten vorher, wie zum Beispiel sich die Monde von Saturn bewegen. Die Einsicht in den Mechanismus, in die zugrunde liegenden kausalen Zusammenhänge, wird überflüssig. Ich sage es jetzt mal ganz überspitzt: Künftig bestehen dann Universitäten nur noch aus Big Data, KI und einer Ethikkommission.
Wie sehen das die anderen – bleibt die Theorie wegen KI auf der Strecke?
Bubenhofer: Das Ende der Theorie wurde bereits 2008 von Chris Anderson in einem Artikel im Magazin «Wired» mit dem Titel «The End of Theory: The Data Deluge Makes the Scientific Method Obsolete» postuliert. Damals wurde Google gross und man merkte, was alles digital verfügbar ist. Aber die Theorie ist ja überhaupt nicht tot. Was wir dank den statistischen Modellen jedoch merken, ist, dass noch ganz andere Faktoren eine Rolle spielen, um beispielsweise Sprachstrukturen vorherzusagen. KI gibt uns einen anderen Blick auf Sprache.
Glock: Dem stimme ich zu, dieser quantitative statistische Ansatz hat eindeutig seine Verdienste, vor allem auch in der Linguistik. Aber die Frage nach dem Warum bleibt dann immer noch ungelöst.
ChatGPT ist stark in der statistischen Analyse, scheitert aber bei der Frage nach Gründen: Wie intelligent ist dieses KI-System nun wirklich?
Sennrich: Maschinen funktionieren fundamental anders als wir, man kann das nicht mit menschlicher Intelligenz vergleichen. Die Maschine kann eben gewisse Dinge sehr gut, andere Dinge überraschend schlecht.
Dann ist der Begriff «künstliche Intelligenz» eigentlich falsch?
Sennrich: Das hängt davon ab, wie man Intelligenz definiert. Das Verhalten ist in einem gewissen Sinn schon intelligent, aber die Gefahr besteht, die Maschinen mit dem Menschen zu vergleichen. Sprachmodelle können gewisse Aufgaben überraschend gut lösen. Aber die Fähigkeiten hängen vom Wissensstand ab, der eingelesen wurde und reproduziert werden kann. Wenn man zum Beispiel ein Thema abfragt, zu dem Trainingsdaten fehlen, sagt ChatGPT in der Regel nicht, es wisse nichts darüber, sondern erfindet fröhlich eine Antwort.
Glock: Ganz allgemein ist Intelligenz die Fähigkeit, auch neuartige Probleme auf flexible Weise zu lösen. Sie ist also eng verbunden mit Lernfähigkeit. Und da sind doch die künstlichen neuronalen Netze sehr beeindruckend. Dass es Lücken gibt in der Lernfähigkeit, das kennen wir auch beim Menschen. Trotzdem denke ich, man sollte die Beurteilung von KI nicht unbedingt an diesem Begriff der Intelligenz aufhängen.
Bubenhofer: Meiner Meinung nach werden Sprachmodelle wie ChatGPT als künstliche Intelligenz überschätzt, aber als Sprachmodell unterschätzt. Mir ist völlig klar, dass sie keine Intelligenz besitzen. Aber ein Sprachmodell kann natürlich Intelligenz simulieren. Und das ist ja schon mal viel.
In der Diskussion zu ChatGPT werden allerdings laufend menschliche Fähigkeiten mit denen der KI verglichen. Ist das problematisch?
Bubenhofer: Ja, das meinte ich eben damit, als ich sagte, diese Sprachmodelle würden als KI überschätzt. In der Diskussion werden sie anthropomorphisiert, sie werden dem Menschen ähnlich gemacht. Das nutzen die KI-Unternehmen aus. Es wird so getan, als hätten wir es tatsächlich mit einer künstlichen Intelligenz zu tun. Das sind meiner Meinung nach Inszenierungen.
Also geht es da nur um Marketing?
Bubenhofer: Es ist Marketing, aber das macht die Sache nicht weniger gefährlich. Ich glaube, von den Sprachmodellen selber geht keine Gefahr aus, sondern von den Entwicklerfirmen und ihrem Gebaren. Letztlich geht es darum, welche Bedeutung die Menschen dieser KI zumessen und was sie damit tun. Genau das ist eigentlich das Problem.
ChatGPT sagt in der Regel nicht, es wisse nichts darüber, sondern erfindet fröhlich eine Antwort.
Sehen Sie das gleich?
Sennrich: Es gibt sicher viel Marketing und einen grossen Hype. Sprachmodelle gibt es allerdings schon seit den 1950er-Jahren, Sprachmodelle auf Basis von künstlichen neuronalen Netzen seit etwa zwanzig Jahren. Wir verstehen ganz gut, wie sie lernen und was sie können. Wir sind teilweise überrascht von ihrer Lernfähigkeit, Texte zu vervollständigen, wenn sie auf massiven Datenmengen trainiert werden. Aber wir wissen auch, dass sie sich nicht irgendwie selbständig machen können.
Das sehen die Unterzeichnenden der Initiative «Future of Life» anders – diese warnen vor den Gefahren, die von KI-Systemen ausgehen, und fordern einen temporären Entwicklungsstopp. Würden Sie die Initiative unterschreiben?
Glock: Einige Philosoph:innen denken, es gebe geradezu eine metaphysische Garantie dafür, dass künstliche Systeme keine eigenen Absichten entwickeln und diese in die Tat umsetzen können. Das sehe ich anders. Ich glaube nicht, dass sich dieses Szenario prinzipiell ausschliessen lässt. Hingegen sehe ich in absehbarer Zeit keine konkreten Gründe, warum so etwas passieren sollte. Wir müssen aber unbedingt Risikoanalysen entwickeln. Problematisch wird es, wenn wir diese Entwicklung allein den Tech-Giganten überlassen.
Bubenhofer: Ich habe mir neulich sehr viele TV-Sendungen der 1980er-Jahre angeschaut, wo es um die Verbreitung des PC ging und um die Frage, inwiefern der Computer unser Arbeitsleben umwälzen wird. Dort wurden ganz ähnliche Ängste thematisiert, wie sie jetzt wieder im Gespräch sind. Auch damals hiess es, der Computer wird uns die langweilige, aber auch die interessante Arbeit wegnehmen, wir werden überflüssig werden. Die aktuelle Situation ist durchaus mit der Erfindung des Computers vergleichbar. Aber wir werden Wege finden, wie wir mit den neuen KI-Systemen umgehen können, um sie sinnvoll und verantwortungsvoll einzusetzen. Deshalb plädiere ich auch dafür, die AI Literacy zu fördern.
In welche Richtung werden diese elaborierten KI-Systeme das Leben unserer Gesellschaft umkrempeln?
Bubenhofer: Ich glaube, dass viele Aufgaben im Bereich der Textgenerierung von KI-Systemen übernommen werden. Zum Beispiel die Formulierung von Agenturmeldungen im Journalismus oder Gebrauchstexte wie Formbriefe und Gebrauchsanweisungen. Auch die Rezeption der Texte wird sich verändern. Künftig werden die Leser:innen selber entscheiden, in welcher Sprache sie einen Text lesen möchten und ob sie ihn ganz lesen möchten oder als Kondensat.
Glock: Ja, dem stimme ich zu. Allerdings spielt für das KI-System der Unterschied zwischen wahr oder falsch überhaupt keine Rolle. Diese Systeme sind personifizierte Derrida'sche Maschinen, «il n’y a rien que le texte». Es geht einfach nur darum, das nächste Wort vorherzusagen. Und deswegen würde ich auch bei Agenturmeldungen sehr froh sein, wenn da noch jemand drüberschaut.
Künftig bestehen dann Universitäten nur noch aus Big Data, KI und einer Ethikkommission.
Wie werden KI-Systeme das Leben an den Universitäten beeinflussen?
Bubenhofer: Unsere wichtigste Aufgabe an der Uni ist, die vorher genannte AI Literacy zu fördern. Das heisst, wir müssen die Studierenden geradezu auffordern, diese Systeme zu nutzen. Und die Lehrenden und Dozierenden auch. Möglichst alle sollten kompetent sein, damit umzugehen. Sicher müssen wir auch Prüfungsformen reformieren. Und wir müssen uns fragen, welches Wissen wir in Zukunft vermitteln sollen. Da wird sich extrem viel verändern. Wir sollten unsere Hausaufgaben machen und darüber nachdenken, wie sich die Uni mit KI auch in der Lehre wandelt.
Glock: Die AI Literacy halte ich auch für die entscheidende Botschaft. ChatGPT ist vor allem als Inspiration und als Ausgangspunkt für das Verfassen von Texten nützlich. Vielleicht jetzt nicht gerade für generische Absagen, zu Einladungen aber in fast allen anderen Bereichen. Und gerade wenn man es als Enzyklopädie nutzt, muss man sich immer wieder fragen: «Ist das plausibel, kann das so stimmen?» Deshalb muss es ebenso, wie es Computer Literacy gibt, nun auch eine AI Literacy geben.
Wir und ChatGPT – wie wird diese Geschichte in Zukunft weitergehen?
Bubenhofer: Bei der Einführung des Computers sind zwei Dinge passiert, die sich nun wiederholen könnten. Auf der einen Seite sind stupide Aufgaben entstanden, man musste vor allem in der Anfangszeit viel in Datenbanken eintragen. Und auf der anderen Seite sind interessantere Jobs daraus erwachsen, um diese Systeme zu konfigurieren. Ich glaube, das wird jetzt ähnlich sein.
Sennrich: Im Zusammenhang mit den Möglichkeiten von Übersetzungsprogrammen wurde in der Vergangenheit diskutiert, ob Übersetzer:innen arbeitslos werden. Mittlerweile hat sich gezeigt, dass es zwar Verschiebungen gab. Übersetzer:innen prüfen, korrigieren und verbessern heute vermehrt automatisch übersetzte Texte und erarbeiten einen fremdsprachigen Text nicht mehr von Grund auf. Damit verbunden ist auch ein Effiziengewinn. Auf der anderen Seite werden heute aber auch viel mehr Texte übersetzt als noch vor zwanzig Jahren. Deshalb würde ich vermuten, dass der Bedarf an Übersetzer:innen über die letzte Zeit relativ konstant geblieben ist. Die neue Technologie wird aber sicher Stellen überflüssig machen, sie wird aber auch neue Jobs schaffen – Funktionen, die sich zum jetzigen Zeitpunkt noch nicht vorhersehen lassen
Glock: Viele Ökonom:innen vertreten die Theorie, dass disruptive technologischen Entwicklungen immer genauso viele Arbeitsplätze schaffen, wie sie zerstören. Darauf würde ich mich nicht unbedingt verlassen. Ich denke, KI wird zunächst viele Routinearbeiten überflüssig machen. Auf absehbare Zeit, bis die Robotik allenfalls Quantensprünge macht, wird es aber immer noch Klempner:innen geben. ChatGPT hat hier nichts zu bieten. Und es wird weiterhin kreative und intellektuell anspruchsvolle Jobs geben. Die in der Mitte könnten allerdings unter Druck geraten.
Dieses Interivew ist im UZH Magazin 2/23 erschienen.