Navigation auf uzh.ch

Suche

UZH News

Künstliche Intelligenz

«ChatGPT hat uns die Augen geöffnet»

ChatGPT kann unterschiedlichste Texte schreiben, verbessern, vereinfachen oder übersetzen. Welche Vorteile ergeben sich dadurch für die Lehre, wo liegen die Risiken? Eine Podiumsdiskussion des Instituts für Computerlinguistik und der Digital Society Initiative suchte nach Antworten.
Stéphanie Hegelbach
Unter der Moderation von Ruth Fulterer (NZZ) diskutierten u.a. Noah Bubenhofer, Thomas Hidber und Sarah Ebling (von rechts nach links). Nicht im Bild Sabrina Heike Kessler und Rico Sennrich. (Bild: Roman Scherrer/ UZH Digital Society Initiative)

 

Ein persönlicher digitaler Assistent, der alles erledigt – das ist die Vision der Entwicklerfirma «Open AI» für ihren Chatbot «ChatGPT», der derzeit die Schlagzeilen dominiert. «Lässt sich das erreichen, hätte ChatGPT extremes Veränderungspotenzial», sagte Thomas Hidber, Leiter der Abteilung Lehrentwicklung an der Universität Zürich, an einer Podiumsveranstaltung des Instituts für Computerlinguistik und der «UZH Digital Society Initiative». Die Forschungsinitiative beschäftigt sich mit Auswirkungen der digitalen Transformation auf Wissenschaft und Gesellschaft und rückte an der prominent besetzten Podiumsdiskussion neben den Risiken vor allem auch die Chancen des interaktiven Sprachmodells «ChatGPT» für Lehre und Forschung in den Fokus.

Vom Ratespiel zur revolutionären Technologie

Nach der Begrüssung durch den Geschäftsleiter der DSI, Markus Christen, nahm Rico Sennrich, Professor für Computerlinguistik, das Publikum mit auf eine Zeitreise zur Entwicklung von ChatGPT: 1951 erfand der Mathematiker Claude Shannon ein Ratespiel, bei dem die Probanden jeweils den nachfolgenden Buchstaben oder das nächste Wort in einem verdeckten Satz herausfinden mussten. Anhand von Sprachwissen, Weltwissen und Mathematik lässt sich beispielsweise sagen, dass es wahrscheinlicher ist, dass auf das Wort «Hunde» das Wort «bellen» folgt, anstatt das Wort «miauen».

«In der Computerlinguistik versuchen wir, dieses Spiel automatisch zu spielen», erklärte Sennrich in seiner Einführung. Die dazu entwickelten Systeme nennen sich Sprachmodelle und sind im Alltag bereits bei der automatischen Vervollständigung von Texten auf dem Handy oder bei Übersetzungstools in Betrieb.

Die Erfindung von neuronalen Netzwerken – einer Software, die auf der Funktionsweise von Neuronen in tierischen Gehirnen basiert – machte es möglich, dass die Sprachmodelle einen immer grösseren Kontext berücksichtigen konnten, um das nachfolgende Wort zu erraten. «Seit 2018 hat sich an dieser Technologie nicht mehr viel verändert», erklärt Sennrich. «Was sich verändert hat, ist die Grösse der Modelle: Sie wurden mit einer immensen Menge an Daten trainiert und sind dadurch viel potenter geworden.»

Auch ChatGPT ist mit einem riesigen Pool von Texten aus dem Internet und von digitalisierten Büchern trainiert worden. Es berechnet daraus das wahrscheinlichste nachfolgende Wort und reproduziert so Muster der menschlichen Kommunikation. «Das Modell kann aber nicht zwischen Fakt und Fiktion unterscheiden», gab Sennrich zu bedenken.

Ein Hilfsmittel zur Textproduktion

Dennoch ist das Sprachmodell derzeit unter den Studierenden sehr beliebt. Eine Eingabe wie «Schreibe mir einen Aufsatz über Immanuel Kant» genügt und ChatGPT erledigt die Hausarbeit ohne zu murren innert Minuten. Da stellen sich viele Fragen wie: Wer ist der Autor? Handelt es sich dabei um ein Plagiat? Wo ist die Eigenleistung? Trotz diesen kritischen Fragen waren sich die Diskussionsteilnehmenden einig, dass das System in der Lehre eingesetzt werden sollte.

Noah Bubenhofer, Professor für deutsche Sprachwissenschaft, plädierte dafür, dass die Studiernden lernen sollten, für welche Zwecke die Ressource geeignet sei. Er ist überzeugt, dass sich ChatGPT nicht von anderen Hilfsmitteln wie der Orthografieprüfung oder einem Taschenrechner unterscheidet.

Wichtig sei, dass die Studierenden lernen, ChatGPT vernünftig und adäquat einzusetzen, ergänzte die Kommunikationswissenschafterin Sabrina Heike Kessler. «Im Moment haben wir das Gefühl, wir können ChatGPT alles fragen», sagt Bubenhofer. «Doch für gewisse Fragen sind klassische Suchmaschinen, Bücher oder Datenbanken zielführender und schneller.» Auch das sogenannte Prompting – die Eingabe einer Aufforderung an das Sprachmodell – gilt nun als wegweisende Kompetenz, die die Studierenden erwerben sollten, um das Beste aus digitalen Werkzeugen herauszuholen.

Neue Lehrformate sind gefragt

Dass sich mit dem Einsatz von intelligenten Sprachmodellen auch die Lehre verändern muss, ist für Hidber offensichtlich. «ChatGPT bietet die Chance, uns auf den Kern der universitären Lehre zurückzubesinnen», erklärte er. Neue Prüfungs- und Unterrichtsformate müssten künftig das Schummeln durch künstliche Intelligenz verunmöglichen, gleichzeitig könnten sie die Lehre aufwerten. «Beispielsweise lassen sich nun ganz andere Fragestellungen entwickeln, weil die Dozierenden davon ausgehen dürfen, dass Texte einfacher generiert werden können», sagte Kessler.

Zugleich soll der Prozess des wissenschaftlichen Arbeitens gestärkt werden: «Interaktive, mündliche Teilaufträge wie Debatten machen es für die Dozierenden nachvollziehbar, wie eine Arbeit zustande gekommen ist», sagte Hidber. Allerdings müssen die Fachdisziplinen einen Konsens finden, wo der legitime Einsatz von künstlichen Intelligenzen aufhört, und der Betrug anfängt. «ChatGPT hat uns die Augen geöffnet, wir müssen diese Diskussion nun führen», sagte Hidber.

Unterstützung für beeinträchtigte Personen

Eine interessante Perspektive brachte die Computerlinguistin Sarah Ebling in die Diskussion mit ein. Sie erforscht, wie intelligente Sprachmodelle die barrierefreie Kommunikation verbessern und die Inklusion von beeinträchtigten Personen fördern können. «Einerseits kann ChatGPT Menschen mit motorischen Beeinträchtigungen, die Mühe haben mit dem Tippen, unterstützen», sagt Ebling.

Andererseits gebe es schöne Beispiele, wie Menschen mit einer Autismusspektrumsstörung die sozio-pragmatischen Fähigkeiten verbessern, indem sie sich mit Siri oder ChatGPT unterhalten. Um die Barrierefreiheit zu erhöhen, ist es zentral, dass die Sprachmodelle multimodal werden und sich nicht nur durch Text, sondern auch mit Videos oder Bildern ausdrücken können. Die Universitäten forschen derzeit daran, wie die Modelle auch für andersartige Sprachen wie beispielsweise die Gebärdensprache genutzt werden können.

Kommunikationsschwierigkeiten beheben

Innerhalb der Forschungsgemeinschaft sind die Fähigkeiten von ChatGPT zur Übersetzung und Vereinfachung sehr gefragt. Grosses Potenzial sieht Sabrina Heike Kessler beispielsweise für die Wissenschaftskommunikation: «ChatGPT ist gut darin, komplizierte Sachverhalte einfach zu erklären», sagte sie. Mit dem Tool könnten Wissenschafter:innen ihre Erkenntnisse herunterbrechen und für die allgemeine Bevölkerung zugänglicher formulieren.

Auch innerhalb der Forschungsgemeinschaft könnte ChatGPT Schwierigkeiten bei der Kommunikation aus dem Weg räumen: Da Englisch die lingua franca der Forschung ist, haben Nicht-Muttersprachler:innen linguistische Nachteile. «Die Frage der Kommunikationssprache könnte in Zukunft obsolet werden, weil man sein Paper in der Muttersprache schreiben und dann automatisch übersetzen könnte», sagte Bubenhofer.

Wichtig sei aber, dass die Sprachmodelle lernen würden, Hinweise zu geben, wo sie bei der Übersetzung unsicher sind, sodass die Leserschaft die Stellen mit dem Original abgleichen kann. «Auch Studierende mit linguistischen Nachteilen sollten ChatGPT unbedingt benutzen», sagte Bubenhofer. Er verwendet ChatGPT bereits fleissig in seinem Forschungsalltag: «Ich lade 30-seitige Papers in ChatGPT und gebe ihm den Auftrag, eine Zusammenfassung zu erstellen – das ist grossartig», meinte er lachend.

Auch Biases sind Chancen

Durch die Sprachmodelle ergeben sich zudem neue Forschungsfelder, war sich die Runde einig: Welche Kompetenzen benötigen Nutzer:innen? Wo drohen Gefahren der Desinformation? Was sagen Sprachmodelle über unseren Sprachgebrauch und somit unsere Gesellschaft aus? Um sie zu beantworten, fehlt den Forschenden allerdings der Zugang zu den nötigen Daten. «Hätten wir Zugriff auf die Programmierschnittstelle, könnten wir nachvollziehen, welche Verzerrungen – auch Biases genannt – in den Trainingsdaten und somit im Modell drin sind», sagt Bubenhofer. So liessen sich selbst die Biases produktiv nutzen, beispielsweise um die Gesellschaft über ihre Vorurteile aufzuklären.

Weiterführende Informationen