KI verantwortungsvoll einsetzen

Für viele Menschen ist ChatGPT inzwischen ein alltäglicher Gesprächspartner geworden. Auch Ärztinnen und Ärzte greifen für ihre Diagnosen auf das Wissen der Künstlichen Intelligenz zurück. «Die KI-Modelle sind ziemlich gut darin, Fragen zu allgemeinen Krankheiten zu beantworten», erklärt Janna Hastings, Informatikerin und Assistenzprofessorin für Medical Knowledge and Decision Support, die zum Einsatz von KI im klinischen Umfeld forscht. «Doch geht es um spezialisierte Fragen, wie sie im klinischen Alltag vorkommen, so schneiden sie weniger gut ab.»
Die Modelle bilden Faktoren wie Geschlecht und Alter oder bestimmte Krankheitsbilder nicht adäquat ab. Das liege oft an zu wenig spezialisierten oder verzerrten Daten, sagt Hastings. Sie forscht dazu, wie diese beiden Knackpunkte verbessert werden könnten, so dass KI tatsächlich dereinst im Alltag Ärztinnen und Ärzte entlasten kann.
![]()
Die KI-Modelle sind ziemlich gut darin, Fragen zu allgemeinen Krankheiten zu beantworten. Doch geht es um spezialisierte Fragen, wie sie im klinischen Alltag vorkommen, so schneiden sie weniger gut ab.
Die grossen kommerziellen KI-Programme wie ChatGPT sind dazu wenig geeignet. Vielmehr werden hoch spezialisierte, auf die Bedürfnisse eines bestimmten Spitals oder einer spezifischen Krankheit ausgerichtete Modelle benötigt. Konkret untersucht Hastings bestehende Modelle auf mögliche Schwachstellen und leitet daraus ab, wie diese verbessert werden können.
Modelle besser trainieren
«Wir identifizieren, welche Daten ein Modell zusätzlich benötigt, damit es bessere Ergebnisse liefert», so Hastings. Etwa indem es mit Datensätzen gefüttert wird, die die tatsächliche Demografie besser repräsentieren. Oder indem die vorhandenen Akten des Spitals zu entsprechenden Krankheitsbildern ausgewertet werden. Ein wichtiges Thema dabei ist der Datenschutz. «Es braucht jeweils sehr sorgfältige Abwägungen, wie diese Daten genutzt werden können.»
Aber auch dann müssen Daten meist noch spezifisch aufbereitet werden, etwa, weil sie in unterschiedlichen Formaten vorliegen, zum Beispiel als Text, Bild oder Laborberichte. «Alle diese Daten zusammenzubringen, ist oft eine grosse Herausforderung für die Modelle», so Hastings, «denn sie haben keine Informationen, wie sie die unterschiedlichen Datenquellen gewichten müssen.»
Der Einsatz von Unterstützungssystemen für klinische Entscheidungen ist streng geregelt. Die aktuelle Regelung für medizinische Geräte ermöglicht derzeit lediglich, dass KI unterstützend eingesetzt wird. Sie darf keine Entscheidungen fällen, die direkt den Patienten betreffen.
Hastings befürwortet diesen vorsichtigen Zugang: «Wir wissen nicht, wie sich die Modelle in allen möglichen Szenarien verhalten.» Deshalb hält sie es für wichtig, dass stets noch ein Mensch die KI überwacht. «Sonst gäbe es tatsächlich ein Potenzial, dass die KI Menschen Schaden zufügen könnte.»

Selbstfahrende Autos und das Gesetz
Mit Fragen der Verantwortung setzt sich die Juristin Nadine Zurkinden auseinander. Die Assistenzprofessorin an der Rechtswissenschaftlichen Fakultät befasst sich insbesondere mit der juristischen Regulierung von autonomen Fahrzeugen und damit verbundenen Strafbarkeitsrisiken. Seit März dieses Jahres sind in der Schweiz drei Anwendungsbereiche des automatisierten Fahrens in einer Verordnung geregelt.
Aktuell dürfen damit in der Schweiz zum Beispiel Fahrzeuge mit Autobahnpiloten zugelassen werden, bei deren Verwendung man die Hände vom Steuer nehmen darf. Entsprechende Autos gibt es zwar schon auf dem Markt. In der Schweiz ist zurzeit aber noch keines zugelassen.
Auch in diesen teilautomatisierten Fahrzeugen trägt der Mensch grundsätzlich immer noch Verantwortung, sollte es zu einer brenzligen Situation kommen. Die Verordnung dafür ist allerdings leicht widersprüchlich: Zwar darf der Fahrer oder die Fahrerin auf der Autobahn dem Fahrzeug bis zu einem gewissen Grad die Kontrolle überlassen. Das heisst, sie darf die Hände vom Steuer nehmen und muss «den Verkehr nicht dauernd überwachen».
![]()
Erlaubtes Risiko bedeutet: Wenn sich ein Hersteller an alle Vorgaben hält, macht er sich nicht strafbar, auch wenn er weiss, dass mit seinem Fahrzeug tödliche Unfälle passieren können.
Die Regelung hält aber auch fest, dass sich die Person am Steuer «in einer Position befinden» muss, «um die Fahrzeugbedienung jederzeit wieder selber ausüben zu können» und keine Tätigkeiten vornehmen darf, die dies verzögern könnten. «Wie rasch die Person das Steuer zurückübernehmen muss und welche Nebentätigkeiten, wenn überhaupt irgendwelche, ihr erlaubt sind, bleibt unklar», so Zurkinden.
Richtige Balance finden
Mit ihrer Forschung bringt Zurkinden Licht in diese noch wenig geklärten Bereiche und zeigt auf, wo noch Lücken bestehen. Dabei geht es ihr darum, eine Balance zu finden, so dass das Recht einerseits die Menschen vor negativen Auswirkungen schützt, ohne die Innovation zu stark zu hemmen. «Denn letztlich sollen die Assistenzsysteme laut den Herstellern dazu führen, dass es weniger Unfälle und Verletzte oder Verkehrstote gibt.»
Im Kern gehe es um die Frage, was die Gesellschaft als «erlaubtes Risiko» zu tragen bereit sei, erklärt Zurkinden. Jede Technologie birgt Risken, und auch wenn Menschen Fahrzeuge steuern, kommt es zu Unfällen mit Toten und Verletzten. Das Konzept des «erlaubten Risikos» wurde im Rahmen der Industrialisierung ins Strafrecht eingeführt: Wie gross darf das Risiko sein, dass eine bestimmte Technologie Menschen Schaden zufügt? «Bezogen auf Fahrzeuge bedeutet es, dass ein Hersteller, wenn er sich an alle Vorgaben hält, sich nicht strafbar macht, auch wenn er weiss, dass mit seinem Fahrzeug tödliche Unfälle passieren können», erläutert Zurkinden.
Ethische Grundsätze beachten
Ein wichtiger Punkt ist, wie KI-Systeme für diese Aufgaben trainiert und programmiert werden. Dabei sollten grundsätzlich dieselben Grundsätze gelten wie für Menschen. Etwa dann, wenn die Technologie zwischen verschiedenen Optionen entscheiden muss, bei denen Menschen zu Schaden kommen könnten. Zum Beispiel, wenn das Fahrzeug ausweichen muss und dabei entweder die Fahrerin oder andere Personen gefährdet.
Hier gelte ein Diskriminierungsverbot – egal, ob ein Mensch oder eine Maschine das Auto steuere, hält Zurkinden fest. Die Programme dürfen bestimmte Gruppen, etwa aufgrund des Alters, nicht anders behandeln als andere Gruppen. Gleichzeitig gelte auch der Grundsatz, dass ein Mensch durch das Gesetz nicht verpflichtet werden könne, sein eigenes Leben zu opfern.
![]()
Der Vorteil von Universitäten ist, dass sie kritische Fragen unabhängiger und ohne unternehmerische Absichten angehen können.
Vertrauen in KI schaffen
«Die beiden Beispiele zeigen, in welcher Breite an der UZH zu Künstlicher Intelligenz geforscht wird», erklärt Claudia Witt, Professorin für Komplementär- und Integrative Medizin und Mitglied des Digital Strategy Boards der UZH und selber Moderatorin am AI-X. Mit dem neu geschaffenen Netzwerk UZH.ai Hub will die Universität diese verschiedenen Aspekte noch besser vernetzen und gegen aussen sichtbarer machen. «Aufgrund ihrer vielen Disziplinen ist die UZH prädestiniert dafür, die Entwicklung und Nutzung der KI fächerübergreifend und umfassend zu betrachten», so Witt.
Es gehe nicht nur um die Entwicklung neuer Technologien, sondern auch darum, wozu diese dienen und welche Folgen damit verbunden sind. «Dazu braucht es technische Kompetenz, sowie breite Fachkompetenz aus anderen Bereichen, wie zum Beispiel dem Recht, der Ethik oder der Wirtschaft», sagt Witt.
Damit die KI-Anwendungen von der Gesellschaft akzeptiert würden und ihr Potenzial gut genutzt werden könne, sei das Vertrauen in die Lösungen ein zentraler Faktor. Die Forschung zu verantwortungsvollen Rahmenbedingungen und Folgen des Einsatzes von KI sei ein wichtiger Bestandteil, um dieses Vertrauen zu ermöglichen. Witt sagt: «Der Vorteil von Universitäten ist, dass sie kritische Fragen unabhängiger und ohne unternehmerische Absichten angehen können.»