Navigation auf uzh.ch

Suche

UZH News

Künstliche Intelligenz

Knuddeln mit der Roboterrobbe

Menschen und Maschinen existieren schon lange Seite an Seite. Doch mit der Künstlichen Intelligenz könnte sich das Verhältnis fundamental verändern. Werden Maschinen intelligenter sein als wir? Werden sie die Macht übernehmen und uns knechten?
Thomas Gull
Die Roboterrobbe spricht gezielt unsere Gefühle an.


Vielleicht haben Sie zu Hause einen intelligenten Staubsauger. Er kann auf eigene Faust den Boden Ihrer Wohnung abfahren und sogar Hindernissenausweichen. Einige dieser putzigen Putzroboter sind eher einfach gestrickt und fahren den Boden nach einem programmierten Muster ab. Andere sind intelligenter und können mehr Informationen aus der Umgebung wahrnehmen und darauf reagieren. Und manchen sind sogar in der Lage, die Wohnung zu «kartografieren» und sich entsprechend zu verhalten.

Orientierung in unbekannter Umgebung

Die Neuroinformatikerin Yulia Sandamirskaya arbeitet an der Entwicklung solcher intelligenter Maschinen, die lernen können und sich in einer unbekannten Umgebung zurechtfinden. Am Institut für Neuroinformatik (INI) der UZH und der ETH entwickelt Sandamirskaya die intelligenten Maschinen der Zukunft, die die Mensch-Maschine-Beziehung grundlegend verändern werden.

Maschinen sind uns vertraut. Wir haben sie erfunden, damit sie uns Arbeit abnehmen, oft mühsame, harte, langweilige Arbeit, die eine Maschine besser erledigen kann, weil sie stärker ist oder nicht müde wird. So leben wir schon lange Seite an Seite mit ihnen – sie haben die Pferde ersetzt und fahren uns durch die Gegend oder transportieren Waren, sie heben schwere Lasten oder sie stehen als Roboter in den Fabriken und führen die immer gleichen Arbeitsschritte aus, etwas, das auch Menschen immer noch tun (müssen).

Menschliche Intelligenz imitieren

Ursprünglich waren Maschinen technische Hilfsmittel, die ganz bestimmte, wenig komplexe Aufgaben erledigen konnten. Das verändert sich heute mit dem Einsatz digitalerTechnologie. Plötzlich ist es denkbar, «intelligente» Maschinenzu bauen. Diese können bestimmte Merkmale menschlicher Intelligenz imitieren.

Ursprünglich verstand man Intelligenz in erster Linie als abstraktes Denken, «beispielsweise mathematische Aufgaben zu lösen», erklärt Yulia Sandamirskaya. Computerwissenschaftler haben deshalb digitale Systeme entwickelt, die das können. Irgendwann waren sie besser als der Mensch: Der Schachcomputer Deep Blue besiegte 1996 Schachweltmeister Garri Kasparow. Das erregte Aufsehen, denn die Maschine triumphierte über den Menschen in seiner eigenen Domäne, dem logischen Denken.

Schlauer als Kasparow?

Rückblickend beurteilt Yulia Sandamirskaya diesen Erfolg weniger enthusiastisch als die Zeitgenossen. «War Deep Blue wirklich intelligenter als Kasparow?», fragt die Neuroinformatikerin und liefert die Antwort gleich nach: «Heute würden wir sagen, eher nicht, denn der Computer kann beispielsweise die Figuren auf dem Schachbrett nicht selber bewegen.»

Figuren sehen, greifen und bewegen

Kasparow konnte neben seiner Fähigkeit, Schachzüge zu planen, noch ganz viel, was Deep Blue nicht konnte: die Figuren sehen, sie greifen und auf einem anderen Feld platzieren etwa. Und am Ende der Partie konnte er aufstehen und weggehen.

Diese Fähigkeiten werden als «embodied intelligence», als verkörperte Intelligenz bezeichnet. Darüber verfügen nicht nur wir Menschen, sondern auch alle Tiere, selbst solche mit vergleichsweise einfachen Nervensystemen wie Bienen, die weite und gewundene Strecken zurücklegen, um Nektar zu sammeln, dann aber auf direktem Weg zum Stock zurückfinden können.

Limitierte Computer

«Trotz Künstlicher Intelligenz und maschinellem Lernen sind wir bei der Embodied Intelligence von Maschinen noch nicht viel weiter als 1996», sagt Yulia Sandamirskaya. So kann heute das Computerprogramm AlphaGo die weltbesten Spieler im komplexen strategischen Brettspiel Go besiegen. Aber die Spielsteine kann es immer noch nicht selbständig verschieben.

Sandamirskaya gehört zu jenen Wissenschaftlerinnen, die daran arbeiten, das zu ändern. Sie will Roboter bauen, die selbständig auf ihre Umgebung reagieren und sich in dieser bewegen können.

Steuerung mit neuronalen Netzwerken

Der Schlüssel dazu sind neuronale Netzwerke, die eingesetzt werden, um Roboter zu steuern. Neuronale Netzwerke imitieren Prozesse, die im menschlichen Gehirn ablaufen. Dort nehmen die Nervenzellen Informationen von verschiedenen Sinnen auf. Wenn diese Reize einen bestimmten Schwellenwert erreicht haben, gibt die Zelle ein Signal, einen sogenannten Spike ab: «Jede Neuronenzelle hat im Durchschnitt 10'000 Verbindungen mit anderen Zellen», erklärt Sandamirskaya.

Untereinander kommunizieren sie mit Spikes. Dieses Prinzip kann man heute nachbauen, mit elektronischen Schaltkreisen, die sich ähnlich verhalten wie Neuronen, indem sie analog und flexibel auf Inputs reagieren und ein Signal aussenden, wenn die elektrische Spannung einen bestimmten Schwellenwert erreicht hat.

Computertechnologie revolutionieren

Das Schaltkreis-Prinzip wurde in den 1990er-Jahren entwickelt und könnte nun die Computertechnologie revolutionieren. Die herkömmlichen Computer funktionieren binär – der Zustand ist immer null oder eins, dazwischen gibt es nichts. Bei den«neuromorphen» (den Neuronen nachgebildeten) elektrischen Schaltkreisen sind die Signale analog, das heisst stufenlos.

Zudem arbeitet die Schaltkreis-Architektur ihre Eingänge parallel ab, Prozessor und Speicher sind in dieser Architektur vereint: Beide Funktionen werden von den Verbindungen zwischen künstlichen Neuronen, den so genannten Synapsen, erfüllt.

Bei herkömmlichen Computern muss der Prozessor für jeden Rechenschritt im Speicher Informationen abholen und die Eingänge sequentiell bearbeiten. Dieses Hin und Her kostet die meiste Energie, die ein Rechner heute verbraucht.

Winzige Transistoren

Heute können solche künstlichen neuronalen Netzwerke Millionen von Berechnungen pro Sekunde ausführen. Sie sind viel effizienter als herkömmliche Rechner. Die verwendeten Transistoren sind nur noch einige Nanometer gross und lassen sich in sehr dichte Netzwerke integrieren.

Dank dieses technologischen Quantensprungs ist es denkbar geworden, gewisse Leistungen des menschlichen Gehirns zu imitieren. So können neuronale Netzwerke mittlerweile trainiert werden, beispielsweise Objekte zu erkennen.

Lernen als Kinderspiel

Dieses maschinelle Lernen wird als «deep learning» bezeichnet. So kann das System etwa lernen, ein Objekt, etwa einen Fussgänger oder ein Auto, zu erkennen. Das geht so: Dem Netzwerk werden Millionen von Bildern von Fussgängern gezeigt. In diesem Prozess wird das Netzwerk durch ein Lernprogramm so justiert, dass es schlussendlich alle Fussgänger als solche erkennt.

Im Vergleich zum menschlichen Lernen ist das aber immer noch unglaublich aufwändig, wie Yulia Sandamirskaya erklärt: «Das System kann trainiert werden, beispielsweise Fussgänger im Sommer zu erkennen.» Doch wenn es noch nie einen Fussgänger im langen Mantel gesehen hat, erkennt es diesen möglicherweise nicht.

Deshalb beginnt das Training mit den neuen Bildern dann wieder von vorn. «Kinder lernen ganz anders», sagt Sandamirskaya, «ihnen muss man nicht eine Million Katzenbilder zeigen und immer wieder sagen: Das ist eine Katze, eine Katze, eine Katze. Ihnen reicht es in der Regel, eine einzige Katze zu sehen, um zu wissen, was eine Katze ist.»

Bilderkennung besser als beim Menschen

Der Traum der Neuroinformatiker ist ein System, für das lernen ein Kinderspiel ist. Davon ist man noch weit entfernt. «Unsere Neuronen sind langsamer als die digitalen, aber ihre Netzwerke sind flexibler und adaptiver», sagt die Neuroinformatikerin.

Die Bildererkennung gehört jedoch zu jenen Gebieten, in denen die neuronalen Netzwerke wirklich gut sind, oft besser als der Mensch. Weit anspruchsvoller ist die Spracherkennung, weil Sprache komplex ist und ihre Bedeutung oft nicht eindeutig. Noch schwieriger ist es, ein komplexes Robotersystem so zu steuern, dass es sicher, effektiv und adaptiv Aufgaben in alltäglichen Situationen erledigen kann.

Biologisch inspirierte Roboter

Die Weissrussin Sandamirskaya leitet die Gruppe «neuromorphe kognitive Roboter» am INI. Ihr Team arbeitet an der Grenze dessen, was neuronale Netzwerke heute können: Sie will verstehen, wie biologische Prozesse wie das Lernen funktionieren, und diese auf neuronale Netzwerke übertragen. Und sie entwickelt Programme für Roboter, die sich selbständig in einer ihnen fremden Umgebung bewegen können.

Voraussetzung dafür ist, dass die Roboter ihre Umgebung erkennen und darauf richtig reagieren können. «Das ist sehr komplex», erklärt die Neurowissenschaftlerin, «nur schon mein iPhone vom Tisch aufzuheben und in die Hand zu nehmen, ist eine Aufgabe, die Roboter heute noch überfordert.»

Roboter beziehungsweise die intelligenten Systeme, die sie steuern, müssen dazu drei Dinge lernen: Sie müssen das iPhone sehen und seine Grösse, die Gewichtsverteilung und die Oberflächeneigenschaften abschätzen können; dann müssen sie flexibel darauf reagieren, dass diese Einschätzungen nicht ganz präzise sind oder das iPhone bewegt wird, bevor die Hand es erreicht, und: «Sie müssen aus Fehlern lernen können, denn man kann nicht alles programmieren», sagt Sandamirskaya.

Besser und agiler

Ihr Ziel ist, neuronale Netzwerke so weit zu entwickeln, dass sie alles können: Dinge erkennen, Bewegungen kontrollieren und selbständig lernen. «Heute können sie bestimmte Sachen, aber alles zusammen geht noch nicht.» Die Neurowissenschaftlerin arbeitet auch an Programmen, die Drohnen steuern. Wenn sich diese dereinst so orientieren könnten wie Bienen, wäre das ein ein grosser Erfolg.

Doch selbst wenn die neuronalen Netzwerke immer besser und agiler werden, gibt es ein weiteres Hindernis zur verkörperten Kognition: den Körper. Es ist schwierig, die neuronalen Netzwerke mit Motoren zu verbinden, die koordinierte, auf die Umgebung abgestimmte Bewegungen erzeugen,wie das beim Menschen Gehirn und Körper im Zusammenspiel tun können.

Auch Google ist interessiert

Yulia Sandamirskaya sagt dazu: «Das Gehirn ist heute besser imitierbar als der Körper.» Es werde an biologisch inspirierten Robotern gearbeitet, sagte sie, doch das sei kompliziert und teuer. «Um schneller Fortschritte zu machen, müsste viel mehr Geld investiert werden.»

Sogar Google interessiert sich für Robotik, die Fortschritte sind aber viel bescheidener als bei ihren Software-Systemen. «Intelligente Roboter zu entwickeln, ist nicht der schnellste Weg, um reich zu werden», sagt Sandamirskaya und lacht.

Auf der Spur der Emotionen

Während Yulia Sandamirskaya daran arbeitet, die Künstliche Intelligenz weiterzuentwickeln, indem sie menschliche Fähigkeiten nachbaut, steht die Philosophin Eva Weber-Guskar gewissermassen auf der anderen Seite. Sie interessiert sich dafür, welche Gefühle intelligente Maschinen bei uns auslösen und ob das gut oder schlecht ist.

Denn Emotionen spielen bei der Interaktion von Mensch und Maschine eine wichtige Rolle, sagt Weber-Guskar: «Maschinen sollten keine Furcht, keinen Ärger oder Ekel bei uns auslösen, sondern positive Gefühle.Sonst beschäftigen wir uns nicht mehr mit ihnen.» Jedes Handy ist so gemacht, dass wir es gerne zur Hand nehmen.

Heute gibt es Maschinen, die gezielt unsere Gefühle ansprechen, wie die Roboterbabyrobbe Paro, die darauf reagiert, wie Menschen mit ihr umgehen. Paro wird unter anderem eingesetzt, um Demenzkranke zu betreuen. Das funktioniert – der Roboter steigert das Wohlgefühl der Menschen,die ihn streicheln.Entscheidend ist, dass Paro Gefühle simulieren kann. «Er muss zeigen, dass er sich freut oder wohlfühlt», sagt Weber-Guskar.

Robotterrobbe reagiert auf Gefühle

Die Roboterrobbe ist ein Beispiel für emotionalisierte Künstliche Intelligenz (EKI). Ein anderes ist der Roboter Pepper, der darauf geschult ist, Emotionen von Menschen zu erkennen und diese beispielsweise durch einenTanz aufzuheitern oder sie zu umarmen.

Wichtig ist: Die Roboter empfinden selbst keine Emotionen. Sie sind nur so programmiert, das sie sie simulieren können. Das kann problematisch sein, etwa wenn wir dadurch getäuscht werden. Und es kann zum Problem werden, wenn wir Robotern «unangemessene» Gefühle entgegenbringen.

Wir sollten uns stets bewusst sein, dass es sich um eine Maschine handelt, die eben keine Gefühlsempfindungen hat, sagt Weber-Guskar. Deshalb ist Sympathie für sie in Ordnung,Empathie, Mitgefühl aber schon problematisch, weil es voraussetzt, dass das Gegenüber eben Gefühle hat, die wir mitfühlen können.

Schmerzlose Maschinen

Allerdings: Wie sich im Gespräch mit der Philosophin zeigt, ist die Gefühlsdiskussion (noch) nicht trennscharf. Sollen Soldaten beispielsweise mit einem Roboter mitleiden – was sie offenbar tun – der ein Minenfeld räumt und dem dabei ein Bein ums andere weggesprengt wird? Eigentlich nicht, antwortet Weber-Guskar. Wir sollten uns bewusst sein, dass es ein Roboter ist und deshalb keinen Schmerz empfinden kann.

Auf der anderen Seite ist Mitgefühl eine positive menschliche Eigenschaft, die wir besser kultivieren sollten, statt sie uns abzutrainieren. «Wenn wir wollten», so Weber-Guskar, könnten wir Roboter «sklavisch halten, sie vergewaltigen oder uns über sie lustig machen, weil sie das in keiner Weise schmerzt oder seelisch verletzt». Doch wäre das schlecht für uns, weil es unsere Fähigkeit, Mitleid zu empfinden, schwächen würde. Das wiederum wäre nicht gut für unser Zusammenleben als Menschen, argumentiert die Philosophin. Umgekehrt könnten stets freundliche, «einfühlsame» Roboter dazu dienen, unsere Freundlichkeit zu schulen.

Gefühle lernen

Denn Gefühle zu empfinden, lernen wir während wir aufwachsen – «im sozialen Miteinander», so Weber-Guskar. Konkret bedeutet das für uns im Fall der Roboter: Obwohl Maschinen keine Gefühle haben, entwickeln wir Gefühle im Umgang mit ihnen. Diese Emotionen beeinflussen und verändern uns.

Deshalb ist es wichtig für uns, den angemessenen emotionalen Umgang mit Robotern zu finden. Wie dieser aussehen sollte, erforscht Weber-Guskar unter anderem im Rahmen der Digital Society Initiative DSI der UZH, wo sie während des Frühjahrssemesters 2019 als Fellow zu Gast ist.

Fehlendes Selbstbewusstsein

Werden denn Maschinen dereinst fühlen können wie wir Menschen? Weber-Guskar schüttelt den Kopf. Der entscheidende Punkt ist, dass Künstliche Intelligenz – zumindest bis heute – kein Selbstbewusstsein hat. Das heisst, der Roboter weiss nicht, wer er ist. «Im Moment ist es nicht vorstellbar, dass Maschinen je so etwas wie ein Bewusstsein ihrer selbst entwickeln könnten.» Das hat auch damit zu tun, dass wir nicht wissen, wie unser Bewusstsein entsteht.

Weber-Guskar nennt das den Bewusstseins-Gap: «Wir können die biologischen Prozesse im Gehirn beschreiben, die Synapsen, die feuern, doch wir können nicht erklären, wie aus diesen biologischen Prozessen Bewusstsein wird.» Solange dies nicht der Fall ist, dürfte es unmöglich sein, eine Maschine zu bauen,die das kann.

Veränderungen in der Arbeitswelt

Maschinen werden immer besser, einige auch intelligenter. Das hat zu Befürchtungen geführt, sie könnten uns Menschen dereinst ersetzen. In der Arbeitswelt ist dieser Prozessbereits im Gang. Allerdings nicht seit gestern oder vorgestern, sondern seit Beginn der industriellen Revolution.

Grundsätzlich haben wir vom Einsatz der Maschinen profitiert, weil sie uns viele Arbeiten abnehmen und die Produktivität und damit den Wohlstand erhöht haben. Früher wurden jedoch vor allem manuelle Arbeiten durch Maschinen ersetzt. «Das hat sich geändert, seit Computer selbständig kognitive Arbeiten erledigen können», sagt der Volkwirtschaftler David Hémous, Assistenzprofessor am Department of Economics der UZH.

Gefährdete Mittelschichts-Arbeitsplätze

Algorithmen ersetzen Menschen heute auch in anderen Arbeitsbereichen. Als Beispiele nennt der Ökonom die Mitarbei ter im Reisebüro, die früher Hotels suchten oder Flüge buchten.Das kann man heute selber machen mithilfe einer Suchmaschine und Online-Buchungssystemen. Oder Mitarbeiter in Anwaltskanzleien, die Dokumente durchschauten – der Computer kann das besser und schneller.

Wie bereits beschrieben, können neuronale Netzwerke so trainiert werden, dass sie Bilder besser lesen als wir Menschen. Mit dieser Fähigkeit machen sie hochqualifizierten Spezialisten wie Radiologen Konkurrenz, weil sie beispielsweise eingesetzt werden können, um auf radiologischen Aufnahmen Tumore zu erkennen.

Welche Folgen hat diese Entwicklung? Intelligente Maschinen ersetzen zunehmend auch qualifizierte Arbeitnehmerinnen und Arbeitnehmer und gefährden damit traditionelle Mitteschichts-Arbeitsplätze. Gleichzeitig entstehen neue, gut bezahlte Jobs, die für die Entwicklung von Maschinen und Künstliche Intelligenz benötigt werden, wie Ingenieure und Programmierer. Und die Nachfrage im Dienstleistungsbereich wächst, wobei es sich dabei oft um schlechter entlohnte Arbeit wie Reinigen, Kellnern oder Hundehüten handelt.

Einkommensschere öffnet sich

Die Einkommensschere dürfte sich damit weiter öffnen. «Die Automatisierung verstärkt die Ungleichheit und kann zu tieferen Löhnen führen», sagt David Hémous. Doch für die steigende Arbeitslosigkeit sei die Automatisierung nicht der wichtigste Faktor, betont der Ökonom. Denn einerseits sei es ein Irrtum, zu glauben, Arbeit sei endlich – die Ökonomen nennen das «lump of labour falacy».

Andererseits fallen andere Faktoren mehr ins Gewicht, wenn Menschen keine Arbeit mehr finden wie die (fehlende) Ausbildung, eine wenig diversifizierte Wirtschaft und ein un flexibler Arbeitsmarkt. Beispiele sind Gegenden in Nordfrankreich, die ihre Industrie verloren haben, oder der «Rostgürtel» in den USA.

Die Schweiz hat in der traditionellen Industrie auch viele Arbeitsplätze verloren, konnte diese jedoch in anderen Bereichen kompensieren. Bei uns habe bisher, wie in anderen europäischen Ländern, die Ungleichheit auch noch nicht zugenommen – anders als in den USA, sagt Hémous.

Produktivität gesteigert

Der Volkswirtschaftler rechnet damit, dass die Vorteile der Automatisierung die Nachteile mehr als aufwiegen: «Wenn Menschen von Robotern ersetzt werden, ist das keine schlechte Nachricht für die Gesellschaft als Ganzes, weil dadurch die Produktivität gesteigert wird. Das heisst, wir werden reicher.»

Die entscheidende Frage ist, wie dieser Reichtum verteilt wird und was mit den Verlierern dieses Prozesses passiert. Hémous sieht hier verschiedene Optionen: ein bedingungsloses Grundeinkommen, wobei er betont, dass man hier noch mehr über die Effekte wissen müsse; progressivere Steuern, die Besserverdienende stärker zur Kasse bitten, oder umgekehrt Gutschriften für Menschen, die wenig verdienen, wie es sie in Frankreich unter dem Titel «prime pour l’emploi» (Jobprämie) bereits gibt: Wer arbeitet, aber (zu) wenig verdient, bekommt vom Staat einen Zustupf. Das Wichtigste aber sei die Ausbildung, betont Hémous: «Die Menschen müssen die Fähigkeiten erwerben, die es in Zukunft braucht.» Die Schweiz habe das bisher gut geschafft, vor allem dank der Berufsausbildung,und sie habe auch gute Aussichten für die Zukunft, ist Hémousüberzeugt.

Angst vor dem Staubsauger

Alles in allem zeichnet Hémous ein positives Zukunftsszenario des Verhältnisses zwischen Mensch und Maschine, solange wir die Maschinen in unseren Dienst stellen und die Produktivitätsgewinne fair verteilen.

Doch mit der Künstlichen Intelligenz ist ein neues Schreckgespenst am Horizont aufgetaucht: die Vorstellung, dass dereinst die Maschinen das Kom-mando übernehmen und uns beherrschen könnten. Ist das reine Science Fiction, oder müssen wir uns davor fürchten,Yulia Sandamirskaya? Die Neurowissenschaftlerin lacht: «Wieviel Angst muss ich vor meinem Staubsauger haben?» Keine, lautet wohl die richtige Antwort.

Das gelte für die Künstliche Intelligenz ganz allgemein: «Algorithmen und intelligente Netzwerke werden uns wie die herkömmlichen Maschinen Arbeiten abnehmen, die wir nicht so gut können oder die langweilig, schmutzig oder gefährlich sind. Das ist gut für uns.» Und wenn diese Netzwerke nun plötzlich selber denken und entscheiden? Sandamirskaya winkt ab: Intelligente Systeme, betont die Neuroinformatikerin, können Aufgaben erfüllen, sie können sogar selbständig lernen, aber es ist immer der Mensch, der die Ziele und den Rahmen dafür setzt. «Dass Computer selber denken und entscheiden können wie wir Menschen, ist utopisch!»

Ohne freien Willen

So, wie es aussieht, können Maschinen nicht so werden wie wir Menschen, weil sie kein Bewusstsein haben. Sie sind deshalb auch nicht in der Lage, selbständig zwischen Gut und Böse zu unterscheiden, sagt Weber-Guskar: «Maschinen sind keine moralischen Wesen mit freiem Willen wie wir Menschen.»

Das sei gut so, findet die Philosophin, denn wenn wir sie zu moralischen Wesen erziehen würden, müssten wir ihnen auch die Freiheit gewähren, selbst zu entscheiden, ob sie gut oder böse sein wollen. Das würde bedeuten: Den Maschinen müsste erlaubt werden, ihren Endzweck zu verändern. «Das sollten wir besser nicht tun», betont Weber-Guskar, «denn dann könnten sie sich auch gegen uns wenden.»