Navigation auf uzh.ch

Suche

UZH News

Medienforschung

«Verkaufte Datenseele»

Algorithmen begleiten uns, wenn wir durchs Internet surfen. Facebook oder Google setzen sie ein, um unser Verhalten zu analysieren. Kommunikationswissenschaftler Michael Latzer erforscht, was Algorithmen tun und wie sie unsere Sicht auf die Welt beeinflussen.
Interview: Thomas Gull und Roger Nickl
Michael Latzer
Michael Latzer: «Online-Echokammern sind keine Gefängnisse: Wir betreten sie freiwillig, man will ja auch mal in seiner Meinung bestärkt werden.»

Michael Latzer, was sind Algorithmen?

Michael Latzer: Algorithmen sind Programme, die Probleme lösen. Wir interessieren uns für jene Algorithmen, die von Internetfirmen eingesetzt werden, um Daten auszuwählen und ihre Relevanz festzulegen. Indem sie das tun, beeinflussen Algorithmen unsere alltägliche Wirklichkeitskonstruktion und unser Handeln.

Das klingt abstrakt, können Sie ein Beispiel machen?

Latzer: Nehmen wir Amazon. Der Online-Händler weiss zum Beispiel, was ich bisher gekauft habe. Aufgrund dessen bietet er mir weitere, ähnlich gelagerte Produkte an. Dahinter steckt ein Algorithmus, der mein Kaufverhalten analysiert und mit dem Angebot von Amazon verbindet. Hierbei handelt es sich um ein algorithmisch gesteuertes Empfehlungssystem. Facebook setzt ein Filtersystem ein, um mir eine Auswahl der Statusmeldungen meiner Freunde anzuzeigen. Auch Spamfilter beruhen auf einer algorithmischen Selektion, die erwünschte von unerwünschten Nachrichten trennt. Ihnen allen ist gemein, dass sie für uns Produkte auswählen, diesen Relevanz zuweisen und uns damit gezielt einen Teil dessen präsentieren, was im Internet verfügbar ist.

Ist das problematisch?

Latzer: Es kommt darauf an, wie die Algorithmen programmiert sind, das heisst, welchen Zweck sie haben. Eine Buchempfehlung beispielsweise ist einigermassen harmlos, im schlimmsten Fall kaufen Sie ein Buch, das Sie nicht interessiert. Problematischer ist, wenn Algorithmen verwendet werden, um aufgrund der Spuren, die wir im Internet hinterlassen, unser Verhalten vorherzusagen. Auch hier gibt es harmlose Varianten: Ich schaue mir Hotels auf Sardinien an und erhalte darauf online Werbung von Hotels auf Sardinen. Algorithmen werden jedoch mittlerweile für ganz andere Dinge eingesetzt. So gibt es Programme, die für Richter die Wahrscheinlichkeit einschätzen, dass ein Angeklagter rückfällig wird. Das ist sehr umstritten. Es gibt Instrumente, um die Kreditwürdigkeit zu eruieren. China betreibt ein soziales Scoring-System, das Bürgerinnen und Bürger aufgrund von Verhaltensdaten beurteilt, die im Internet und anderswo gesammelt werden.

Das ist dann der gläserne Bürger?

Latzer: Genau. Und das hat Konsequenzen, denn der Staat weiss fast alles über seine Bürger und kann diese entsprechend einschätzen und allenfalls auch bestrafen oder befördern, je nachdem, ob ihr Verhalten dem staatlich gewünschten entspricht oder nicht. Algorithmen werden auch bei Anstellungsprozessen eingesetzt, wobei etwa die zukünftigen Leistungen von Bewerbern aufgrund der verfügbaren Daten prognostiziert werden.

Das ist eine beunruhigende Perspektive.

Latzer: Wichtig ist, zu verstehen, dass dafür nicht die Algorithmen verantwortlich sind, sondern jene, die sie programmieren und nutzen. Wie andere Technologien kann auch die algorithmische Selektion für die Durchsetzung zweifelhafter Interessen und Werte missbraucht werden.

Deshalb wird auch der Ruf immer lauter, Algorithmen müssten transparent sein, das heisst, die Nutzer sollten wissen, wie beispielsweise die Algorithmen von Suchmaschinen programmiert sind.

Latzer: Hier gibt es allerdings ein Transparenz-Paradox. Denn wenn man Algorithmen transparent macht, funktioniert das System nicht mehr. Wenn ich beispielsweise weiss, wie eine Suchmaschine funktioniert, kann ich sie so manipulieren, dass mein Angebot bei der Suche an erster Stelle steht. Das wird heute ja bereits versucht – mit mehr oder weniger Erfolg – und ist einer der Gründe, weshalb die Algorithmen etwa der Suchmaschinen permanent ange- passt und verändert werden. Deshalb ist ein «Algo-TÜV», wie er in Deutschland diskutiert wird, das heisst eine Abnahme von Algorithmen vergleichbar mit derjenigen von Autos, nicht sinnvoll und auch nicht machbar.

Das bedeutet, wir müssen mit dieser Intransparenz leben?

Latzer: Es gibt unterschiedliche Ausprägungen von Transparenz. Wenn Sie eine Cola trinken, wissen Sie auch nicht genau, wie diese gemixt ist, aber auf der Flasche steht, welche Inhaltsstoffe verwendet wurden. Bei der Verwendung spezifischer Algorithmen könnte das auch transparent gemacht werden. Welche Daten werden beispielsweise genutzt, um die Rückfallquote eines Straftäters zu prognostizieren? Wenn es die Postleitzahl seines Wohnsitzes ist, kann das diskriminierend sein für jemanden, der aus einem Quartier stammt, das einen schlechten Ruf hat. Das heisst, in bestimmten Fällen kann es wichtig sein, zumindest gewisse Informationen darüber zu erhalten, wie ein Algorithmus arbeitet.

Mittlerweile ist den meisten von uns klar, dass wir, wenn wir uns im Internet bewegen, viele Spuren hinterlassen, doch den meisten scheint das mehr oder weniger egal zu sein. Ist das so?

Latzer: Tja, wir gehen mit Google und Facebook einen Teufelspakt ein, indem wir die digitalen Annehmlichkeiten gegen unsere Datenseele tauschen, wie US-Ökonomin Shoshana Zuboff es auf den Punkt bringt: Wir machen uns transparent, um gewisse Vorteile zu geniessen.

Die wären?

Latzer: Ich kann kostenlos etwas suchen, mit meinen Freunden kommunizieren, bekomme nützliche Empfehlungen. Da gibt es viele positive Aspekte. Wir brauchen die Hilfe der Algorithmen, die für uns vorselektieren, sonst würden wir in der Datenflut untergehen.

Gerade diese Vorselektion wird jedoch kritisiert, weil wir damit auch manipuliert werden können. Wie schätzen Sie das ein?

Latzer: Das ist ein vielschichtiges Phänomen. Tatsache ist: Die Algorithmen sorgen dafür, dass wir online personalisierte Informationen erhalten.

Ist das gut oder schlecht?

Latzer: Es wird argumentiert, die Vielfalt werde dadurch reduziert und wir lebten gefangen in Echokammern und Filterblasen, die uns eine Welt vorgaukeln, die es so nicht gibt. Ich halte das für überzogen. Denn die Echokammern sind keine Gefängnisse: Wir betreten sie freiwillig – man will ja auch mal in seiner Meinung bestärkt werden, und wir können sie auch wieder verlassen, genauso wie die Social-Media-Blase. Wie aktuelle Befragungen zeigen, die wir in der Schweiz durchgeführt haben, informiert sich der Grossteil der Menschen auch heute noch sehr vielfältig und vertraut weitaus stärker den traditionellen Quellen.

Welchen?

Latzer: Wir haben beispielsweise gefragt, als wie wichtig einzelne Informationsquellen für die poli- tische Meinungsbildung eingeschätzt werden. Am wichtigsten ist für die Schweizerinnen und Schweizer das persönliche Gespräch, gefolgt vom Abstimmungsbüchlein, traditionellem Rundfunk, Printmedien, Websites von Medien, Wikipedia und Suchmaschinen. Sozialen Medien wird vergleichsweise nur eine sehr geringe Bedeutung zugeschrieben. Das heisst: Die sozialen Medien werden zwar von mehr als der halben Bevölkerung genutzt, teils auch sehr zeitintensiv, aber sie sind nur eine Quelle unter vielen und die individuelle Bedeutungszuweisung für die politische Meinungsbildung ist gering. Das heisst: Nutzungsdauer ist eben nicht gleich Wichtigkeit.

Trotzdem werden die sozialen Medien von der kommerziellen und politischen Werbung genutzt, um Kunden und Wähler zu manipulieren. Bekanntestes Beispiel ist der Versuch Russlands, die US-Präsidentschaftswahlen 2016 zugunsten von Donald Trump zu beein ussen, unter anderem mit gezielten Kampagnen auf Social Media.

Latzer: Wir sprechen da von so genanntem Microtargeting, dem gezielten Ansprechen von individuellen Nutzern mit auf sie zugeschnittenen Inhalten. Es wird argumentiert, damit sei es möglich, Meinungen zu manipulieren. Meines Erachtens ist das übertrieben. Untersuchungen in den USA und Europa zeigen, dass sowohl das Ausmass an Desinformation als auch deren manipulative Wirkungen überschätzt sind. Im Fall von Trump halte ich zudem das postulierte Wirkungsmodell für falsch: Trump wurde weniger wegen elaborierter Social-Media-Kampagnen zum Präsidenten gewählt, sondern vor allem dank den traditionellen Medien, unter anderem auch dem Fernsehen, das ihm mit der Show «The Apprentice» Gelegenheit gab, Aufmerksamkeit in Form von medialer Prominenz zu kumulieren, die sich dann in Wählerstimmen ummünzen liess.

Trotzdem verändert das Internet, wie wir uns informieren. Traditionelle Medien verlieren immer mehr an Bedeutung.

Latzer: Das trifft zu, allerdings nur bedingt.

Weshalb?

Latzer: Darf ich ausholen?

Tun Sie das!

Latzer: Ausgehend von Niklas Luhmanns «Die Realität der Massenmedien» aus den 1990er-Jahren argumentierte die Kommunikationswissenschaft, dass fast all unser Wissen über die Welt von den Massenmedien selektiert und geformt wird. Diese hatten die unumstrittene dominante Gatekeeper-Rolle inne, das heisst, sie entschieden, was wichtig war und was nicht, und versorgten uns dementsprechend mit Informationen. Diese beinahe monopolistische Gatekeeper-Stellung traditioneller Massenmedien wurde nun zweifach gebrochen: von Internetnutzern, die mittels selbst generierter Inhalte zu Gatekeepern werden, und von automatisch selektierenden Algorithmen in diversen Internet-Diensten wie Suchmaschinen, sozialen Medien oder News-Aggregatoren. Heute können auch Sie und ich oder Algorithmen Öffentlichkeit an den Massenmedien vorbei herstellen, indem wir oder algorithmische Social Bots etwas in sozialen Medien posten. Dank dem Internet hat sich die Zahl der Informationsanbieter und Gatekeeper vervielfacht. Die Macht der traditionellen Massenmedien hat dementsprechend abgenommen.

Was heisst das für uns als Nutzer?

Latzer: Das Informationsangebot ist vielfältiger geworden und wir müssen vermehrt auswählen. Dabei helfen uns Suchmaschinen, soziale Medien, Empfehlungs- und Bewertungsdienste mit ihren Algorithmen. Sie müssen wir beurteilen lernen. Unsere Untersuchungen zeigen, dass die Leute sehr wohl unterscheiden, welche Quellen glaubwürdig sind und welche weniger. Auch junge Menschen sind da viel differenzierter als gemeinhin angenommen. Trotzdem sollten unsere Fähigkeiten im Umgang mit dem Internet gefördert werden.

Weshalb?

Latzer: In mancher Hinsicht sind wir immer noch naiv. So wissen beispielsweise nur 20 Prozent der Schweizer Internetnutzer, dass Facebook Algorithmen einsetzt, um individuelle Newsfeeds zusammenzustellen, 40 Prozent glauben hingegen, das werde von einem Menschen gemacht, und weitere 40 Prozent sind diesbezüglich unsicher. Für mich zeigt das, dass unser Bewusstsein über das Wirken und die Wirkung von Algorithmen nach wie vor zu gering ist.

Daran müsste man arbeiten. Doch wie?

Latzer: Die Leute könnten besser informiert werden, etwa mit Kampagnen. Sie sollten auch lernen, wie man das Internet besser nutzt, vor allem auch wie man ef zient und erfolgreich sucht. Aus meiner Sicht haben viele dieser Dienste ein positives Potenzial und Nutzer sollten daher in die Lage versetzt werden, dieses sinnvoll auszuschöpfen und sich dabei vor Risiken zu schützen.

Algorithmen sind heute schon sehr mächtig, indem sie den Informationsfluss im Internet und damit auch unsere Wahrnehmung steuern. Werden sie bald die Macht übernehmen und über uns bestimmen?

Latzer: Hinter diesem Gedanken steckt die Idee der technologischen Singularität. Sie postuliert eine Künstliche Intelligenz, die unsere menschliche übertrifft: ein digitaler Zauberlehrling, der unserer Kontrolle entgleitet und nicht mehr eingefangen werden kann. Populär gemacht hat diesen Gedanken unter anderem Ray Kurzweil, inzwischen Director of Engineering bei Google. Ich schliesse nicht aus, dass es dazu kommen könnte, halte es aber aus heutiger Sicht für sehr unrealistisch.

Weshalb?

Latzer: Weil Computer rein syntaktische und keine semantischen Maschinen sind. Die jüngst gefeierten Fortschritte in der Künstlichen Intelligenz (KI), etwa beim maschinellen Lernen, beziehen sich dementsprechend auf die so genannte «enge KI» für abgegrenzte Anwendungsfelder und nicht auf eine «generelle KI», die an die umfassenden Fähigkeiten des Menschen herankommt.

Was bedeutet das?

Latzer: Algorithmen können heute schon vieles besser und ausdauernder als wir Menschen, beispielsweise rechnen, memorieren, abgleichen, kombinieren und vielfältige Routinehandlungen vollziehen. Aber anders als wir Menschen können sie keinen Sinn, keine Bedeutung verstehen. Das wird nur dank aufwändiger Computerleistung bestmöglich simuliert. Ein Bewusstsein über das Handeln existiert nicht und ist auch nicht absehbar. Deshalb sehe ich nicht, dass der Mensch in absehbarer Zeit durch Algorithmen abgelöst wird. Der Wert der Künstlichen Intelligenz liegt vor allem in neuen Möglichkeiten einer geteilten Handlungsfähigkeit zwischen Mensch und Technik.