DAS KÖNNTE IHNEN GEFALLEN

Überall im Netz sind Empfehlungsalgorithmen am Werk. Ist das praktisch – oder gefährlich? TAGESSPIEGEL. 30. Juni 2011

Ein Gespenst geht um im Internet. Zwei große böse Mächte (genau: Google und Facebook!) haben es auf den Weg gebracht, jetzt schwirrt umher, um unsere Sinne zu täuschen und uns die Sicht zu vernebeln. Es ist die berüchtigte Weltblickverengung.

Halt, Moment, auf Anfang: Wovon sprechen wir überhaupt? Die Geschichte beginnt mit Nicholas Negroponte, Begründer des „Media Lab“ am berühmten Massachusetts Institute of Technology und langjähriger Kolumnist der  Zeitschrift  „Wired“. Er hatte bereits Mitte der 1990er Jahre eine Vision zum Thema Zeitungen. Warum sich immer mit den ganzen Artikeln rumärgern, die einen ohnehin nicht interessieren. In einer durchdigitalisierten Welt wird das nicht mehr nötig sein, schrieb er in seinem Bestseller „Total digital“, da kommen nur noch die Inhalte ins Haus, die man auch wirklich lesen möchte. „Nennen Sie das Blatt einfach Meine Allgemeine.“

Fünfzehn Jahre später scheint Meine Allgemeine zum Greifen nah. Der Hinweis „Das könnte Ihnen auch gefallen“ ist zu einem der wichtigsten Wegweiser durchs Internet geworden. Seine persönlichen Präferenzen muss der Nutzer dazu gar nicht mitteilen. Es reicht, wenn er Konten eröffnet oder Cookies zulässt. Den Rest besorgen Statistiken und Datenbanken. Bei Amazon funktioniert das immer noch schlicht, nach dem Motto: einmal Kochbuch, immer Kochbuch. Auf anderen Plattformen verläuft die Vorauswahl dagegen oft unbemerkt. Facebook zum Beispiel gewichtet Meldungen von Freunden seit zwei Jahren ungefragt nach „Relevanz“. Das funktioniert so: Klickt man nie auf die Mitteilungen von Freund A, kann es sein, dass dieser irgendwann aus dem eigenen Nachrichtenstrom verschwinden. So innig kann die Freundschaft wohl nicht sein, scheint der Algorithmus zu schlussfolgern.

Grund zur Aufregung? Wo Aufmerksamkeit wertvoll und knapp ist, spricht eigentlich nichts gegen solche personalisierten Feinjustierungen. Außerdem können es sich die Onlinedienste schlicht nicht leisten, Nutzer mit uninteressanten Inhalten zu langweilen. Gute Empfehlungen oder passende Links versprechen dagegen hohe Durchklickraten, lange Verweildauer, breite Zufriedenheit. Sprich: ideales Werbeumfeld.

Um das herzustellen, versucht auch Google seine Ergebnislisten zunehmend individuell anzupassen. Dabei werden mehrere Faktoren berücksichtigt: das bisheriges Such- und Klickverhalten des jeweiligen Nutzers, sein geografischer Standort und – neuerdings – auch die Vorlieben seines sozialen Umfelds. Facebook hat vorgemacht, wie man den kollektiven Geschmack abbildet und kanalisiert, unter anderem mit dem „Gefällt mir“-Button, der vor gut einem Jahr eingeführt wurde und mittlerweile auf 2,5 Millionen Websites weltweit implementiert ist. Jetzt hat Google nachgezogen, seit kurzem können angemeldete Nutzer auch dort Webseiten ihres Vertrauens mit einem „+1“-Klick adeln. Freunde und Bekannte, mit denen man über Google-Dienste vernetzt ist, bekommen diese Empfehlungen dann in ihren Suchergebnissen angezeigt: Anbieter für Städtereisen? Diesen hier fand der Bürokollege gut. Und jenen mochte die Schwiegermutter.

Im Bereich Unterhaltung und Konsum haben Bekanntenkreise schon immer diese Empfehlungsfunktion erfüllt. Dass große Plattformen den sozialen Vorgang nachzubilden versuchen, um ihn in ihr Geschäftsmodell zu integrieren, scheint nur konsequent. Ob man das wiederum schätzt oder ablehnt ist eigentlich Privatsache.

Trotzdem mehren sich die kritischen Stimmen. Die Sorge gilt nicht dem Datenschutz – sondern der Demokratie. Was, so der düstere Tenor, wenn die Empfehlung sich flächendeckend als mediales Filterprinzip durchsetzt? Und auch politische Meinungsbildung bald nur noch innerhalb von geschlossenen Linkzirkeln stattfindet? Wenn Google entscheidet, welche Nachrichten mich vermutlich sowieso nicht interessieren, wenn Facebook Bekanntschaften unterschlägt, die selten meiner Meinung sind. Kurz: Wenn abweichende, streitbare, weniger populäre Perspektiven für den einzelnen Nutzer immer unsichtbarer, immer schwerer auffindbar werden. Weil alles, was man mir im Netz vorsetzt, immer schon auf meine dreieinhalb Interessensgebiete zugeschnitten ist. Und ich nicht mal überblicken kann, was wer warum von mir fernhält.

Die Diskussion ist nicht neu, gerade aber wieder risch entbrannt. Meistzitiert in diesem Zusammenhang ist der politische Aktivist Eli Pariser und sein kürzlich erschienenes Buch „The Filter Bubble“. Inhaltlich knüpft Pariser an die Thesen von Cass R. Sunstein („Infotopia“ und „republic.com 2.0“) an. Sunstein warnt schon länger vor der Entstehung von Informationskokons, „in denen wir nur noch das zu hören bekommen, was wir auswählen und was uns beruhigt oder zusagt.“ Seine Botschaft: Informationelle Schlagseite ist gefährlich fürs Gemeinwohl. Pariser fordert deshalb jetzt so etwas wie einen öffentlich-rechtlichen Informationsauftrag für Marktführer wie Google und Facebook. „Wir brauchen das Internet, damit es uns mit neuen Ideen konfrontiert, uns unterschiedliche Perspektiven aufzeigt.“

Die Fronten scheinen also klar, Täter und Opfer soweit ausgemacht: Hier die allmächtigen Algorithmen-Programmierer, die die Blicke der Massen lenken und leiten, am liebsten entlang individualisierter Gefälligkeitspfade. Dort der in seiner kleinen Wahrnehmungsblase gefangene Nutzer, unmündig wider Willen – und zunehmend manipuliert vom tendenziösen Geflüster seiner Suchmaschine oder seines sozialen Netzwerks. Dass in solchen sich selbst verstärkende Echoräumen nur Böses gedeihen kann, nämlich Engstirnigkeit und Radikalismus, versteht sich.

Soweit die Thesen. Argumentativ unterfüttert werden sie diesmal nicht mit einem Bonmot von Ex-Google-Chef Eric Schmidt, sondern mit einem vermeintlichen Mark-Zuckerberg-Zitat: „Ein Eichhörnchen, das vor deinem Haus stirbt“, soll dieser gesagt haben, „könnte für dich im Moment interessanter sein als sterbende Menschen in Afrika.“ Kolportiert hat den Satz David Kirkpatrick in seinem 2010 erschienenen Buch „The Facebook Effect“; mittlerweile dient die Eichhörnchen-Episode als Grundlage ganzer Verschwörungstheorien.

Dabei hat Zuckerberg natürlich mediengeschichtlich überhaupt nicht unrecht. Mit lokalen Tiergeschichten war schon immer mehr Quote zu machen war als mit Elend auf fernen Kontinenten, nicht erst seit Knut, nicht erst seit dem Internet. Die Gefahren diskursiver Verengung sind also möglicherweise für den durchschnittlichen Mediennutzer seit Facebook weder kleiner noch größer geworden, sie lagen ohnehin schon immer im Auge des Betrachters. Abgesehen davon: Auch der Prenzlauer Berg ist eine Wahrnehmungsblase, auch RTL2 ist könnte man vorsätzliche Sichtfeldbeschränkung vorwerfen.

Und noch eine beruhigende Nachricht gibt es: Auch wenn Medienkompetenz gelegentlich mit dem Klicken auf die ersten drei Suchmaschinen-Treffer verwechselt wird – statistisch gesehen ist selbst Google noch weit vom universellen Nachrichtenmonopol entfernt. Über zehn Stunden verbringt der Bundesbürger täglich mit diversen Informationsquellen, morgens hört er Radio, abends sieht er fern, zwischendurch wird in Printprodukte geblättert, alles jeweils mehrere Stunden lang. Und die Zahlen sind keineswegs rückläufig.

Man tut übrigens auch dem eingangs erwähnten Nicholas Negroponte unrecht, wenn man ihn nur als Vordenker der personalisierten Zeitung zitiert. Auch wenn ihm die Vorstellung eines digitalen Butlers, der die Wünsche seines Herrn vorauseilend erfüllt, grundsätzlich gefiel – eine Instanz, die alles wegretuschiert, was nicht ins Weltbild des Endabnehmers passt, fand er nicht erstrebenswert. Besser, so Negroponte, wäre ein Knopf am Bildschirm, mit dem man den Grad der Personalisierung einfach rauf- oder runterdrehen könnte, je nach Stimmung, Tageszeit oder Suchgegenstand. Auch zum Thema einseitige Berichterstattung hatte er einen Vorschlag: „Denkbar wäre ein Schieberegler, der sich – im wahrsten Sinne des Wortes wie auch politisch – von links nach rechts bewegen lässt.“ Wenn das nicht mal eine gute Idee für eine App ist.

Comments are closed.