Die Filter-Bubble: Wir können die Blase nicht platzen lassen, aber ihre Form ändern

Werden wir im Netz durch Algorithmen gesteuert? Der amerikanische Politwissenschaftler Eli Pariser hat es griffig als „Blase“ bezeichnet: Wer im Netzt unterwegs ist, lebt sehr wahrscheinlich in einer „Filter-Bubble“. Die großen Anlaufstellen im Netz wie Google und Facebook verwenden Filter, um die Informationsströme einigermaßen handhabbar zu machen und uns die nach ihrer Ansicht relevanten Informationen zu präsentieren (sehr schön dargelegt in neun Minuten auf dem TEDx-Talk von Eli Pariser 2011). Die Filter schließen von unserem Nutzungsverhalten in der Vergangenheit auf unsere aktuellen Bedürfnisse und schneidern die Suchergebnisse oder den Stream so zu, dass wir nur noch Ergebnisse erhalten, die zu unseren Interessen passen. Andere Nachrichten und Meinungen werden ausgeblendet, womit wir uns in einer Blase oder einem Kreislauf der Selbstbestätigung befinden.

In letzter Zeit gab es einige gute und interessante Artikel zum Thema, so von Kathrin Passig und jetzt aktuell von Christoph Kappes. Letzterer brachte mich darauf, das Thema etwas mehr zu durchdenken und ich muss sagen, wir haben hier ein grundsätzliches Problem.

Es geht nicht ohne

Die naheliegendste Forderung ist auf den ersten Blick klar: Einfach alle Filter abschalten und z.B. bei Google „ungefilterte“ Suchergebnislisten anbieten. Das klingt logisch, ist es aber bei kurzem Nachdenken nicht – denn die Filterung passiert auf mehreren Ebenen, und sie lässt sich nicht einfach weglassen. Das beginnt schon bei der Auswahl der Treffer aus der Gesamtheit der erfassten Seiten: Wenn ich nach „Auto“ suche, wo soll der Suchbegriff vorkommen? Irgendwo auf der Seite, im Text (Body), in den Überschriften oder in den Seitenspalten? Sollen Ableitungen wie „Autos“ oder Wortteile wie „Automobil“ auch gefunden werden? Alle diese Entscheidungen beeinflussen bereits meine Treffermenge.

Der nächste Filter ist der Sortieralgorithmus. Da ich mir in der Regel aus Mangel an Zeit nicht alle Ergebnisse anschauen kann (und will), beschränke ich mich auf die ersten Suchergebnisse der auf Liste (bei Google erfolgen 90% der Klicks auf der ersten Suchergebnisseite). Somit wirkt die Sortierung wie ein Filter. Aber welcher „objektive“ Filter bringt mir gute Ergebnisse? Zeitpunkt der Veröffentlichung? Länge des Textes? Mir persönlich fallen spontan keine Kriterien ein, welche für die überwiegende Anzahl meiner Suchen passend wären.

Google & Co. gehen also zu recht davon aus, dass wir Filter benötigen, um Suchergebnisse nach Relevanz zu sortieren und anzuzeigen.

Vertrauen auf eine „Filterethik“?

Nun kann man argumentieren, dass man bisher ja auch ganz gut damit gefahren sei, den Aggregatoren die Auswahl der Suchergebnisse zu überlassen. Die Ergebnisse passen meist recht gut zum gesuchten Thema, warum also etwas ändern? Das ist eine Frage des persönlichen Anspruchs.

Wer darauf Wert legt, auch nur halbwegs neutral über die Geschehnisse auf der Welt informiert zu werden, der sollte sich Gedanken machen:

  • Die Aggregatoren wie Google und Facebook sind Unternehmen mit Gewinnerzielungsabsicht. Insofern haben sie ein Interesse daran, ihren zahlenden (Werbe-)Kunden ein möglichst passendes Umfeld zu bieten oder umsatzgenerierende Themen oder Seiten besonders prominent zu platzieren. Das muss nicht eine plumpe Bevorzugung der Webseiten von Zahlkunden sein – das ginge auch subtiler. Wenn bei der Suche nach „Ägypten“ Inhalte über touristische Attraktionen zuerst angezeigt werden, dann dürfte sich das über den dazugehörigen Anzeigenumsatz als lukrativer darstellen, als wenn hauptsächlich News angezeigt werden. Oder wer kann nachvollziehen, ob die Integration von AdSense-Werbung oder einer Facebook-like-Box auf einer Webseite diese nicht auch in der Suche oder im Stream nach vorne bringt, obwohl das inhaltlich keinerlei Relevanz hat?
  • Die Filter sind mittlerweile so komplex und vielstufig, dass sie kaum noch kontrollierbar sind. Ich bezweifle, dass es jemanden bei Google oder Facebook gibt, der die Wirkung der Änderung eines Filterparameters auf das Ergebnis korrekt vorhersagen kann. Kathrin Passig hat das in ihrem oben erwähnten Artikel schön beschrieben.
  • Die Filterregeln sind nicht öffentlich und werden es auch nicht. Google ist deshalb so groß geworden, weil der Page Rank Algorithmus so gute Ergebnisse hervorbrachte. Die Filter sind essenziell für den Geschäftserfolg, und deshalb sind sie aus gutem Grund Geschäftsgeheimnis. Das wird sich nicht ändern.
  • Es existiert ein Messproblem. Während man bei Facebook vielleicht noch sagen kann, die Anzeige aller Nachrichten der Freunde und abonnierten Seiten wäre die Messlatte, gibt es – wie oben schon dargelegt – keine „objektive“ Ergebnisliste bei Suchen. Woran soll also gemessen werden, ob „richtig“ gefiltert wird? Das kann nur geschehen, wenn ein Kriterienkatalog – im Prinzip ein neuer Filter – geschaffen wird, der dann als Maßstab dienen kann. Also eine Arbeit für jemanden, der gerne viel sinnlos arbeitet und nicht unbedingt positives Feedback von anderen braucht – sozusagen Sisyphos und Bahnchef in einem.

Aus meiner Sicht ist also das alleinige Vertrauen auf die Ethik der Anbieter leichtsinnig und eine öffentliche Kontrolle fast unmöglich. Was also tun?

Selbstbestimmung als Lösung

Bei der Diskussion der Filter-Bubble wird bisweilen gesagt, dass Filter ja etwas ganz natürliches, das Leben in einer Blase normal und damit nicht schlimm sei. Das ist im Prinzip richtig, denn schon unser Gehirn filtert aus den ankommenden Signalen die für uns in dieser Situation relevanten heraus, und wir entscheiden uns schon mit dem Kauf einer bestimmten Zeitung für einen Filter, den der Redaktion nämlich. Der Unterschied zum Web ist nur: Wir sind uns der Filter bewusst und können diese wechseln, wenn und wann wir wollen. Dazu reicht bisweilen schon eine Kopfdrehung oder ein Scharfstellen des Auges, oder eben ein Blick in das Konkurrenzblatt.

Im Web ist das anders: Wir bekommen etwas vorgesetzt, von dem wir gar nicht wissen, ob und wie es gefiltert wurde. Zudem können die Filter ohne unser Wissen wechseln. Zugespitzt könnte man sagen, die Nutzer ähneln der Menschheit in den Matrix-Filmen, die ihre Realität nur vorgespielt bekommt – oder wie Jim Carrey in der Truman Show, der komplett in einer simulierten Welt lebt.

Da Filter nicht abgeschaltet oder in ihren Tiefen kontrolliert werden können, sehe ich nur eine mögliche Lösung: Die Filter müssen auf einer bestimmten Ebene selbst gewählt werden dürfen. So wie man bei Google+ den Anteil seiner Kreise am Nachrichtenstrom regeln kann, sollten Filter zu- und abschaltbar sein. Das können beispielsweise Themen wie „Nachrichten“, „Politik“, „Reise“ oder „Technik“ sein. Jedes Zuschalten eines Filters oder jede neue Kombination der Filter ergibt eine eigene Sicht auf die Ergebnisse. Auch wenn diese Filter selbst aus den genannten Gründen nicht kontrolliert werden können, so ist doch eine gewisse Transparenz hergestellt und man hat als Nutzer Einfluss auf die Auswahl der Informationen.

Ich kann mir sogar Geschäftsmodelle vorstellen, die gegen Bezahlung individuelle Filter entwickeln, die dann auf einer oder mehrerer Suchmaschinen aufsetzen. Aber bis dahin dürfte noch ein Weg mit vielen Diskussionen zu gehen sein.