Filter Bubble
Liebe Leserinnen und Leser!
Unser Menschsein zeichnet sich durch viele Aspekte aus. Einer ist die Konfrontation mit Zufällen und Nichtwissen. Beides wird von vielen Menschen als unangenehm oder gar bedrohlich erlebt, schließlich hat uns ja schon Francis Bacon seine damals verständliche Weisheit mitgeteilt: Wissen ist Macht. Also ist es nur logisch, diesen Schluss umzukehren und zu glauben und zu predigen, Nichtwissen sei Ohnmacht (oder Inkompetenz). Und Zufälle sind eindeutige Angriffe auf unser Kontrollbedürfnis, das aus unserer Kränkung hervorgeht, dass wir ohne unseren Willen geboren worden sind (Heidegger nannte das so treffend die Seins-Geworfenheit) und – sofern wir nicht selbst Hand anlegen – gegen unseren Willen sterben werden. Wann und wie beides geschieht, liegt fern unserer Gestaltungsmöglichkeiten. Und so suchen wir sehnsüchtig nach Kontrolle. In der Wirtschaft natürlich auch. Damit war es nur eine Frage der Zeit, dass die Personalisierung im Netz erfunden wurde. Sie trat ihren Siegeszug an und beginnt nun alle positiven gesellschaftsverändernden Hoffnungen, die mit dem World Wide Web verbunden waren und sind, zu zerstören. Die Personalisierung macht Zufälle und natürliches Nichtwissen zunichte, die beide für unser Lernen und Innovationen die unbedingte Voraussetzung sind.
Der Rechtswissenschaftler, Politologe und Polkt-Aktivist Eli Pariser hat ein fundamentales Werk zur Entwicklung des Internets und damit zur Zukunft unserer Gesellschaft vorgelegt. Sein Ausgangspunkt war die Feststellung, dass Suchen über Google mittlerweile keineswegs für alle Suchenden zu den gleichen Ergebnissen führen. Wer immer heute einen Suchbegriff „googelt“ erhält personalisierte Ergebnisse, die sich mitunter erheblich von den Ergebnissen anderer Suchenden trotz gleicher Suchbegriffe unterscheiden. Die Basis dazu bieten, wie Google es nennt, sogenannte „Signale“, angefangen bei dem Ort von dem aus man sucht, über den Browser den man dazu verwendet über bislang verwendete Suchen und noch mehr. Das klingt zunächst nicht weiter beachtenswert. Aber wenn man anfängt, dieser Veränderung nachzugehen, zeigen sich erhebliche Konsequenzen, die die ursprünglich demokratische, dezentralisierte Qualität des Internets vollkommen verändern: hin zu einem zersplitterten Netz, das letzten Endes nur noch Spiegelbilder des Immergleichen zeigt, basierend auf den Datenspuren, die eine Person durch ihre Klicks gelegt hat. Zufällige Funde, glückliche Zufälle (Serendipität) wird zunächst aus unserem Onlineleben verbannt und zukünftig auch teils aus unserem Offlineleben.
Im Zentrum seiner Analyse stehen zu Beginn die zwei momentanen Webgiganten Google, Facebook und Amazon. Alle nutzen in gigantischem Umfang Algorithmen, um ihren Kunden personalisierte, auf sie zugeschnittene Dienste anbieten zu können. Bei Google ist es der bekannte PageRank, bei Facebook der noch weniger bekannte EdgeRank. Grundsätzlich sind beide Codes eine Reaktion auf die Herkulesaufgabe, die immer weiter zunehmende Datenflut für die User überschaubar und damit nutzbar zu machen. Sogesehen sind es sinnvolle Vorgehensweisen. Wir würden ansonsten in den Datenströmen einer Suche oder den „Nachrichten“ unserer Facebook-„Freunde“ ersaufen. Ohne Filter wäre es fast unmöglich, relevante Daten herauszuarbeiten, weil wir viel zu viel Zeit aufbringen müssten, um genau das zu leisten. Und in Zukunft wird diese Aufgabe immer aufwändiger, so dass wir sie eines Tages gar nicht mehr erledigen könnten.
Allerdings haben die Filtermechanismen einen fatalen Nachteil: Sie hüllen uns in eine Datenblase, die einen Großteil der real vorhandenen weiteren Daten ausblendet. Das eigentliche Übel dabei: Wir merken gar nicht, dass wir nur noch einen winzigen Ausschnitt zu sehen und hören bekommen. Wir wissen nicht, nach welchen Regeln die Daten für uns aufbereitet, sortiert und gefiltert werden. Dabei geht es um mehr, als für uns passende Werbebanner zu sehen, was ja im einen oder anderen Fall sogar noch ganz praktisch sein kann. Nein, unsere Wahrnehmung der Welt und was wir über sie zu wissen glauben, wird infolge der Filterblase radikal und zunehmend mehr verändert.
Damit sind wir umgehend bei den gesellschaftlichen und politischen Konsequenzen der Filterblase. Denn in Zukunft werden Unternehmen und Institutionen höchstwahrscheinlich die Personalisierung weiter vorantreiben. Ein Beispiel: Wahlkämpfe werden sich auch die Logik und Möglichkeiten der Personalisierung zunutze machen. Stellt Euch einfach Wahlwerbung vor, die nicht mehr für alle gleich über Fernsehsender flimmert oder in Zeitungen gedruckt wird, sondern personalisiert vor uns auftaucht. Wir wissen dann gar nicht mehr, wofür eine Partei oder ein Kandidat im Ganzen steht. Damit wird auch eine öffentliche Debatte über Wahlprogramme zusehendes unmöglich gemacht, denn ich weiß gar nicht, was andere wissen und umgekehrt. Genau darin liegt der Unterschied: Die Verwandlung von bewusstem zu unbewusstem Nichtwissen (das Gebiet des Nichtwissens habe ich selbst ausführlich in meinem Buch „Management von Nichtwissen in Unternehmen“ kartografiert). Das entbehrt nicht einer gewissen Ironie: Unsere Wissensgesellschaft, deren Bestandteil ein Unternehmen ist, dass die Informationen der Welt für alle verfügbar machen will, erzeugt zunehmend mehr unbewusstes Nichtwissen!
Da, wo es früher und noch heute einen Journalistischen Ethos gab und gibt, der darauf beruht, das Menschen entscheiden, was eine Schlagzeile wird und welche Nachrichten wichtig sind, wird zukünftig ein ethikfreier Raum entstehen, der durch Programmiercodes gefüllt wird. Wir können das bereits heute daran erkennen, dass sich Google und Facebook weigern, die Filterregeln öffentlich zu machen, damit jeder weiß, wie seine Daten, die er vorfindet, eigentlich entstehen. Dabei gilt: „Es ist mehr als suspekt, wenn Firmen, deren öffentliche Ideologie Offenheit und Transparenz großschreibt, selbst so undurchsichtig sind.“ (S. 749, iBook Ausgabe)
Das ist bei lustigen und banalen Facebookprofilen noch relativ unerheblich, wird aber sofort existentiell, wenn algorithmisch verdichtete Datenspuren Grundlage eindimensionaler Identitäten sind, die wiederum als Entscheidungsgrundlage für Unternehmen verkauft werden: Plötzlich bekomme ich keinen Kredit, weil der soziale Graph von Facebook statistisch nahelegt, dass nicht nur meine Freunde, sondern damit auch ich kreditunwürdig bin.
Eli Pariser zeigt noch wesentlich mehr Konsequenzen auf, das zum Teil auf angenehme Art persönlich erzählt. Gegen Ende seines Buches kommt er dann zu verschiedenen Lösungsvorschlägen, die ein guter Anfang sind, um die hohen egalitären und demokratischen Erwartungen an das Internet vielleicht doch noch zu realisieren. Er unterscheidet in drei Bereiche: Was kann jeder Einzelne tun, was können Unternehmen leisten und was können Regierungen und Bürger tun. Es bedarf einer Menge, manches davon ist bekannt (wir sollten wissen, wer welche persönlichen Daten über uns hat und wie diese Daten verwendet werden), andere sind frisch und neu: „Wir benötigen Programmierer, die das öffentliche Leben und bürgerschaftliches Engagement in die von ihnen geschaffenen Welten einbauen.“ (S. 774).
Gegen Ende wird mir Pariser zu futuristisch und zu technikgläubig. Wenn er Szenarien illustriert, in denen Genanalysen mit Internetsignalen (Google) und sozialen Graphen (Facebook) verknüpft werden, würden wir uns in einer recht gruseligen Welt befinden. Ja, das wäre wohl so, wenn unsere schwülstigen Genetik-Hoffnungsträume wahr werden würden. Aber das ist äußerst fraglich, wie Rupert Sheldrake in seinem aktuellen Buch →“Der Wissenschaftswahn“ eindrücklich gezeigt hat. Und das demnächst alle physischen Objekte per RFID zu einem globalen, intelligenten Internet der Dinge verschmelzen, dürfte noch ein bisschen dauern – vor allem wenn wir davon ausgehen, dass die Schere zwischen Arm und Reich immer größer wird und sich wohl kaum jeder entsprechende Objekte leisten kann. Bis hin zu der recht erdenden Tatsache, dass ich an meinem Wohnort seit drei Jahren lausigen Handyempfang habe und wir immer noch genügend Zonen in unseren High-Tech-Ländern haben, die das angeblich mobile Zeitalter Lügen strafen.
Darüber hinaus ist eine überflüssige Redundanz bedauerlich. Das Buch hätte, auch wenn es sich flüssig und leicht liest, kürzer gestaltet werden können. Die Hauptproblematik der Personalisierung des Internets wird einfach zu oft wiederholt.
Fazit: Jeder, der noch ein paar Jahre lebt und mit der zunehmenden Personalisierung im Internet konfrontiert werden wird, sollte dieses Buch lesen. Ganz egal, ob er oder sie in der Wirtschaft, Politik oder sonstwo tätig ist. Der Einfluss der Algorithmen, „The Rise of the Machines„, die Herrschaft der Maschinen, genauer: des Codes wird uns alle betreffen. Und im Moment sieht es so aus, als würde er unsere Gemeinschaft zerreißen. Das betrifft jeden.
Herzliche Grüße
Andreas Zeuch
Pariser, E. (2012): Filter Bubble. Wie wir im Internet entmündigt werden. Hanser Verlag. Gebunden, 288 Seiten. 19,90€
Website zum Buch
Trackbacks & Pingbacks
[…] kennen das alle: Wir bewegen uns mit unserer fachlichen Expertise in irgendeiner Filterblase. Dort sind wir zuhause, fühlen uns wohl und kompetent. Dort treffen wir virtuell und real […]
Dein Kommentar
An Diskussion beteiligen?Hinterlasse uns Deinen Kommentar!