VON MAXIMILIAN REICHLIN
|
23.08.2013 14:27
Der Mensch in der „Filter Bubble“ – Wie das Internet uns sagt, was wir wollen
Jeden Tag nutzen wir heutzutage das Internet, Plattformen wie Google, Facebook oder Yahoo, um Informationen zu erhalten oder mit Menschen in Kontakt zu treten, die uns interessieren. Solche Plattformen arbeiten heute mit bestimmten Algorithmen, die unsere Aktivitäten im Netz verfolgen, speichern und analysieren, um uns genau diejenigen Informationen zu liefern, von denen der Algorithmus bereits weiß, dass sie uns interessieren. Der Internetaktivist Eli Pariser sieht darin eine Einschränkung unserer Selbstbestimmung und fürchtet die Isolation des Internetnutzers in einer sogenannten „Filter Bubble“, die Unternehmen selbst preisen die Kundenfreundlichkeit dieses Systems an. Was ist die „Filter Bubble“ und wie funktionieren diese Algorithmen? Sind sie ein Einschnitt in die Privatsphäre? Oder gehören sie zum Web 2.0 einfach dazu?
Der Gläserne Mensch
Oft und viel wird über die Sicherheit der persönlichen Daten im Netz und in sozialen Netzwerken diskutiert. Früher oder später fällt dann der Begriff: „Gläserner Mensch“. Doch was ist mit diesem Ausdruck gemeint und kann ich verhindern „gläsern“ zu werden?
[...]»
57 einfache Fragen sind für den Algorithmus „Panda“, der mittlerweile von der Internetsuchmaschine Google verwendet wird, relevant, um uns als Mensch zu definieren. Dazu gehören Informationen wie: Wo befindet sich mein Computer? Welchen Computer nutze ich? Welchen Link habe ich zuletzt angeklickt? All diese Informationen werden von „Panda“ analysiert und dazu verwendet, die zukünftigen Google-Suchergebnisse genau auf meine Person zuzuschneiden. Weiß „Panda“ etwa, dass ich oft auf Reisen bin und bevorzugt Tourismus-Angebote im Web suche, wird er mir für das Suchwort „Ägypten“ keinesfalls die Nachrichten über die dort derzeit stattfindenden Unruhen liefern, sondern attraktive Reiseangebote oder Webseiten von Airlines. Mittlerweile können zwei Internetnutzer nicht das selbe Suchwort bei Google eingeben, ohne völlig unterschiedliche Suchergebnisse zu erhalten.
An sich keine schlechte Idee. So spart der Nutzer sich die Zeit, die Informationsflut erst selbst filtern zu müssen, um seine bevorzugten Ergebnisse zu erhalten. Doch es gibt Kritiker, allen voran der Internetaktivist
Eli Pariser. In seinem Buch „The Filter Bubble“ (dt.:
Die Filter-Blase) warnt er vor den Auswirkungen dieser algorithmisch angepassten Informationsfilter. So berichtet er beispielsweise von einem persönlichen Erlebnis mit dem sozialen Netzwerk Facebook, auf dem eines Tages keine Informationen von Bekannten mehr angezeigt wurden, die einen anderen politischen Standpunkt vertraten als Pariser selbst. Der Facebook-Algorithmus hatte Parisers politische Ansichten anhand seines Verhaltens im Netz erkannt und gespeichert und ihn anschließend in seiner „Filter Bubble“ von gegenteiligen Meinungen abgeschnitten.
Laut Pariser wird der Internetnutzer so
zu einem isolierten Lebewesen, wenn er sich im Netz bewegt. Was als freie und für jeden offen zugängliche Masse an Informationen begann, wird nun zu einer „Blase“ in der der Nutzer eingeschlossen wird und in der ihn nur bestimmte Informationen erreichen. Es entstehe „eine unsichtbare Echo-Kammer, in der wir gefangen sind, ohne es zu wissen.“ Diese Echo-Kammer ist die „Filter Bubble“. Dadurch könne keine persönliche Entwicklung stattfinden, das wiederum führe zu gesellschaftlicher Heterogenität, da wir uns bevorzugt mit Menschen umgeben, die uns ähnlich sind. Und auch das demokratische System leide unter der „Filter Bubble“, da es immerhin darauf fuße, alle Informationen zu einem Thema zu erhalten und gegeneinander abzuwägen, um eine Entscheidung zu treffen. Die „Filter Bubble“ komplett abschaffen will Pariser allerdings nicht, nur transparenter machen, den Nutzer in die Arbeitsweise der Algorithmen mit einbeziehen. So sagte er
im Gespräch mit der Süddeutschen Zeitung: „Am Ende geht es darum, ob wir Werkzeuge benutzen, oder die Werkzeuge uns.“