Hält Sie Facebook in einer politischen Blase?

Macht es Facebook Liberalen und Konservativen schwerer, sich zu verstehen? Politikwissenschaftler haben sich seit Jahren gefragt, ob der Newsfeed des sozialen Netzwerks selektiv ideologisch aufgeladene Nachrichten liefert und gleichzeitig Inhalte aus entgegengesetzten politischen Lagern herausfiltert. Nun, eine Studie von Facebooks internen Sozialwissenschaftlern findet heraus, dass dies tatsächlich geschieht, obwohl der Effekt sehr gering ist.

Forscher nennen es die Filterblase: die personalisierte Ansicht des Internets, die mithilfe von Algorithmen eines Technologieunternehmens erstellt wurde. Wenn Sie beispielsweise bei Google suchen, unterscheiden sich die Ergebnisse, die Sie erhalten, je nachdem, was das Unternehmen über Sie weiß. Diese Filterung ist zum größten Teil nützlich. Geologen und Musiker erhalten beispielsweise sehr unterschiedliche Suchergebnisse für "Gesteinsarten". Einige Auswirkungen von Filterblasen können jedoch weniger harmlos sein, z. B. wenn Online-Käufern auf der Grundlage der über sie erhobenen Daten ohne deren Wissen oder Zustimmung unterschiedliche Preise angeboten werden.

Das Forschungsteam von Facebook konzentrierte sich auf das Problem der politischen Polarisierung und fragte, inwieweit ihr Newsfeed-Algorithmus dazu beitrug. Obwohl die Posts, die im Newsfeed der Site angezeigt werden, wie ein Live-Stream Ihrer Freunde erscheinen, verwendet das Unternehmen einen Algorithmus, um diese Posts herauszufiltern und zu klassifizieren, bevor sie Sie erreichen. Und dieser Algorithmus wird ständig weiterentwickelt. Früher war der Algorithmus mit "Gefällt mir" und "Klicken" verbunden, aber nach umfangreichen Untersuchungen zur Erfassung der tieferen Interessen von Personen wurde der Algorithmus dahingehend optimiert, dass der Inhalt nach einem "Relevanzfaktor" eingestuft wird. Diese Punktzahl, die an ein „menschliches Element“ gebunden ist, das den Entwicklern zuvor gefehlt hat, bestimmt, was die Benutzer letztendlich in ihren Newsfeeds sehen. Zum Beispiel kann ein viraler Post über entzückende Kätzchen viele Likes generieren, aber da die Leute von dieser Art von Clickbait müde werden, hat er jetzt einen niedrigeren Relevanzwert.

Aber selbst wenn der Algorithmus für Facebook-Nutzer eine angenehmere Erfahrung ergibt, können sie nicht nur auf niedlichen Katzenfotos verlieren. Zum Beispiel lernen Liberale und Konservative selten etwas über Themen, die die andere Seite betreffen, nur weil diese Themen niemals in ihre Nachrichten-Feeds aufgenommen werden. Im Laufe der Zeit könnte dies zu einer politischen Polarisierung führen, da die Menschen keinen Themen und Ideen aus dem anderen Lager ausgesetzt sind.

Es war nicht schwer zu bestimmen, wer die Liberalen und Konservativen für die Studie waren: Menschen können ihre politische Zugehörigkeit in ihren Facebook-Profilen angeben. Das Team kartierte diese politischen Organisationen auf einer ideologischen 5-Punkte-Skala - von 2 für sehr konservativ bis +2 für sehr liberal - basierend auf Umfragedaten. Nachdem die Population auf amerikanische Erwachsene beschränkt war, die sich mindestens 4 Tage pro Woche einloggten, hatten die Forscher etwas mehr als 10 Millionen Probanden. Inhaltlich konzentrierten sie sich auf Nachrichten.

Die Bestimmung des politischen Charakters dieses Inhalts war schwieriger. Anstatt zu versuchen, die politische Neigung von Nachrichten auf der Grundlage einer semantischen Analyse zu messen, verwendete das Team eine weitaus zweckmäßigere Methode: Die "politische Ausrichtung" jeder Geschichte wurde durch die durchschnittliche politische Ausrichtung aller Benutzer bestimmt, die einen Link dazu gepostet haben Geschichte. Zum Beispiel lag der Wert für die politische Ausrichtung der durchschnittlichen Story in der New York Times bei 0, 62 Euro (etwas liberal), während die durchschnittliche Fox News-Story bei 0, 78 Euro (etwas konservativ) lag. Die Geschichten, die für diese Studie von Bedeutung waren, waren die "übergreifenden" Nachrichtenartikel mit einer liberalen Neigung, die im Nachrichtenfeed einer konservativen Person auftauchten, oder umgekehrt. Ausgerüstet mit all diesen Metriken haben die Forscher die Zahlen für jede Nachricht ermittelt - sowohl für diejenigen, die in den Nachrichtenfeeds der Menschen landeten, als auch für diejenigen, die vom Algorithmus herausgefiltert wurden - zwischen 2011 und 2012.

Beim Vergleich der beiden Gruppen von Geschichten stellten die Forscher fest, dass der Newsfeed-Algorithmus von Facebook tatsächlich einen Echokammer-Effekt erzeugt. Aber es ist nicht so mächtig, wie Kritiker befürchtet haben. Der Algorithmus hat die Wahrscheinlichkeit, dass Benutzer politisch übergreifenden Geschichten ausgesetzt sind, um 1% verringert, berichtet das Team heute online in Science . "Die Macht, sich in den sozialen Medien Perspektiven von der anderen Seite auszusetzen, liegt in erster Linie bei den Einzelpersonen", schließt das Team.

Die Ergebnisse sind "sicherlich gut in Bezug auf die Filterblasenproblematik", sagt Sinan Aral, ein Politikwissenschaftler am Massachusetts Institute of Technology in Cambridge, "aber ich bin nicht sicher, ob" wir uns keine Sorgen machen sollten " . " Zum Beispiel ändert die Studie nichts an der Erkenntnis, dass Facebook vor drei Jahren eine "starke Voreingenommenheit" in Bezug auf die Art und Weise erzeugt, wie Menschen abstimmen, sagt er. Zu der Frage, ob Facebook eine Macht zum Guten oder eine zum Schlechten für die Demokratie ist, sagt Aral: "Die Jury ist immer noch nicht da."