Zensur: Facebook manipuliert Newsfeed der Nutzer!

Facebook-Nutzer empört über Psycho-Experiment

30. Juni 2014 – © Flickr.com/Master OSM 2011/сс-by-nc-sa 3.0

STIMME RUSSLANDS Die zentrale Neuigkeitenseite bei Facebook wurde für eine Studie bei Hunderttausenden Nutzern manipuliert: Sie bekamen ein verzerrtes Bild von der Stimmung ihrer Freunde vorgesetzt. Die Nutzer sind empört.

Der Newsfeed bei Facebook, die Startseite namens Neuigkeiten, ist für viele Hundert Millionen Menschen ein wichtiger Gradmesser: Hier sieht man, was Bekannte tun, was Kollegen für mitteilenswert halten, wie es den Freunden gerade geht.

Oder eben nicht. Denn gut 310.000 Nutzer sahen im Rahmen eines Psychologie-Experiments einen manipulierten Newsfeed, ohne dass sie etwas davon wussten. Eine Gruppe sah vor allem positive Einträge ihrer Freunde, eine andere überwiegend negative.

Das Experiment fand bereits im Januar 2012 statt und betraf mit Kontrollgruppe insgesamt 689.003 englischsprachige Nutzer eine Woche lang. Anfang Juni wurde die Studie veröffentlicht. Doch erst mit vier Wochen Verspätung tobt die Empörung. Viele Nutzer äußern jetzt ihr Entsetzen darüber, dass sie ohne Zustimmung als Versuchskaninchen gebraucht wurden und ihnen ein verfälschtes Bild von ihrem Freundeskreis vorgesetzt wurde.

SPIEGEL ONLINE hatte bereits vor vier Wochen über das Experiment und seine Ergebnisse berichtet,, als die Studie veröffentlicht wurde. Das Pikante: Zwar haben Wissenschaftler immer wieder auf Daten von Facebook zugegriffen. Doch dieses Experiment ist offenbar das erste, das die Informationen im Netzwerk aktiv manipuliert – unter Mitarbeit von Facebook-Angestellten, die den sagenumwobenen Algorithmus des sozialen Netzwerks veränderten.

Auch eine Forscherin, die die Veröffentlichung der Studie für das Fachblatt „Proceedings of the National Academy of Sciences“ betreute, sagte nun, sie sei zunächst besorgt gewesen. Forscher und Facebook hätten aber versichert, dass alles rechtens sei. Das Netzwerk manipuliere doch ohnehin die Newsfeeds der Nutzer, sei eines der Argumente gewesen, sagte die Forscherin dem Magazin „The Atlantic“.

„Emotionale Ansteckung“ funktioniert auch ohne direkten Kontakt

Wenn Experimente dieser Art an Universitäten oder anderen öffentlichen Einrichtungen durchgeführt werden, muss eine Ethik-Kommission dem zustimmen. Für die Privatfirma Facebook gilt dies nicht. Die Studie ist allerdings von den Nutzungsbestimmungen des Netzwerks, das alle User unterschrieben haben, gedeckt.

Wegen der Empörung der Nutzer betonten die Forscher, dass die Beiträge selbst ja gar nicht entfernt wurden. Ging man auf die Profilseiten der Freunde, seien die zuvor nicht angezeigten Nachrichten sichtbar gewesen. Sie erschienen eben nur nicht im Newsfeed – was jedoch die Seite ist, die bei Facebook am meisten genutzt wird.

Das Ergebnis des Ganzen klingt erst einmal wenig überraschend: Wer mehr positive Nachrichten in seinem Newsfeed las, postete auch selbst eher Positives. Bei der negativen Gruppe gab es diesen Zusammenhang ebenfalls. Die Schlussfolgerung: „Emotionale Ansteckung“, im nicht-virtuellen Leben schon bekannt, funktioniert auch im Virtuellen, ohne direkten Kontakt.

In Bezug auf Facebook bedeutet dies allerdings, dass das Netzwerk mit seinen derzeit 1,2 Milliarden Menschen durch die Manipulation des Newsfeeds Stimmungen sehr vieler Menschen beeinflussen könnte.

Ein weiteres Ergebnis der Studie lautete übrigens: Wurden sowohl positive als auch negative Bemerkungen ausgeblendet, war der Newsfeed der Freunde also weniger emotional, schrieben auch unwissende Probanden selbst weniger Beiträge. Das lässt erahnen, wie wichtig die Ergebnisse für Facebook selbst sind. Der Spiegel

Share and Enjoy: Diese Icons verlinken auf Bookmark Dienste bei denen Nutzer neue Inhalte finden und mit anderen teilen können.
  • MisterWong
  • Y!GG
  • Webnews
  • Digg
  • del.icio.us
  • StumbleUpon
  • Reddit