Facebook spielt mit Emotionen seiner User

 

Übers Wochenende hat eine Studie (pdf) für Aufruhr gesorgt: Ein Team von Wissenschaftlern hat in Zusammenarbeit mit Facebook hat während einer Woche im Januar 2012 bei über 300’000 Facebook-Profilen entweder weniger negative oder weniger positive Statusmeldungen angezeigt als bei einer je gleich großen Kontrollgruppe. Als »negativ« wurden dabei Meldungen angesehen, die mindestens ein »negatives Wort« enthielten.

Bildschirmfoto 2014-06-30 um 10.42.20

Das Ergebnis: Wer weniger Negatives zu sehen bekam, hat selbst mehr positive Wörter verwendet – und umgekehrt.

Die Kritik am Experiment – von Martin Giesler bei den Blogrebellen ursprünglich auf Deutsch formuliert – ist nachvollziehbar: »Forschungsethik ist anders«. Wer Experimente durchführt, muss das mit dem Wissen und dem Einverständnis der Untersuchten tun, vor allem wenn der Zugriff auf die Mitteilungen aus dem Freundeskreis dabei verändert wird.

Schnell wurde bemerkt, dass Facebook die angezeigten Meldungen selbstverständlich manipulieren darf. In den Datenverwendungsrichtlinien heißt es:

Zusätzlich zum Unterstützen der Nutzer beim Ansehen und Herausfinden der Dinge, die du machst und teilst, können wir beispielsweise die über dich erhaltenen Informationen folgendermaßen verwenden […] für interne Prozesse, u. a. Fehlerbehebung, Datenanalyse, Tests, Forschung und Leistungsverbesserung. Indem du uns die Erlaubnis zur Verwendung deiner Informationen erteilst, ermöglichst du uns nicht nur, Facebook in seiner heutigen Form zur Verfügung zu stellen, sondern auch dir zukünftig innovative Funktionen und Dienstleistungen anzubieten, die wir unter neuartigem Einsatz der Informationen, die wir über dich erhalten, entwickeln.

Kurz: Facebook kann mit den Inhalten seiner Kunden frei experimentieren.

Es gibt zwei Reaktionen auf diese Erkenntnis.

Die eine beschreibt Felix Stalder in einem lesenswerten Interview sehr prägnant:

Ich nutze viele Dienste. Ausser Facebook, das ich für wirklich bösartig halte.

Die andere formuliert Patrick Breitenbach auf Facebook:

Süß. Das nennt sich A/B Testing und ist im E-Business banale Alltagsrealität. Aber schon interessant warum nun ausgerechnet dieser Diskurs geführt wird. Vermutlich weil man »die Wissenschaft« als die letzte Bastion der Moral und Ethik wahrnimmt. Also im Gegensatz zur Ökonomie. Daran haben wir uns offenbar gewöhnt. Vermutlich weil es die meisten mitspielen.

A/B-Testing bedeutet, dass im Internet oft einem Teil der Besucher einer Webseite eine Version A, einem anderen Teil einer Version B angezeigt wird (z.B. andere Titel, andere Bilder etc.), um herauszufinden, wie sich die Reaktionen und Interaktionen unterscheiden.

Facebook, so könnte man verallgemeinern, manipuliert unsere Informationen ohnehin ständig. Was wir in unserem Stream sehen, sind von einem Algorithmus ausgewählte Einträge, die für das Finanzierungsmodell von Facebook optimale Ergebnisse hervorrufen. Wer Facebook nutzt, sollte sich dessen bewusst sein. In diesem Fall – so eine Argumentation, die Facebook verteidigt, wurde die Manipulation für wissenschaftliche statt kommerzielle Zwecke genutzt.

Gleichwohl wurde in diesem Fall zwei Grenzen überschritten. Einerseits haben Wissenschaftler Methoden des Marketing verwendet, die den ethischen Standards klar widersprechen. Andererseits arbeitet Facebook in diesem Fall nicht mit Metadaten, welche die Relevanz von Posts festlegen (kurz: aufgrund meiner früheren Interaktion mit Inhalten und Profilen werden meine Erwartungen bestimmt), sondern mit »Sentiments«, also maschinell aufbereiteten Gefühlen und Einstellungen.

Dieser Umbruch ist entscheidend, weil er die Möglichkeiten von Algorithmen aufzeigt, uns psychologisch zu beeinflussen. Programme werden wissen, wie wir auf bestimmte Bilder reagieren, weil wir danach die Trackpads hastiger bewegen oder die Touchscreens stärker berühren. Immer smartere Sensoren werden unsere Gefühle genau kennen und uns so bedienen, dass wir uns im Sinne des Programms optimal verhalten.

 

 

5 Kommentare

  1. Denke die Empörung kommt genau dadurch zustande dass es jetzt eben nicht um Produktplacement oder Testen neuer User-Interaktionen (wie zum Beispiel bei Amazon) geht sondern dass eine subtile Stimmungsbeeinflussung stattfindet. Das ist dann doch Manipulation in einer anderen Dimension als „welches Design verschafft uns mehr Klicks“ oder „basiere Such-Ergebnisse auf der Surf-Historie“.

    Das Experiment an sich ist meines Erachtens äusserst wertvoll, eben weil es zeigt wie leicht wir beeinflussbar sind. Nun dient es unfreiwillig als weiteres Beispiel, wie gummig und allumfassend AGBs von Webangeboten oft sind (bzw. interpretiert werden können). Ob allerdings unter der Manipulation wirklich die in den AGB erwähnten „innovative Funktionen und Dienstleistungen anzubieten, die wir unter neuartigem Einsatz der Informationen, die wir über dich erhalten, entwickeln“ fallen, wage ich als juristischer Laie mal zu bezweifeln.

    1. Die AGB würde ich nicht zu ernst nehmen. Wer kann schon nachvollziehen, ob sie sich daran halten. Alles zum Thema Datenverwendung ist deshalb als pure Willensbekundung zu verstehen. Wer es glaubt, vertraut blind.

  2. Faszinierend, dass sich überhaupt jemand darüber wundert. Das eigentliche Phänomen ist doch nicht die Auswertungswut dieses Unternehmens und der Wissenschaftler, sondern die Empörung und die damit zutage tretende Naivität der Öffentlichkeit. Kollektiver Schlafwandel, anders lässt sich so etwas gar nicht mehr beschreiben.

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..