Digitale Themen 2015 – eine Vorschau

Welche digitale Fragen sollen 2015 diskutiert werden, welche Konzepte gewinnen an Bedeutung? Eine Zusammenfassung einiger Gedanken aus Texten schlauer Menschen. 

* * *

    1. Algorithmen werden gleichzeitig bequem und unheimlich.
      Als »uncanny valley« bezeichnet man die Tatsache, dass menschenähnliche Roboter oder Figuren starke Abwehrreaktionen hervorrufen, sobald sie sehr menschliche Verhaltensweisen fast perfekt imitieren können. Zeynep Tufekci bezeichnet Algorithmen als das »uncanny valley« der Computerverwendung: Programme, die lernfähig sind oder künstlicher Intelligenz aufweisen, werden immer bedeutender – aber auch immer unheimlicher. Das hat zwei Hauptgründe:
      Erstens sind sie oft nicht wie Werkzeuge für Handlungen verwendbar, sondern werden von einer zentralisierten Plattform kontrolliert. Google ist kein Bibliothekskatalog, Facebook kein Telefon – weil neben den Absichten der User auch Absichten der Plattformbetreiber auf die Algorithmen einwirken.
      Zweitens fällen Algorithmen zunehmend Entscheidungen, bei denen nicht eine bessere einer schlechteren Variante vorgezogen werden kann (wie z.B. bei der Wahl der kürzesten Route auf einer Karte). Algorithmen urteilen also auch – ohne dass die Benutzerinnen und Benutzer verstehen, wie sie das tun. Die Suchresultate von Google sind ein Beispiel für eine solche Entscheidung. Niemand kann abschätzen, ob die angeblich relevanten Ergebnisse tatsächlich die relevantesten sind. (Hier ein drastisches Beispiel.)
      Gleichzeitig werden die Algorithmen aber auch immer bequemer: Auf unseren Smartphones lassen wir bewusst oder unbewusst viele Programme mitlaufen, weil sie scheinbar viele Erleichterungen ermöglichen.
    2. Denken in einem digitalen Kontext verstehen. 
      Defizitorientierte Aussagen über digitale Techniken (lesen, Notizen anlegen, Informationen abspeichern) sind 2015 überholt. Aktuelle Studien wie die von Storm und Stone (2014, Privatkopie der Studie per Mail erhältlich) oder Anne Mangen (leicht defizitorientierter Überblick aus dem New Scientist) zeigen, dass technologische Veränderungen das ganze Umfeld der spezifischen Kompetenzen verändern. Kürzer und klarer: Digitales Lesen oder Schreiben ist ein Prozess, der nicht direkt vergleichbar ist mit analogem Lesen oder Schreiben.
      Forschung und Didaktik müssen hier einen Schritt weitergehen und sich von der Vergleichsperspektive lösen. Wer verstehen will, wie Menschen mit digitalen Hilfsmittel interagieren, darf diese nicht in einem analogen Kontext evaluieren, sondern muss sich damit befassen, was sie erreichen wollen und wie sie das tun. Technische Möglichkeiten weisen – so Danah Boyd – Affordances auf: Sie machen gewisse Dinge einfacher und andere schwieriger. Wer viele Informationen auf einem Smartphone abspeichern kann, wird sich anders an Wichtiges erinnern.
    3. Fehler akzeptieren lernen, um Freiheit zu bewahren. 
      Soziale Netzwerke werden von vielen Menschen verwendet, um Beschwerden an mächtige Unternehmen weiterzuleiten. Die Aufmerksamkeit des eigenen Netzwerkes verhilft dem einzelnen Kunden dabei zu besserem Kundenservice. Gleichzeitig machen diese Reklamationen auch deutlich, dass Fehler kaum noch toleriert werden. Das führt wiederum dazu, dass Unternehmen ihre Mitarbeitenden lückenlos überwachen und kontrollieren. Hans de Zwart beschreibt in einem langen, sehr lesenswerten Essay, was es bedeutet, dass jeder Mensch heute lückenlos überwacht und kontrolliert werden kann. Sein Fazit: Nur wenn wir lernen, mit Fehlern und mangelnder Perfektion umzugehen, werden wir frei bleiben können.

      Geert de Roeck: The Worker.
      Geert de Roeck: The Worker.
    4. Netiquette 2.0 lernen. 
      In den frühen Foren gab es explizite Verhaltensregeln. Die fehlen im Social Web – obwohl einige Normen vernünftig und verständlich wären. Im Guardian wurden sie kürzlich von Helen Lewis zusammengefasst, hier eine verkürzte Version:
      (1) Vermeide Anti-Virality und ignoriere den Kool-Aid-Point.
      Sobald Inhalte viral verbreitet werden oder Frauen viel Wertschätzung im Netz erhalten, entsteht automatisch eine Gegenbewegung. Diese speist sich nicht aus Argumenten, sondern aus Ablehnung der Aufmerksamkeitsverteilung. Nicht mitmachen!
      (2) Höfliche Gleichgültigkeit. 
      In Restaurants und im öffentlichen Verkehr sehen und hören wir viel, was uns nichts angeht. Im Netz auch: Bitte wegsehen und weghören.
      (3) Konservative Neutralität hacken. 
      Wenn Plattformbetreiber wie Google oder Facebook vorgeben, neutral zu sein, meinen sie damit, dass sie den Status Quo nicht infrage stellen. Vorgaben und Anforderungen umgehen, wenn sie eigenen Bedürfnissen widersprechen.
      (4) Handlungen, nicht Lippenbekenntnisse. 
      Viele Anliegen buhlen um Aufmerksamkeit – die durch das Absetzen von Statusmeldungen häufig vergeben wird. Gute Taten entstehen aber nicht immer durch Worte allein. Netzaktivismus mag einiges bewirken, oft braucht es aber etwas mehr als ein paar Klicks.
      (5) Kontext mitbedenken. 
      Wir lachen hemmungslos über die doofen Menschen, die Paul McCartney nicht kennen.
      Das ist noch ein harmloses Beispiel. Würde man unsere Bilder und Kommentare aus dem Kontext reißen, erschienen wir alle lächerlich.
    5. Neue soziale Netzwerke. 
      Nathan Jurgenson zeigt es am Beispiel von Ello: Wir brauchen neue Social Media, welche sich ernsthafte Gedanken über soziale Interaktionen machen, ohne primär Werbung verkaufen zu wollen. Es ist zu hoffen, dass 2015 diesbezüglich ein innovatives Jahr wird.

#filtertipps 2: Algorithmen

Orientierung und Konzentration erfordern bei digitalen Informationen eine Reihe von Kompetenzen, die man englisch »digital literacy« nennt. Filterkompetenz ist ein wichtiger Bestandteil: Die Fähigkeit, nicht relevante Informationen und Inhalte mit Filtern unsichtbar zu machen. Die analoge Welt nutzt viele Filter: Inhaltsverzeichnisse bei Büchern, Kataloge in Bibliotheken, Register, Redaktionen von Zeitungen etc. haben neben vielen anderen Funktionen auch die Aufgabe zu filtern. 

In einer losen Serie möchte ich hier Techniken und Werkzeuge vorstellen, mit denen digitale Informationen gefiltert werden können. Das ist der zweite Teil, im ersten ging es um Zeit als Filtermethode

* * *

[Mir war vor allem zuwider, dass] Facebook für mich die Entscheidung traf, wie die Welt für mich aussieht. Denn Facebook tut viel mehr als nur eine Blase aus Gleichgeschalteten zu bilden. Facebook verstümmelt. Es verstümmelt meine Wahrnehmung von der Welt, es verstümmelt die Charaktere meiner Kontakte, es verstümmelt meine eigene Vielseitigkeit.

Diese Feststellung von Meike Lobo, mit der sie begründet, weshalb sie auf Facebook verzichtet, ist Menschen in letzter Zeit stärker ins Bewusstsein gerückt. Die Ankündigungen von Twitter, Inhalte ebenfalls mittels Algorithmen auszuwählen, haben zu starken Protesten geführt. An Twitter schätzen viele User, dass sie (neben wenig Werbung) alles – und nur das – sehen, was ihre Kontakte teilen (und zwar in chronologischer Reihenfolge). Bei Facebook zeigt der Stream die Inhalte an, von denen schlaue Programme denken, sie könnten für mich interessant sein: Weil ich auf solche Inhalte reagiere, weil sie von Menschen stammen, mit denen ich viel kommuniziere oder weil andere User damit etwas anfangen konnten.

Wer sich das bewusst machen möchte, sollte sich einmal statt den »Hauptmeldungen« die »Neuesten Meldungen« anzeigen lassen. Dann erscheinen viele Beiträge, die in der Regel verborgen sind – und zwar auch wieder in chronologischer Reihenfolge.

Bildschirmfoto 2014-09-07 um 21.28.14

Die Algorithmen filtern. Sie machen Informationen unsichtbar und gewichten die verbleibenden für uns. In einem FB-Kommentar zum Post seiner Frau schrieb Sascha Lobo:

Hier in den Kommentaren erwarte ich bitte mindestens ein Dutzend altkluge Kommentare, die erklären, wie man ihr Grundproblem mit Facebook mithilfe von Listen, Gruppen, einer kanadischen App und fünf Tagen Sortierarbeiten supersimpel lösen kann.

Damit wies er darauf hin, dass algorithmische Filter zwar auch selbstbestimmt genutzt werden könnten, damit aber

  1. viel technisches Know-How
  2. eine große Zeitinvestition
  3. weitere Algorithmen von Dritten

verbunden sind. Tatsächlich gibt es schon bei Facebook die Möglichkeit, den maßgebenden Algorithmen mitzuteilen, wie sie funktionieren sollten. Nur ein Beispiel dafür: Der Pfeil auf der rechten Seite von FB-Beiträgen. Er erlaubt mir, dem Filteralgorithmus konkrete Regeln zu diktieren.

Bildschirmfoto 2014-09-07 um 21.37.43

 

In einem lesenswerten Beitrag erklärt Zeynep Tufekci, warum ihrer Meinung nach Twitter beim heutigen System blieben sollte. Sie bringt drei Schlüsselargumente an:

  1. Das menschliche Urteil ist oft besser und wichtiger als das von Algorithmen.
    Bsp.: Als amerikanische Soldaten Osama Bin Laden getötet hatten, bereite das Weiße Haus eine Pressekonferenz vor – ohne dass jemand wusste, worum es dabei gehen sollte. Der brisante Inhalt wurde schon vorher durch einen unauffälligen Mitarbeiter über Twitter kommuniziert – worauf ein findiger Journalist der Nachricht das nötige Gewicht gab. Ein Algorithmus hätte diesen Tweet nie prominent eingeblendet. 
  2. Algorithmen führen zu einer Stärkung des Matthäus-Effekts: »Wer hat, dem wird gegeben.« Algorithmen geben den Usern mehr Platz, die ohnehin schon gut wahrnehmbar sind. Das geht auf Kosten aller anderen.
  3. Algorithmen provozieren eine Verhaltensanpassung: Menschen versuchen Inhalte so zu präsentieren, dass Facebook sie anderen auch anzeigt. Dadurch kommunizieren sie aber schlechter und ineffizienter.
    Bsp.: FB zeigt zumindest im englischen Sprachraum Meldungen mit »Congratulations« viel prominenter an als andere. Diese Eigenschaft lässt sich gut ausnutzen

Mir scheint da wesentliche Problem die Allgemeinheit von Algorithmen zu sein. Wir alle nutzen dieselben – nämlich die, welche uns Facebook anbietet. Algorithmische Filter sind dann kein Problem, wenn es meine Filter sind, die meine Urteile und meine Erfahrung enthalten. Dann sind es letztlich nur Abwicklungen von Routinearbeiten, die wir bei der Sortierung unserer Briefpost oder bei der Lektüre der Tageszeitung täglich erledigen. Man darf nicht vergessen, dass es der Einsatz von Algorithmen Unternehmen schwerer macht, ein Zielpublikum umstandslos zu erleichtern – weil Algorithmen Spam recht zuverlässig unsichtbar machen.

Meine Anleitung wäre also folgende:

  1. Auf den genutzten Plattformen die Möglichkeiten nutzen, um Filter zu personalisieren.
  2. Programme einsetzen, die algorithmisches Filtern erlauben. Anfangen kann man gut mit E-Mail-Apps: Hier lassen sich mit Filtern Postfächer einrichten, die komplexen Regeln gehorchen. Die einfachste Übung: Sich zu fragen, welche Mail ich immer lesen will – sie stammen von einer bestimmten Person, enthalten bestimmte Begriffe, treffen zu bestimmten Zeiten ein etc. Oder welche ich sicher nie lesen würde.
  3. Sich allgemeinen Algorithmen nicht unterwerfen, sondern sie hintergehen und manipulieren, um sie zu persönlichen zu machen.

Algorithmische Liebe – ein Gedankenexperiment

love-appsKürzlich habe ich einen Artikel verlinkt, der beschriebt, wie ein Mathematiker ein Programm geschrieben hat, das ihm dabei geholfen hat, in einer Datenbank  »wahre Liebe« zu finden: Liebe, so verstanden als eine algorithmisch zu errechnende Passung zweier Menschen. Als Reaktion auf den Hinweis (FB), dass es sich hier nicht um eine Aussage über Algorithmen handle, sondern um einen philosophischen Gedanken, habe ich ein Gedankenexperiment entworfen:

Die Herausforderung von immer differenzierteren Algorithmen können wir nicht einfach beiseite schieben. Bald werden Beziehungen mit Apps geführt werden, die nicht nur uns selbst loggen, sondern auch unsere Partnerinnen und Partner und uns dann sagen, wann ein Kompliment, eine Berührung, eine kleine Aufmerksamkeit oder der richtige Satz angebracht ist. Und wir werden vor der Wahl stehen: Wollen wir eine/n programmierte/n, fast perfekte/n Partner/in oder können wir mit menschlichen Schwächen umgehen?

Die Wahl ist letztlich eine doppelte: Können wir auch auf das Doping verzichten, das uns kleine, unbemerkbare Programme im Alltag liefern könnten, auf die Gefahr hin, als schwach oder lächerlich dazustehen, weil viele andere der Versuchung nicht werden widerstehen können? Wird Liebe – oder jede Art von menschlicher Beziehung – dann abhängig von Programmen? Lieben wir ein zwei, drei Jahrzehnten nicht mehr die verschiedenen Verhaltensweisen, sondern das digitale Programm unserer Partnerin oder unseres Partners?

Dazu passt ein Artikel bei Puls vom Bayrischen Rundfunk, der beschreibt, wie man »Algorithmen verarschen könne«:

  1. Interessier dich für Uninteressantes.
  2. Bestell nur noch random Kram (allgemeiner: Verhalte dich total zufällig.)
  3. Triff keine Entscheidung mehr selbst.
  4. Erzähl’s deinen Freunden.
Bildschirmfoto 2014-01-28 um 13.16.08
Ausschnitt aus einer Würfelskulptur von Tony Cragg

Wer sich letztlich dem Zugriff immer eigenständigeren, lernfähigeren Algorithmen entziehen möchte, muss sich selbst wie ein Algorithmus verhalten, der nur noch zufälligen Impulsen folgt, statt selbst nachzudenken und auf eigene Gefühle zu achten.

Wer ausprobieren möchte, wie sich das anfühlt, kann bei der New York Times gegen einen Algorithmus »Schere, Stein, Papier« spielen. Ganz ähnlich, so glaube ich, werden wir in Zukunft in vielen Bereichen unseres Lebens nicht mehr mit menschlichen Partnerinnen und Partnern interagieren, sondern mit solchen, die sich in vielen Bereichen auf Programme verlassen, die ihnen Hinweise geben, wie sie handeln sollen. Wie können wir damit umgehen?

Wie Algorithmen unser Leben verändern werden

Niemand weiß, wie die digitale Welt in 10 Jahren aussehen wird. Während sich die westlichen Gesellschaften in den letzten 50 Jahren nur marginal verändert haben, ändern sich digitale Praktiken sehr schnell: Wir haben alle die Zeit erlebt, in der wir mit Pseudonymen im Internet aktiv waren – heute sind die meisten von uns mit unserem Namen präsent; ohne dass sich viele Menschen überlegt haben, warum das so sein könnte.

Blicke ich in die digitale Zukunft und damit auch in die Zukunft von Social Media, dann denke ich meist an Algorithmen oder Bots. Die Science Fiction war lange von Robotern geprägt, Menschen nachgebildeten Geräten, die vollautomatisch operierten. Man kann die Form und sogar die Materialität weglassen und einfach von »Handlungsvorschriften, die nach einem bestimmten Schema Zeichen umformen« sprechen – wie das Mercedes Bunz in ihrem hervorragend Buch Die stille Revolution tut. Gibt es solche Handlungsvorschriften, dann gibt es natürlich auch entsprechende Geräte, die sie ausführen können – ohne dass es Menschen dazu braucht. Im Jahre 2020 wird es zwischen 50 und 100 Milliarden Geräte mit Internetanschluss geben; die alle Gegenstände und Lebewesen verwalten, nachverfolgen und orten können, die mit einem RFID-Chip ausgestattet sind. Schon 2007 gab es einen solchen Chip, der so klein wie ein Staubkorn war. Bunz spricht in ihrem Buch davon, dass diese Erkenntnis sofort zu einem Reflex führt, dass man an die totale Überwachung denkt – natürlich nicht zu Unrecht:

Wir sehen nur, wie eine bestimmte Technik in einem historischen Moment  eingesetzt wird, und vergessen darüber, dass man damit auch noch ganz andere, bessere Dinge anstellen könnte. Konzentrieren wir uns noch einmal auf den wesentlichen Aspekt des Internets der Dinge: Es erlaubt uns, Projekte, für die wir neben Menschen und Informationen auch materielle Gegenstände und Räume brauchen, wesentlich schneller, leichter und vor allem kostengünstiger zu organisieren. […] damit verlieren die großen, hierarchischen, über Mitgliedsbeiträge, Steuergelder oder die von Aktionären bereitgestellten Mittel finanzierten Institutionen des Industriezeitalters ihr Monopol auf Unternehmungen eines bestimmten Ausmaßes oder Komplexitätsgrades. (156)

11cdb0163e4211e2b62722000a1fbc10_7

Während Bunz die Revolution der Algorithmen parallel zur Industrialisierung in einem gesamtgesellschaftlichen Rahmen beschreibt, möchte ich etwas konkreter zeigen, was Algorithmen für unseren digitalen Alltag bedeuten und wie sie heute – vielfach unbemerkt – schon präsent sind. Ich tue das anhand von sechs Beispielen, die ich kommentiere.

  1. Algorithmen in Smartphones erkennen heute automatisch, wie hell sie den Bildschirm stellen müssen, damit wir ihn lesen können; bemerken, ob wir auf den Screen schauen und wie wir das Gerät halten. Sie lernen unser Tipp- und Schreibverhalten und verbessern unsere Fehler automatisch. Sie schlagen uns Musik und Apps vor, die wir wahrscheinlich mögen. Sie kennen unsere Kontakte, wissen, wie und worüber wir mit ihnen kommunizieren.  Sie verbessern unsere Bilder automatisch. Wir werden nicht lange auf die ersten Optionen in sozialen Netzwerken warten müssen, die es erlauben, dass automatisch interessante Statusmeldungen, Bilder oder Videos gepostet werden. Schließlich können Algorithmen problemlos erkennen, nach welchen Mustern wir handeln. Unsere Smartphones werden unsere Umwelt wahrnehmen und in der Lage sein, Ausschnitte daraus zu teilen.
    Während wir heute nur noch in der Lage sind, etwas Bedeutsames zu erleben, wenn wir es digital festhalten, werden Algorithmen diese Aufgaben so für uns übernehmen können, dass wir die maximale Aufmerksamkeit unserer Kontakte erhalten. 
  2. Unsere Kontakte könnten bereits heute problemlos Algorithmen oder Bots sein. Mithilfe der im Internet verfügbaren menschlichen Äußerungen können Algorithmen selbständige Facebook-Profile füllen und mit anderen Usern zu interagieren. Spricht uns jemand Unbekanntes im Internet an, können wir heute nicht sagen, ob dahinter eine Person oder ein Bot steckt. Diese Unsicherheit wird zunehmen, wenn z.B. Unternehmen für die Kundenberatung etc. Algorithmen im großen Stil einsetzen, die menschliches Verhalten imitieren und so nicht als solche zu erknnen sind.
  3. Algorithmen können für uns Routinearbeiten erledigen. Sie werden dabei immer besser in der Lage sein, von uns zu lernen: Wir zeigen ihnen zwei, drei Mal, was wir machen wollen, uns sie führen den Schritt dann selbständig aus. Dadurch werden viele Arbeitsschritte ihre Bedeutung und ihren Wert verlieren; geistige Arbeit wird davon stark betroffen sein, vor allem, wenn sie aus Routinearbeiten besteht. Betrachten wir nur Berufe, die mit Büchern zu tun haben: Jeder Buchhändler und jede Bibliothekarin ist heute durch einen Algorithmus ersetzbar. Sie finden Bücher nicht nur schneller, sondern können relevante Passagen zitieren (Amazon sammelt für jede Buch die Passagen, die am häufigsten angestrichen werden) – und zwar aus allen Büchern. Zudem können sie Leserinnen und Leser anhand ihrer Lektüreerfahrungen besser einschätzen.
  4. Überhaupt sind Algorithmen fast in jeder geistigen Tätigkeit Menschen überlegen, die nicht hochtalentiert und enorm erfahren sind. Das zeigt sich sowohl am Schachspiel wie auch beim Pokern. Wettkämpfe sind nur noch möglich, wenn sicher gestellt werden kann, dass Algorithmen keine Rolle spielen. Damit ist auch gezeigt, dass Algorithmen uns Menschen verbessern werden. Sie werden unsere Schwächen kompensieren wie eine Brille das tut. Viele Menschen nutzen heute komplexe Computer mit schlauen Algorithmen, um ihr Gehör zu verbessern. Aus diesen Hörgeräten werden bald Denkgeräte entstehen, die verhindern, das wir vergessen, was wir nicht vergessen wollten, dass wir abschweifen, wenn wir uns konzentrieren wollen.
  5. Algorithmen werden Medien in andere umwandeln. Sie werden uns Texte vorlesen, bildlich darstellen oder Gehörtes verschriftlichen, wenn wir das wünschen. Sie werden Sprachen in andere übersetzen, in real-time und ohne Kosten. Sie werden unsere Gesten besser verstehen, als wir das heute können: Erkennen, wann Babys zur Toilette müssen, wann sie Schmerzen haben.
  6. Bereits heute finden wir Informationen nur noch dank Algorithmen. Google zeigt uns, was wir finden wollen – und zwar anhand von verschiedener, automatischer Abläufe, die unser Suchverhalten, das andere Menschen sowie weitere Kriterien berücksichtigen. Die Technik der Google-Suche kann an beliebigen Orten eingesetzt werden. Nehmen wir die iPad-Menukarte im Restaurant: Sie kann uns problemlos Vorschläge aufgrund unseres Essverhaltens sowie den Vorlieben anderer Menschen machen, kombiniert mit Preisüberlegungen, Wartezeit etc.

Algorithmen werden unbemerkt unverzichtbar werden. Heute können wir die Geräte eine Weile weglegen und ohne sie leben. Bald wird uns das so wünschenswert erscheinen, wie ohne Kleider aus dem Haus zu gehen. Auch das könnten wir, es ist aber nicht nur sozial geächtet, sondern auch meist sehr unbequem.

Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com
Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com

In seinem Buch Gadget hält Jaron Lanier fest, dass unsere Unfähigkeit, online zwischen Mensch und Algorithmus zu unterscheiden, eine Reduktion unseres Menschenbilds zeigt: Wir erwarten von einem Menschen nicht mehr als von einem Algorithmus. Das ist eine Sicht. Lanier behauptet, nur Menschen könnten Bedeutungen hervorbringen. Das darf stark bezweifelt werden: Bald werden uns vollautomatisch erstellte Bilder, Texte und Videos zu Tränen rühren und lachen machen, weil Algorithmen wissen, was für uns lustig ist und was berührend. Mit uns werden auch Algorithmen lachen und weinen – weil sie gelernt haben, wann Menschen das tun.

Die Digitalisierung bietet uns heute die Möglichkeit, eine andere Zukunft zu gestalten. Und aus ihr wird, was wir aus ihr machen. (160)

So der optimistische Schluss von Bunz‘ Buch. Unklar ist, wer wir sein werden, die diese Zukunft gestalten: Gibt es in zehn Jahren noch ein Ich ohne Hilfsmittel? Und: Wäre das zu bedauern?

 

Was der Klout-Score misst

In Bezug auf die Messung des IQ, des Intelligenzquotienten, gibt es eine einschlägige Formulierung: »Intelligenz ist, was Intelligenztests messen« (etwas genauer hier nachlesbar). In Bezug auf soziale Netzwerke ist Einfluss das, was der Klout-Score misst. Damit sind zwei Dinge gesagt:

  • Was der Klout-Score misst, lässt sich nicht unabhängig vom Klout-Mechanismus formulieren.
  • Einfluss in sozialen Netzwerken ist keine klar definierte und ergo auch keine messbare Größe.

Bevor ich mich frage, wozu der Einfluss überhaupt gemessen werden soll, halte ich kurz fest, was Klout ist und wie es funktioniert.

Im Mittelpunkt steht der Score. Er weist jedem Nutzer einen Wert zwischen 1 und 100 zu. Dieser Wert wird mit einer geheimen Formel berechnet, die über 400 verschiedene »Signale« (bzw. Variablen) einbezieht. Dazu gehören die Anzahl der Facebook-Freunde ebenso wie die Häufigkeit, mit der ein Tweet von anderen Usern weiterverbreitet wird. Klout verwendet eine Art dynamischen Berechnungsprozess, bei dem berücksichtigt wird, mit wie vielen verschiedenen Leuten man in Kontakt steht, wie intensiv man mit ihnen kommuniziert und wie themenspezifisch diese Kommunikation ist. Es ist praktisch unmöglich, den Klout-Score mit einfachen Methoden zu beeinflussen oder zu erhöhen.

Klout klassifiziert die User in Typen:

Dabei werden eigentlich nur positive Attribute verwendet. Ich bin z.B. ein »Broadcaster«, d.h. ich beteilige mich an vielen Diskussionen und verbreite oft Inhalte zu verschiedenen Themen, ohne sie selber erstellt zu haben. Die drei User ganz rechts bearbeiten Themen fokussierter als ich.

Klout formuliert selbst einige Prinzipien, die für den Klout-Score bedeutsam sind:

  1. Einfluss bedeutet, dass sich andere Menschen mit den verbreiteten Inhalten auseinandersetzen. Die Zahl der Verbindungen ist sekundär.
  2. Je mehr Netzwerke man mit Klout verknüpft, desto größer ist der eigene Klout-Score.
  3. Klout haben alle Menschen – auch die, die sich nie bei Klout angemeldet haben. Jede Interaktion verbessert den Klout-Score, egal mit wem.
  4. Klout bezieht sich nicht auf eine feste Zeit, sondern auf ein Zeitfenster von 90 Tagen, in dem kürzlich erfolgte Interaktionen stärker gewichtet werden.
  5. Die Klout-Berechnungen verändern sich ständig, so wurde kürzlich der Klout-Score bei vielen Usern um rund 10 erhöht.

Klout bezieht auch den »Real-World-Influence« mit ein – damit ist gemeint, wie einflussreich man auf Wikipedia erscheint. Das führt neu dazu, dass Barack Obama den höchsten Klout-Score hat (99) und Justin Bieber einen tieferen (92).

Es gibt dennoch einige generelle Hinweise, wie man den eigenen Klout-Score verbessern kann:

  • Seinen Status auf Twitter oder Facebook recht häufig aktualisieren, damit Menschen darauf reagieren können.
  • Sich auf ein Thema konzentrieren.
  • So positiv wie möglich bleiben.
  • Sich mit Leuten verbinden, die einen hohen Klout-Score haben, damit man sein Netzwerk erweitern kann.
Bild: Garry McLeod, Quelle: Wired.com.

Ein Wired-Artikel, von dem auch die oben stehende Abbildung stammt, hält fest, was die Bedeutung des Klout-Scores in den USA ist: Bei Vorstellungsgesprächen bei Berufen mit Marketing- oder Öffentlichkeitsarbeitsbezug ist der Klout-Score ein Thema und kann dazu führen, dass jemand eingestellt wird oder nicht. Zudem erhalten Menschen mit höheren Klout-Scores Vergünstigungen oder Geschenke (teilweise, ohne dass ihnen das bewusst ist: sie erhalten bessere Hotelzimmer, bessere Mietwagen und müssen am Flughafen weniger lang warten).

Der Autor des Artikels, Seth Stevenson, formuliert vier Kritikpunkte am Klout-System:

  1. Psychologie. Menschen reagieren emotional stark auf Bewertungen – vor allem, wenn sie so klar sind wie eine Zahl zwischen 1-100. Problematisch ist, dass diese Bewertung zudem höchst intransparent ist und unklar ist, was man genau tun müsste, um sie zu verbessern (weil das sonst alle täten).
  2. Bildung einer Elite. Menschen mit hohem Klout-Score werden besser behandelt, ohne das verdient zu haben.
  3. Zwang. Der Einfluss von Klout führt dazu, dass man mitmachen muss – weil in der Arbeitswelt eine Zahl wichtig werden kann, von deren Existenz viele Leute gar nichts wissen.
  4. Filterblasen. Um den Klout-Score hoch zu halten, muss man Informationen verbreiten, die andere Leute mögen und auf die sie reagieren. Das sind aber immer wieder dieselben – abweichende Meinungen und Inhalte werden bestraft.

So untersucht Stevenson Profile mit tiefen Klout-Scores und stellt fest, dass dort viel Interessantes und Authentisches verbreitet wird:

The un-Kloutiest’s thoughts, jokes, and bubbles of honest emotion felt rawer, more authentic, and blissfully oblivious to the herd. Like unloved TV shows, these people had low Nielsen ratings—no brand would ever bother to advertise on their channels. And yet, these were the people I paid the most attention to. They were unique and genuine. That may not matter to marketers, and it may not win them much Klout. But it makes them a lot more interesting.

* * *

Meine Beurteilung: Klout ist ein professionelles System. Es funktioniert und es misst, was es zu messen vorgibt – nicht den Einfluss an sich, sondern den Einfluss aus der Perspektive von Klout.

Wer professionell mit Social Media arbeitet, kommt um Klout nicht herum. Nicht als soziales Netzwerk, sondern als Bewertung der eigenen Arbeit und als Orientierung für Verbesserungen. Mehr Bedeutung darf der Klout-Score aber nicht bekommen. Menschen werden heute an vielen Orten von Algorithmen beurteilt und auf dieser Grundlage unterschiedlich behandelt – beim Mobilfunkanbieter, bei der Bank, in der Migros. Wir müssen darauf achten, dass die Funktionsweise dieser Algorithmen transparent ist. Mehr ist wohl nicht zu erreichen.

Hier noch drei Links zu diesem Thema:

  1. Frank Krings notiert drei Tücken, die Klout bereit hält.
  2. In Florida müssen Studierende an der Uni lernen, wie man einen hohen Klout-Score erhält, damit sie auch einen Job finden.
  3. Mat Honan, den ich hier schon erwähnt habe, versucht bei Gizmodo, einen Klout-Score zu manipulieren.

(Dieser Post wurde um 12.05 überarbeitet, danke für die Hinweise an Tania.)