Digitale Themen 2015 – eine Vorschau

Welche digitale Fragen sollen 2015 diskutiert werden, welche Konzepte gewinnen an Bedeutung? Eine Zusammenfassung einiger Gedanken aus Texten schlauer Menschen. 

* * *

    1. Algorithmen werden gleichzeitig bequem und unheimlich.
      Als »uncanny valley« bezeichnet man die Tatsache, dass menschenähnliche Roboter oder Figuren starke Abwehrreaktionen hervorrufen, sobald sie sehr menschliche Verhaltensweisen fast perfekt imitieren können. Zeynep Tufekci bezeichnet Algorithmen als das »uncanny valley« der Computerverwendung: Programme, die lernfähig sind oder künstlicher Intelligenz aufweisen, werden immer bedeutender – aber auch immer unheimlicher. Das hat zwei Hauptgründe:
      Erstens sind sie oft nicht wie Werkzeuge für Handlungen verwendbar, sondern werden von einer zentralisierten Plattform kontrolliert. Google ist kein Bibliothekskatalog, Facebook kein Telefon – weil neben den Absichten der User auch Absichten der Plattformbetreiber auf die Algorithmen einwirken.
      Zweitens fällen Algorithmen zunehmend Entscheidungen, bei denen nicht eine bessere einer schlechteren Variante vorgezogen werden kann (wie z.B. bei der Wahl der kürzesten Route auf einer Karte). Algorithmen urteilen also auch – ohne dass die Benutzerinnen und Benutzer verstehen, wie sie das tun. Die Suchresultate von Google sind ein Beispiel für eine solche Entscheidung. Niemand kann abschätzen, ob die angeblich relevanten Ergebnisse tatsächlich die relevantesten sind. (Hier ein drastisches Beispiel.)
      Gleichzeitig werden die Algorithmen aber auch immer bequemer: Auf unseren Smartphones lassen wir bewusst oder unbewusst viele Programme mitlaufen, weil sie scheinbar viele Erleichterungen ermöglichen.
    2. Denken in einem digitalen Kontext verstehen. 
      Defizitorientierte Aussagen über digitale Techniken (lesen, Notizen anlegen, Informationen abspeichern) sind 2015 überholt. Aktuelle Studien wie die von Storm und Stone (2014, Privatkopie der Studie per Mail erhältlich) oder Anne Mangen (leicht defizitorientierter Überblick aus dem New Scientist) zeigen, dass technologische Veränderungen das ganze Umfeld der spezifischen Kompetenzen verändern. Kürzer und klarer: Digitales Lesen oder Schreiben ist ein Prozess, der nicht direkt vergleichbar ist mit analogem Lesen oder Schreiben.
      Forschung und Didaktik müssen hier einen Schritt weitergehen und sich von der Vergleichsperspektive lösen. Wer verstehen will, wie Menschen mit digitalen Hilfsmittel interagieren, darf diese nicht in einem analogen Kontext evaluieren, sondern muss sich damit befassen, was sie erreichen wollen und wie sie das tun. Technische Möglichkeiten weisen – so Danah Boyd – Affordances auf: Sie machen gewisse Dinge einfacher und andere schwieriger. Wer viele Informationen auf einem Smartphone abspeichern kann, wird sich anders an Wichtiges erinnern.
    3. Fehler akzeptieren lernen, um Freiheit zu bewahren. 
      Soziale Netzwerke werden von vielen Menschen verwendet, um Beschwerden an mächtige Unternehmen weiterzuleiten. Die Aufmerksamkeit des eigenen Netzwerkes verhilft dem einzelnen Kunden dabei zu besserem Kundenservice. Gleichzeitig machen diese Reklamationen auch deutlich, dass Fehler kaum noch toleriert werden. Das führt wiederum dazu, dass Unternehmen ihre Mitarbeitenden lückenlos überwachen und kontrollieren. Hans de Zwart beschreibt in einem langen, sehr lesenswerten Essay, was es bedeutet, dass jeder Mensch heute lückenlos überwacht und kontrolliert werden kann. Sein Fazit: Nur wenn wir lernen, mit Fehlern und mangelnder Perfektion umzugehen, werden wir frei bleiben können.

      Geert de Roeck: The Worker.
      Geert de Roeck: The Worker.
    4. Netiquette 2.0 lernen. 
      In den frühen Foren gab es explizite Verhaltensregeln. Die fehlen im Social Web – obwohl einige Normen vernünftig und verständlich wären. Im Guardian wurden sie kürzlich von Helen Lewis zusammengefasst, hier eine verkürzte Version:
      (1) Vermeide Anti-Virality und ignoriere den Kool-Aid-Point.
      Sobald Inhalte viral verbreitet werden oder Frauen viel Wertschätzung im Netz erhalten, entsteht automatisch eine Gegenbewegung. Diese speist sich nicht aus Argumenten, sondern aus Ablehnung der Aufmerksamkeitsverteilung. Nicht mitmachen!
      (2) Höfliche Gleichgültigkeit. 
      In Restaurants und im öffentlichen Verkehr sehen und hören wir viel, was uns nichts angeht. Im Netz auch: Bitte wegsehen und weghören.
      (3) Konservative Neutralität hacken. 
      Wenn Plattformbetreiber wie Google oder Facebook vorgeben, neutral zu sein, meinen sie damit, dass sie den Status Quo nicht infrage stellen. Vorgaben und Anforderungen umgehen, wenn sie eigenen Bedürfnissen widersprechen.
      (4) Handlungen, nicht Lippenbekenntnisse. 
      Viele Anliegen buhlen um Aufmerksamkeit – die durch das Absetzen von Statusmeldungen häufig vergeben wird. Gute Taten entstehen aber nicht immer durch Worte allein. Netzaktivismus mag einiges bewirken, oft braucht es aber etwas mehr als ein paar Klicks.
      (5) Kontext mitbedenken. 
      Wir lachen hemmungslos über die doofen Menschen, die Paul McCartney nicht kennen.
      Das ist noch ein harmloses Beispiel. Würde man unsere Bilder und Kommentare aus dem Kontext reißen, erschienen wir alle lächerlich.
    5. Neue soziale Netzwerke. 
      Nathan Jurgenson zeigt es am Beispiel von Ello: Wir brauchen neue Social Media, welche sich ernsthafte Gedanken über soziale Interaktionen machen, ohne primär Werbung verkaufen zu wollen. Es ist zu hoffen, dass 2015 diesbezüglich ein innovatives Jahr wird.

#filtertipps 2: Algorithmen

Orientierung und Konzentration erfordern bei digitalen Informationen eine Reihe von Kompetenzen, die man englisch »digital literacy« nennt. Filterkompetenz ist ein wichtiger Bestandteil: Die Fähigkeit, nicht relevante Informationen und Inhalte mit Filtern unsichtbar zu machen. Die analoge Welt nutzt viele Filter: Inhaltsverzeichnisse bei Büchern, Kataloge in Bibliotheken, Register, Redaktionen von Zeitungen etc. haben neben vielen anderen Funktionen auch die Aufgabe zu filtern. 

In einer losen Serie möchte ich hier Techniken und Werkzeuge vorstellen, mit denen digitale Informationen gefiltert werden können. Das ist der zweite Teil, im ersten ging es um Zeit als Filtermethode

* * *

[Mir war vor allem zuwider, dass] Facebook für mich die Entscheidung traf, wie die Welt für mich aussieht. Denn Facebook tut viel mehr als nur eine Blase aus Gleichgeschalteten zu bilden. Facebook verstümmelt. Es verstümmelt meine Wahrnehmung von der Welt, es verstümmelt die Charaktere meiner Kontakte, es verstümmelt meine eigene Vielseitigkeit.

Diese Feststellung von Meike Lobo, mit der sie begründet, weshalb sie auf Facebook verzichtet, ist Menschen in letzter Zeit stärker ins Bewusstsein gerückt. Die Ankündigungen von Twitter, Inhalte ebenfalls mittels Algorithmen auszuwählen, haben zu starken Protesten geführt. An Twitter schätzen viele User, dass sie (neben wenig Werbung) alles – und nur das – sehen, was ihre Kontakte teilen (und zwar in chronologischer Reihenfolge). Bei Facebook zeigt der Stream die Inhalte an, von denen schlaue Programme denken, sie könnten für mich interessant sein: Weil ich auf solche Inhalte reagiere, weil sie von Menschen stammen, mit denen ich viel kommuniziere oder weil andere User damit etwas anfangen konnten.

Wer sich das bewusst machen möchte, sollte sich einmal statt den »Hauptmeldungen« die »Neuesten Meldungen« anzeigen lassen. Dann erscheinen viele Beiträge, die in der Regel verborgen sind – und zwar auch wieder in chronologischer Reihenfolge.

Bildschirmfoto 2014-09-07 um 21.28.14

Die Algorithmen filtern. Sie machen Informationen unsichtbar und gewichten die verbleibenden für uns. In einem FB-Kommentar zum Post seiner Frau schrieb Sascha Lobo:

Hier in den Kommentaren erwarte ich bitte mindestens ein Dutzend altkluge Kommentare, die erklären, wie man ihr Grundproblem mit Facebook mithilfe von Listen, Gruppen, einer kanadischen App und fünf Tagen Sortierarbeiten supersimpel lösen kann.

Damit wies er darauf hin, dass algorithmische Filter zwar auch selbstbestimmt genutzt werden könnten, damit aber

  1. viel technisches Know-How
  2. eine große Zeitinvestition
  3. weitere Algorithmen von Dritten

verbunden sind. Tatsächlich gibt es schon bei Facebook die Möglichkeit, den maßgebenden Algorithmen mitzuteilen, wie sie funktionieren sollten. Nur ein Beispiel dafür: Der Pfeil auf der rechten Seite von FB-Beiträgen. Er erlaubt mir, dem Filteralgorithmus konkrete Regeln zu diktieren.

Bildschirmfoto 2014-09-07 um 21.37.43

 

In einem lesenswerten Beitrag erklärt Zeynep Tufekci, warum ihrer Meinung nach Twitter beim heutigen System blieben sollte. Sie bringt drei Schlüsselargumente an:

  1. Das menschliche Urteil ist oft besser und wichtiger als das von Algorithmen.
    Bsp.: Als amerikanische Soldaten Osama Bin Laden getötet hatten, bereite das Weiße Haus eine Pressekonferenz vor – ohne dass jemand wusste, worum es dabei gehen sollte. Der brisante Inhalt wurde schon vorher durch einen unauffälligen Mitarbeiter über Twitter kommuniziert – worauf ein findiger Journalist der Nachricht das nötige Gewicht gab. Ein Algorithmus hätte diesen Tweet nie prominent eingeblendet. 
  2. Algorithmen führen zu einer Stärkung des Matthäus-Effekts: »Wer hat, dem wird gegeben.« Algorithmen geben den Usern mehr Platz, die ohnehin schon gut wahrnehmbar sind. Das geht auf Kosten aller anderen.
  3. Algorithmen provozieren eine Verhaltensanpassung: Menschen versuchen Inhalte so zu präsentieren, dass Facebook sie anderen auch anzeigt. Dadurch kommunizieren sie aber schlechter und ineffizienter.
    Bsp.: FB zeigt zumindest im englischen Sprachraum Meldungen mit »Congratulations« viel prominenter an als andere. Diese Eigenschaft lässt sich gut ausnutzen

Mir scheint da wesentliche Problem die Allgemeinheit von Algorithmen zu sein. Wir alle nutzen dieselben – nämlich die, welche uns Facebook anbietet. Algorithmische Filter sind dann kein Problem, wenn es meine Filter sind, die meine Urteile und meine Erfahrung enthalten. Dann sind es letztlich nur Abwicklungen von Routinearbeiten, die wir bei der Sortierung unserer Briefpost oder bei der Lektüre der Tageszeitung täglich erledigen. Man darf nicht vergessen, dass es der Einsatz von Algorithmen Unternehmen schwerer macht, ein Zielpublikum umstandslos zu erleichtern – weil Algorithmen Spam recht zuverlässig unsichtbar machen.

Meine Anleitung wäre also folgende:

  1. Auf den genutzten Plattformen die Möglichkeiten nutzen, um Filter zu personalisieren.
  2. Programme einsetzen, die algorithmisches Filtern erlauben. Anfangen kann man gut mit E-Mail-Apps: Hier lassen sich mit Filtern Postfächer einrichten, die komplexen Regeln gehorchen. Die einfachste Übung: Sich zu fragen, welche Mail ich immer lesen will – sie stammen von einer bestimmten Person, enthalten bestimmte Begriffe, treffen zu bestimmten Zeiten ein etc. Oder welche ich sicher nie lesen würde.
  3. Sich allgemeinen Algorithmen nicht unterwerfen, sondern sie hintergehen und manipulieren, um sie zu persönlichen zu machen.

Methodische Probleme von Big Data im Umgang mit Social Media

In einem neuen Aufsatz beschreibt Zeynep Tufekci Probleme, die auftauchen, wenn Plattformen von sozialen Netzwerken als Datenquellen benutzt werden, um mit der maschinellen Verarbeitung von großen Datenbanken (»Big Data« genannt) Erkenntnisse über das menschliche Verhalten zu sammeln.

Ich fasse die wesentlichen Beobachtungen und Schlüsse von Tufekci zusammen, empfehle aber allen eine genaue Lektüre des Originaltextes. Im Folgenden verwende ich SMBD als Abkürzung für »Social-Media-Big-Data«.

  1. SMBD bezieht sich oft auf spezifische Plattformen wie Twitter. 
    Die Twitter-Daten sind leicht zu bekommen, dabei beeinflussen aber bestimmte Phänomene oder Affordances von Twitter die Resultate aus der Datenverarbeitung. Tufekci vergleicht hier Big Data mit der Biologie, die sich auf bestimmte Organismen oder Lebewesen konzentriere, weil die einfache Forschung ermöglichen – gerade deswegen gewisse biologische Strukturen in einer untypischen Form aufweisen, welche die Untersuchung verzerren.
    Ein wesentliches Problem ist die fehlende Repräsentativität: Nur wenige Menschen sind auf Twitter präsent und sind in Bezug auf Bildung, Geschlecht, Ethnie etc. kein gutes Sample.
  2. SMBD führt oft zu methodischen Problemen, weil nicht repräsentative Daten verwendet werden oder abhängige Variablen untersucht werden. 
    Tufekci verweist auf Beispiele in der medizinischen Forschung, die beispielsweise Patientinnen untersucht, die ein bestimmtes Medikament nehmen. Daraus ergibt sich der falsche Eindruck, das Medikament helfe bei bestimmten Risiken, obwohl es letztlich schadet. Der Eindruck entsteht, weil nur gesunden Frauen das Medikament nehmen und so im Vergleich mit anderen in jeder Hinsicht bessere Werte zeigen. Analog ist die Auswertung von Hashtags, die bei bestimmten Ereignissen eingesetzt werden, gefährlich, weil die Hashtags von Usern selbst als Mittel gewählt werden.
  3. SMBD bilden oft komplexe und nicht quantifizierbare Interaktionen ab.
    Man denke beispielsweise an die unterschiedlichen Bedeutungen, die ein Facebook-Like oder ein Twitter-Fav haben können. Tufekci verweist darauf, dass leicht berechenbar ist, wie viele Menschen like gedrückt haben oder auf eine Meldung klicken: Aber wie viele sie sehen, ohne zu klicken, kann oft kaum ermittelt werden. Retweets auf Twitter erfolgen oft auch, weil man negative Wertungen weitergeben oder Abgrenzungen vornehmen will – sie sind nicht immer ein Zeichen von Einfluss oder positiver Resonanz. Ihre Bedeutung kann von Maschinen nur dann erfasst werden, wenn sie vorher interpretiert wird.
  4. Der isolierte Blick auf eine Plattform kann ein Phänomen nicht erfassen. 
    Informationen verbreiten sich on- und offline in verschiedenen Medien. Hier eine bestimmte Art der Interaktion rauszugreifen ergibt ein unvollständiges Bild.
  5. Viele Social-Media-Bezüge sind schwer maschinenlesbar. 
    Tufekci verweist auf Bezüge auf Kontext, Screenshots, Nonmentions und Hate-Linking, also das Verlinken auf einen Beitrag oder Tweet, statt ihn mit den Standardmethoden zu teilen.
  6. Bewusste Einflussnahme wird unterschätzt. 
    Analog zum Google-Suchalgorithmus, dessen Funktionsweise von SEO-Spezialisten sofort missbraucht wird, wenn sie verstehen, wie er funktioniert, werden alle maschinenlesbaren Metriken von Social Media von Menschen beeinflusst, die bestimmte Meinungen vertreten wollen. Tufekcis Daten beinhalten beispielsweise Versuche türkischer Politiker, Hashtags wie #stoplyingCNN zum Trenden zu bringen, also regional oder global in Charts aufzutauchen, die zeigen, welche Themen momentan wichtig sind.

Tufekci schlägt für Untersuchungen folgende Punkte vor:

  • Messwerte und Variablen verwenden, die außerhalb von Social Media überprüfbar sind (Wahlresultate, Arbeitslosenzahlen etc.)
  • Kleine Samples auch qualitativ untersuchen, um beispielsweise feststellen zu können, welche Rolle Hate-Linking spielt.
  • Mit Vertretern der Social-Media-Anbietern zusammenarbeiten, um an bessere Daten zu gelangen.
  • Immer mehrere Methoden und mehrere Plattformen einbeziehen.
  • Mit Wissenschaftlerinnen und Wissenschaftlern verschiedener Disziplinen zusammenarbeiten.

    Karten-Daten-Visualisierung Linkedin l luc legay CC – Flickr

»Social Media machen doch nicht einsam« – Artikel in der Aargauer Zeitung

 

Am letzten Samstag ist ein Artikel in der Aargauer Zeitung erschienen (hier online), den ich über eine neuere Arbeit von Zeynep Tufekci geschrieben habe. Er basiert auf einem Blogpost – »Das soziale Internet«.

Hier der Schluss des Artikels:

«Kommunikationstechnologie wirkt weder entmenschlichend noch isolierend, wenn sie für soziale Verbindungen verwendet wird. Das Internet ist nicht eine Welt voller körperloser und oberflächlicher Beziehungen, es ist eine Technologie, die soziale Verbindungen zwischen echten Menschen medialisiert und strukturiert», lautet Tufekcis Fazit.

Einsamkeit - AZ

Das soziale Internet

In einem Beitrag für Public Culture analysiert Zeynep Tufekci die medial laufend wiederholten Beteuerungen, das digitale Kommunikation mache Menschen einsamer. Im folgenden fasse ich die wichtigsten Aussagen ihres Beitrag The Social Internet: Frustrating, Enrichting, but Not Lonely zusammen.  Der Artikel kann online nicht frei gelesen werden, eine Privatkopie verschicke ich gerne per Email.

1998 prangte die Schlagzeile »Sad, Lonely World Discovered in Cyberspace« auf der Titelseite der New York Times, den entsprechenden Artikel schrieb Amy Harmon basierend auf wissenschaftlichen Untersuchungen. Die Tatsache, dass weitere Studien zeigten, dass sich die negativen Effekte mit der Zeit auflösten, wenn es sie überhaupt je gab, wurde medial wenig beachtet. Das Thema blieb ein Dauerbrenner, obwohl es keine Belege dafür gibt, dass Internetkommunikation entweder die ganze Gesellschaft oder einzelne Menschen einsamer gemacht hat.

Tufekci weist nach, dass die Vorstellung der Bedrohung sozialer Verbindungen durch das Web auf eine Zeit zurückgeht, in der eine ganz andere Vorstellung vom Cyberspace vorherrschend war. Der Zugang zum Internet war privilegierten Akademikern (und wenigen Frauen) vorbehalten, die mit den Möglichkeiten anonymer Profile und dem kreativen Gestalten von Identitäten experimentierten. Einsamkeit war völlig akzeptiert, auch weil on- und offline Identitäten kaum verbunden waren miteinander. Der klassische New-Yorker-Cartoon vom Hund, der erzählt, im Internet wisse niemand, dass er ein Hund sei, ist für Tufekci das Sinnbild dieser Phase des Cyberspace: Ein Raum, der von den Einschränkungen des Körpers, des Geschlechts, der Rasse und der Nationalität befreite.

Download (1)

Danach aber explodierte die Teilnahme an der Netzkommunikation: Im Web bildete sich die Gesellschaft ab und damit waren Menschen, Körper, Unternehmen und Regierungen auch präsent – wenn sie denn jemals wirklich abwesend waren. In der sozialen Phase des Netzes wurde Interaktion mit Menschen, von denen viele auch offline Bekannte waren, die wichtigste Nutzungsart für viele Menschen. Damit verbunden war eine Deanonymisierungsbewegung.

Eine der wichtigsten Thesen des Textes lautet, dass Technologie nicht den Menschen verändert, sondern bestimmte Verhaltensweisen mit veränderten Konsequenzen verbindet. Der Fachbegriff dafür lautet affordance, ein Begriff, der sich kaum übersetzen lässt, aber besagt, dass Technologie gewisse Anreize für bestimmte Verhaltensweisen schafft, weil sie einfacher oder attraktiver werden, oder eben mit negativen Konsequenzen versehen sind. Social Media verändert so nicht unbedingt das, was Menschen tun, sondern welche Auswirkungen soziale Interaktionen haben.

Ein Beispiel dafür ist, dass der Cyberspace heute Identität eher normiert und transparent macht. Nicht nur das: Verschiedene soziale Rollen, die wir in unterschiedlichen Kontexten einnehmen, werden für das jeweils »falsche« Publikum sichtbar und erschweren es, sich so zu präsentieren, wie man das gerne möchte – eine Einsicht, die Kathrin Passig in ihrem hervorragenden Text über »Die Konsensillusion« ausformuliert hat. Heute, so Tufekci, weiß jeder im Internet, wer ein Hund ist.

Social Media ist mit hohem sozialen Druck verbunden, der aber deshalb in Kauf genommen wird, weil der Verzicht auf digitale Kommunikation einen noch höheren Preis hat. »Auf Social Media zu verzichten ist gleichbedeutend mit der Isolation in wichtigen Bereichen des Soziallebens«, schreibt die Forscherin in Bezeug auf ihre Untersuchungen an amerikanischen Colleges.

Eine »soziale Atomisierung« werde seit längerem beobachtet – Tufekci verweist auf Putnams Bowling AloneForschungsergebnisse legen nahe, dass die relevanten Ursachen Fernsehen, Pendeln, Arbeitszeiten, Doppelverdienerfamilien sowie die zunehmende Isolation Jugendlicher seien – das Internet die Effekte bei seinen Nutzerinnen und Nutzern aber abschwäche und keinesfalls verstärke.

Das Internet macht uns nicht einsamer, sondern hat verschiedene systemische Effekte auf die Größe, Zusammensetzung und Struktur unserer sozialen Netzwerke. Das ist ein Grund, weshalb die neue Technologie so viel Unwohlsein verursacht.

Tufekci sieht vier Hauptaspekte:

  1. Das Internet betont erworbene soziale Netzwerke und schwächt zugeschriebene; es gewichtet also Zuneigung und Interessen stärker als Familie und Nachbarschaft. Deshalb sei es auch falsch zu sagen, Social Media helfe nur bei der Aufrechterhaltung von so genannten weak ties, also schwachen Beziehungen zwischen Bekannten.
  2. Das Internet verändert Interaktionsmuster. Wer miteinander kommuniziert, kommt sich näher. Verlagern sich Gespräche ins Netz, verlieren gewisse Menschen den Bezug zueinander und neue finden sich.
  3. Nicht alle Menschen sind in der Lage, medialisierte Kommunikation als echte Begegnung wahrzunehmen. Freundschaften auf Texten zu basieren ist eine komplexe Fähigkeit, die einige Menschen erlernen können und mit denselben Gefühlen verbinden, wie wenn sie face-to-face mit anderen sprechen. Tufekci unterscheidet »cybersoziale« von »cyberasozialen« Menschen: Bei ersteren ist die textbasierte Kommunikation auf einem ganz tiefen emotionalen Level verankert, bei letzteren nicht.
  4. Nicht-medialisierte Kommunikation ist ein Privileg. Sherry Turkle, eine Verfechterin der Einsamkeitsthese, beschreibt in einem Text, wie sie ihren Sommer ohne Smartphone in Cape Cod verbringe – und zeigt damit, wie privilegiert man sein muss, um sich das leisten zu können. Viele Arbeitnehmenden oder Eltern können es sich nicht leisten, in ihrer Freizeit oder ihrer Zeit mit der Familie auf digitale Kommunikation zu verzichten – nicht, weil sie nicht wollen, sondern weil sie sonst die verschiedenen an sie gestellten Anforderungen nicht erfüllen können. Die Kritik müsste sich also nicht auf die Verwendung von Technologie richten, sondern auf die wirtschaftlichen Verhältnisse, die Menschen nicht erlauben, die Zeit so zu nutzen, wie sie das gerne tun würden.
Cape Cod.
Cape Cod.

Tufekcis Fazit:

Kommunikationstechnologie wirkt weder entmenschlichend noch isolieren, wenn sie für soziale Verbindungen verwendet werden. […] Das Internet ist nicht eine Welt voller körperloser und oberflächlicher Beziehungen, es ist eine Technologie die soziale Verbindungen zwischen echten Menschen medialisiert und strukturiert.