Humanistische Bildung und Social Media: Teil III – Mensch und Maschine

Das ist der dritte Teil eines Essays zur Verbindung des humanistischen Bildungsideals und Social Media.

* * *

Tuerkischer_schachspieler_racknitz3
Freiherr Joseph Friedrich zu Racknitz, Ueber den Schachspieler des Herrn von Kempelen, Leipzig und Dresden 1789

Bevor es Schachcomputer gab, waren Menschen von der Idee besessen, dass eine Maschine besser Schach spielen könne als ein Mensch. Etwas mehr als 200 Jahre nachdem der Schachtürke, eine Maschine, die von einem Menschen bedient wurde, zum ersten Mal Schach spielte, schlug der IBM-Computer Deep Blue den Schachweltmeister Garry Kasparov in einem Turnier. Seither haben nicht nur die Computer, sondern vor allem die Algorithmen starke Fortschritte gemacht: Auf jedem Handy lässt sich eine Software installieren, die zu den stärksten Schachspielern der Welt gehören würde, dürfte sie an den Turnieren teilnehmen.

Schach, so könnte man sagen, war lange ein Abgrenzungskriterium zwischen Mensch und Maschine: Maschinen können viel, aber nicht Schach spielen. Und so lange sie das nicht können, braucht der Mensch keine Angst davor zu haben, den Maschinen nicht mehr überlegen zu sein.

Ein etwas feineres Kriterium formulierte der Mathematiker Alan Turing 1950: Der nach ihm benannte Turing-Test besagt, dass Maschinen oder Computer dann als intelligent gelten können, wenn ein Mensch nicht in der Lage ist, in einem Chat mit einem menschlichen und einem maschinellen Partner  zu bestimmen, was von einem Menschen getippt wurde und was von einem Computer.

Gegen diesen Test gibt es eine Reihe von Einwänden – der spannendste stammt wohl von John Searle, der im Chinese-Room-Experiment vorgeschlagen hat, sich einen Raum vorzustellen, in dem ein Mensch sitzt, der kein Chinesisch spricht, aber mit Hilfe eines Buches chinesische Botschaften, die unter der Tür durchgeschoben werden, problemlos beantworten kann. Der Mensch kann deswegen kein Chinesisch – und ein Computer deshalb auch weder eine natürliche Sprache sprechen noch denken.

Die Frage, ob Computer denken können oder gar ein Bewusstsein entwickeln werden, kann nicht so einfach beantwortet werden, wie das Searle vorgibt. Selbstlernende Algorithmen – wie sie z.B. Google einsetzt – erledigen Aufgaben, für die sie nicht spezifisch programmiert worden sind. Gängige Vorstellungen der Funktionsweise von Computern prallen daran ab.

Was hat das mit humanistischer Bildung und Social Media zu tun? Social Media führen dazu, dass menschliche Kommunikation medialisiert abläuft. Zwischen zwei Menschen treten jeweils ein Interface, das sie bedienen müssen, um einander indirekt wahrnehmen zu können. Aufgrund unser Lebens- und Arbeitsverhältnisse nutzen wir solche Kommunikationsformen immer häufiger: Kinder sprechen mit ihren abwesenden Eltern über Skype, Mitarbeitende organisieren sich über Länder und Kontinente hinweg. Das gilt auch für die Bildung.

Während Schulbücher Wissen schon immer medialisiert zugänglich gemacht haben, war der Unterricht meist auf direkten Kontakt hin angelegt. Menschen bilden sich mit anderen Menschen zusammen. Neu treten nicht nur Geräte zwischen die Menschen, sondern es wird zunehmend unsicher, ob am anderen Ende überhaupt noch ein Mensch ist oder ein Computer. So schrecklich die Vorstellung erscheinen mag, dass Algorithmen in die Rolle von Lehrpersonen oder gar Schülerinnen und Schüler schlüpfen: Sie ist nicht in der fernen Zukunft zu suchen. Bereits heute gibt es Computerprogramme, die bestimmte Mathematikaufgaben effizienter vermitteln können als menschliche Coaches. Zudem verwenden wir Menschen auch immer mehr Algorithmen, die unsere Arbeit vereinfachen.

Wenn nun der Humanist Humboldt fordert, Bildung habe den Zweck, dass der Mensch mit seiner »Einzigartigkeit die Menschheit bereichere«, dann wird das immer mehr fraglich. Menschliche Äußerungen dienen im Internet riesigen Algorithmen dazu, Wissen effizienter verarbeiten zu können. Die entscheidende Frage wird in der Zukunft sein, ob Menschen Maschinen nutzen oder Maschinen Menschen. Die besten Schachpartien spielen heute Spielerinnen und Spieler, die darin geübt sind, mit einem Computer zu interagieren. Sie teilen sich die schwierige Aufgabe des Spiels mit einem Automaten – es lässt sich nicht mehr genau bestimmen, wer wichtiger ist.

In seinem Buch Gadget macht Jaron Lanier eine feinsinnige Anmerkung zum Turing-Test. Er messe zwei Dinge gleichzeitig: Das Verhalten der Chatpartner – aber auch die Anforderung, welche die Versuchsperson an menschliches Verhalten stellt. Diese Anforderungen würden zunehmend sinken, befürchtet Lanier. Wenn z.B. schulische Leistungen nur noch in Bezug auf standardisierte Tests, also Algorithmen, gemessen werden, dann wird menschliches Verhalten bald so beurteilt, wie man die Leistung von Computern einschätzt.

Social Media könnte also dazu führen, dass wir mit Menschen ähnlich kommunizieren wie mit Computern. Unser Verhältnis zu Maschinen wird die große Herausforderung der nächsten zehn bis 50 Jahre sein. Hierfür ist das humanistische Bildungsideal ein wichtiger Orientierungspunkt, gerade auch für die vielen ethischen Fragen, die der Umgang mit immer autonomeren Maschinen mit sich bringen wird (wer ist für ihr Handeln verantwortlich, wie dürfen wir sie behandeln?).

Ist der Einsatz von AdBlockern verwerflich?

TA

Mit einfachen Browser-Erweiterungen lassen sich Seiten (wie oben Tages-Anzeiger Online) so darstellen, als enthielten sie keine Werbung. Die Werbung wird versteckt.

Heute haben einige deutsche Nachrichtenportale mit prominent platzierten Bannern dazu aufgerufen, auf ihren Seiten die AdBlocker auszuschalten. Als Beispiel sei die Begründung von Golem.de zitiert:

Daher haben wir eine große Bitte: Schalte deinen Adblocker auf Golem.de aus! Einen entsprechenden Hinweis sehen Nutzer von Adblockern in dieser Woche auf Golem.de, Spiegel Online, FAZ.net, RP-Online.de, Sueddeutsche.de und Zeit.de. Denn das Problem betrifft nicht uns allein, es ist für uns aber besonders groß. Nicht weil wir die Seite mit Werbung vollstopfen, sondern obwohl wir das nicht tun.

Wir sind jedem Einzelnen von euch dankbar, der seinen Adblocker auf Golem.de deaktiviert. Das kommt auch allen anderen Nutzern zugute, die bereits auf einen Adblocker verzichten und es damit überhaupt möglich machen, dass Golem.de existiert. Denn wenn viele ihren Adblocker auf Golem.de deaktivieren, wird die erste und direkteste Auswirkung darin bestehen, dass die Nutzer, die keinen Adblocker verwenden, weniger Werbung zu sehen bekommen. Und das wird sich auch dann nicht ändern, wenn es uns gelingt, im zweiten Schritt die Werbeeinnahmen zu steigern.

Die Hinweise der Portale werden von den AdBlockern mittlerweile auch schon wieder versteckt: Sie waren nur für kurze Zeit sichtbar, werden jetzt behandelt wie Werbung.

Die Frage, ob ich als Internetbenutzer Werbung wegfiltern darf oder nicht, verdient ein etwas genauere Diskussion. Die Argumentation der Anbieter wäre folgende: Wer Inhalte konsumiert, ist daran interessiert, das diese finanziert werden können. Werbung ist eine Methode der Finanzierung, die sich bewährt hat. Fällt sie als Einnahmequelle weg, dann gibt es entweder weniger gehaltvolle Inhalte oder es müssen andere Einnahmequellen erschlossen werden, die dann z.B. die Konsumierenden direkt betreffen könnten. Mit der Benutzung von AdBlockern schneidet man sich letztlich ins eigene Fleisch, weil man die Finanzierung der interessanten Inhalte gefährdet.

Aus einer anderen Perspektive besteht Werbung aus Inhalten, die ohne Anbindung an andere Inhalte nicht wahrgenommen würden. Werbung kann auf dem Markt der Aufmerksamkeit alleine selten bestehen (natürlich gibt es Ausnahmen) und wird den Konsumierenden deshalb in allen erdenklichen Formen aufgezwungen. Warum sollte ich mich gegen diesen Zwang nicht wehren dürfen? Wer eine Modezeitschrift aufschlägt, überblättert beim Lesen eines interessanten Artikels die ersten fünf bis zehn Seiten, die nur Werbung enthalten. Die Aufforderung, einen AdBlocker auszuschalten, ist, als würde man Menschen vorschreiben, wie sie eine Zeitschrift zu lesen hätten.

Ein interessantes Detail sind die technischen Möglichkeiten: Während es aufgrund der digitalen Kommunikation möglich ist, Anzeigen als solche zu erkennen und wegzufiltern – Stichwort Filtersouveränität -, ist es den Webseiten und Werbetreibenden wiederum möglich zu erkennen, welche Werbungen weggefiltert werden. In einem nächsten Schritt kann Werbung auch so gefiltert werden, dass das für Anbietende gar nicht mehr erkennbar ist. (Was natürlich nur dann relevant ist, wenn sich Portale unabhängig davon bezahlen lassen, ob mit den Anzeigen Interaktion stattfindet oder nicht.)

Die Anbieter der einschlägigen AdBlock-Software selbst argumentieren, sie seien Teil der Lösung, nicht der Problems – das Problem nämlich sei nicht die Werbung, sondern die Form der Werbung:

Wir sind uns vollkommen bewusst, dass Qualitätsjournalismus durch Werbung finanziert wird. Daher haben wir bereits im Jahr 2011 die Acceptable-Ads-Initiative ins Leben gerufen, um einen Kompromiss zwischen Internetnutzern und Verlagen zu finden. Werbung, die unaufdringlich gestaltet ist und von der Adblock Plus Community als „akzeptabel“ zertifiziert wurde, wird in den Standardeinstellungen des Werbeblockers nicht blockiert. Der Demokratiegedanke kommt bei unserer Community zum Tragen: Die Richtlinien für akzeptable Werbung legt diese selbst fest. Diese entscheidet, welche Anzeigen unaufdringlich und informativ sind und den Nutzern von Adblock Plus beim Surfen eingeblendet werden. Zertifizierte Werbung erreicht eine größere Reichweite und durchschnittlich 15 bis 20 Prozent mehr Klicks als die übliche, effekthaschende Online-Werbung in dieser Zielgruppe. Das Problem ist die Aufdringlichkeit der Online-Werbung, die am Wunsch der Nutzer vorbeigeht.

Bleibt man nüchtern, so gibt es für die Verlage keine Möglichkeit sicher zu stellen, dass erwünschte Inhalte mit unerwünschten zusammen konsumiert werden, weil digitale Werkzeuge die Trennung solcher Kopplungen erlauben.

Das größere Problem ist generell die Finanzierung von Inhalten im Internet. Und wenn man ehrlich ist, gibt es dafür keine Lösungen. Weder Paywalls noch die Forderung nach innovativen Strategien noch eine Internetsteuer, wie sie Jaron Lanier vorschlägt. Das ist ein echtes Problem, weil Menschen Geld brauchen, um Leben zu können, und es nicht mehr durch das Erstellen von Inhalten verdienen können. Aber auch das Abschalten von AdBlockern hilft nicht, das Problem zu lösen.

 

 

Wie Algorithmen unser Leben verändern werden

Niemand weiß, wie die digitale Welt in 10 Jahren aussehen wird. Während sich die westlichen Gesellschaften in den letzten 50 Jahren nur marginal verändert haben, ändern sich digitale Praktiken sehr schnell: Wir haben alle die Zeit erlebt, in der wir mit Pseudonymen im Internet aktiv waren – heute sind die meisten von uns mit unserem Namen präsent; ohne dass sich viele Menschen überlegt haben, warum das so sein könnte.

Blicke ich in die digitale Zukunft und damit auch in die Zukunft von Social Media, dann denke ich meist an Algorithmen oder Bots. Die Science Fiction war lange von Robotern geprägt, Menschen nachgebildeten Geräten, die vollautomatisch operierten. Man kann die Form und sogar die Materialität weglassen und einfach von »Handlungsvorschriften, die nach einem bestimmten Schema Zeichen umformen« sprechen – wie das Mercedes Bunz in ihrem hervorragend Buch Die stille Revolution tut. Gibt es solche Handlungsvorschriften, dann gibt es natürlich auch entsprechende Geräte, die sie ausführen können – ohne dass es Menschen dazu braucht. Im Jahre 2020 wird es zwischen 50 und 100 Milliarden Geräte mit Internetanschluss geben; die alle Gegenstände und Lebewesen verwalten, nachverfolgen und orten können, die mit einem RFID-Chip ausgestattet sind. Schon 2007 gab es einen solchen Chip, der so klein wie ein Staubkorn war. Bunz spricht in ihrem Buch davon, dass diese Erkenntnis sofort zu einem Reflex führt, dass man an die totale Überwachung denkt – natürlich nicht zu Unrecht:

Wir sehen nur, wie eine bestimmte Technik in einem historischen Moment  eingesetzt wird, und vergessen darüber, dass man damit auch noch ganz andere, bessere Dinge anstellen könnte. Konzentrieren wir uns noch einmal auf den wesentlichen Aspekt des Internets der Dinge: Es erlaubt uns, Projekte, für die wir neben Menschen und Informationen auch materielle Gegenstände und Räume brauchen, wesentlich schneller, leichter und vor allem kostengünstiger zu organisieren. […] damit verlieren die großen, hierarchischen, über Mitgliedsbeiträge, Steuergelder oder die von Aktionären bereitgestellten Mittel finanzierten Institutionen des Industriezeitalters ihr Monopol auf Unternehmungen eines bestimmten Ausmaßes oder Komplexitätsgrades. (156)

11cdb0163e4211e2b62722000a1fbc10_7

Während Bunz die Revolution der Algorithmen parallel zur Industrialisierung in einem gesamtgesellschaftlichen Rahmen beschreibt, möchte ich etwas konkreter zeigen, was Algorithmen für unseren digitalen Alltag bedeuten und wie sie heute – vielfach unbemerkt – schon präsent sind. Ich tue das anhand von sechs Beispielen, die ich kommentiere.

  1. Algorithmen in Smartphones erkennen heute automatisch, wie hell sie den Bildschirm stellen müssen, damit wir ihn lesen können; bemerken, ob wir auf den Screen schauen und wie wir das Gerät halten. Sie lernen unser Tipp- und Schreibverhalten und verbessern unsere Fehler automatisch. Sie schlagen uns Musik und Apps vor, die wir wahrscheinlich mögen. Sie kennen unsere Kontakte, wissen, wie und worüber wir mit ihnen kommunizieren.  Sie verbessern unsere Bilder automatisch. Wir werden nicht lange auf die ersten Optionen in sozialen Netzwerken warten müssen, die es erlauben, dass automatisch interessante Statusmeldungen, Bilder oder Videos gepostet werden. Schließlich können Algorithmen problemlos erkennen, nach welchen Mustern wir handeln. Unsere Smartphones werden unsere Umwelt wahrnehmen und in der Lage sein, Ausschnitte daraus zu teilen.
    Während wir heute nur noch in der Lage sind, etwas Bedeutsames zu erleben, wenn wir es digital festhalten, werden Algorithmen diese Aufgaben so für uns übernehmen können, dass wir die maximale Aufmerksamkeit unserer Kontakte erhalten. 
  2. Unsere Kontakte könnten bereits heute problemlos Algorithmen oder Bots sein. Mithilfe der im Internet verfügbaren menschlichen Äußerungen können Algorithmen selbständige Facebook-Profile füllen und mit anderen Usern zu interagieren. Spricht uns jemand Unbekanntes im Internet an, können wir heute nicht sagen, ob dahinter eine Person oder ein Bot steckt. Diese Unsicherheit wird zunehmen, wenn z.B. Unternehmen für die Kundenberatung etc. Algorithmen im großen Stil einsetzen, die menschliches Verhalten imitieren und so nicht als solche zu erknnen sind.
  3. Algorithmen können für uns Routinearbeiten erledigen. Sie werden dabei immer besser in der Lage sein, von uns zu lernen: Wir zeigen ihnen zwei, drei Mal, was wir machen wollen, uns sie führen den Schritt dann selbständig aus. Dadurch werden viele Arbeitsschritte ihre Bedeutung und ihren Wert verlieren; geistige Arbeit wird davon stark betroffen sein, vor allem, wenn sie aus Routinearbeiten besteht. Betrachten wir nur Berufe, die mit Büchern zu tun haben: Jeder Buchhändler und jede Bibliothekarin ist heute durch einen Algorithmus ersetzbar. Sie finden Bücher nicht nur schneller, sondern können relevante Passagen zitieren (Amazon sammelt für jede Buch die Passagen, die am häufigsten angestrichen werden) – und zwar aus allen Büchern. Zudem können sie Leserinnen und Leser anhand ihrer Lektüreerfahrungen besser einschätzen.
  4. Überhaupt sind Algorithmen fast in jeder geistigen Tätigkeit Menschen überlegen, die nicht hochtalentiert und enorm erfahren sind. Das zeigt sich sowohl am Schachspiel wie auch beim Pokern. Wettkämpfe sind nur noch möglich, wenn sicher gestellt werden kann, dass Algorithmen keine Rolle spielen. Damit ist auch gezeigt, dass Algorithmen uns Menschen verbessern werden. Sie werden unsere Schwächen kompensieren wie eine Brille das tut. Viele Menschen nutzen heute komplexe Computer mit schlauen Algorithmen, um ihr Gehör zu verbessern. Aus diesen Hörgeräten werden bald Denkgeräte entstehen, die verhindern, das wir vergessen, was wir nicht vergessen wollten, dass wir abschweifen, wenn wir uns konzentrieren wollen.
  5. Algorithmen werden Medien in andere umwandeln. Sie werden uns Texte vorlesen, bildlich darstellen oder Gehörtes verschriftlichen, wenn wir das wünschen. Sie werden Sprachen in andere übersetzen, in real-time und ohne Kosten. Sie werden unsere Gesten besser verstehen, als wir das heute können: Erkennen, wann Babys zur Toilette müssen, wann sie Schmerzen haben.
  6. Bereits heute finden wir Informationen nur noch dank Algorithmen. Google zeigt uns, was wir finden wollen – und zwar anhand von verschiedener, automatischer Abläufe, die unser Suchverhalten, das andere Menschen sowie weitere Kriterien berücksichtigen. Die Technik der Google-Suche kann an beliebigen Orten eingesetzt werden. Nehmen wir die iPad-Menukarte im Restaurant: Sie kann uns problemlos Vorschläge aufgrund unseres Essverhaltens sowie den Vorlieben anderer Menschen machen, kombiniert mit Preisüberlegungen, Wartezeit etc.

Algorithmen werden unbemerkt unverzichtbar werden. Heute können wir die Geräte eine Weile weglegen und ohne sie leben. Bald wird uns das so wünschenswert erscheinen, wie ohne Kleider aus dem Haus zu gehen. Auch das könnten wir, es ist aber nicht nur sozial geächtet, sondern auch meist sehr unbequem.

Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com
Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com

In seinem Buch Gadget hält Jaron Lanier fest, dass unsere Unfähigkeit, online zwischen Mensch und Algorithmus zu unterscheiden, eine Reduktion unseres Menschenbilds zeigt: Wir erwarten von einem Menschen nicht mehr als von einem Algorithmus. Das ist eine Sicht. Lanier behauptet, nur Menschen könnten Bedeutungen hervorbringen. Das darf stark bezweifelt werden: Bald werden uns vollautomatisch erstellte Bilder, Texte und Videos zu Tränen rühren und lachen machen, weil Algorithmen wissen, was für uns lustig ist und was berührend. Mit uns werden auch Algorithmen lachen und weinen – weil sie gelernt haben, wann Menschen das tun.

Die Digitalisierung bietet uns heute die Möglichkeit, eine andere Zukunft zu gestalten. Und aus ihr wird, was wir aus ihr machen. (160)

So der optimistische Schluss von Bunz‘ Buch. Unklar ist, wer wir sein werden, die diese Zukunft gestalten: Gibt es in zehn Jahren noch ein Ich ohne Hilfsmittel? Und: Wäre das zu bedauern?

 

Rezension: Jaron Lanier – Gadget

»Warum die Zukunft uns noch braucht«, lautet der deutsche Untertitel von Jaron Laniers Buch »Gadget« – auf englisch trägt es den Befehl »You are not a Gadget!« als Titel. Wir, die Lanier mit »uns« meint, oder eben seine Leserinnen und Leser (»you«) – das sind Menschen. Das Buch ist eine Verteidigung des Menschen, der Person – gegenüber der Zumutungen der Ideen, die hinter Social Media stehen. Lanier rechnet mit dieser Kritik – das merkt man dem Buch deutlich an – mit einer Kultur ab, in der er sich auch bewegt: Dem Denken der Menschen im Silicon Valley, das in einem Widerspruch gefangen ist: Einem Widerspruch zwischen den Mechanismen der kapitalistischen Wirtschaftsordnung, die entwicklungsfreudigen und technologiegläubigen Menschen ein komfortables Leben ermöglichen – und dem Anspruch, Menschen aus den Zwängen des Geldes zu befreien, Informationen frei zugänglich zu machen.

Seine Ideen beschreibt Lanier mit farbigen philosophischen Fachbegriffen, die er aufbläst wie Ballone, um damit ganz vieles zu meinen – Spirituelles, Wirtschaftliches, Moralisches. Von diesen drei Sphären aus geht eine Gefahr für die Menschen  aus, wie Lanier in den ersten Teilen seines Essays darlegt. Im letzten Teil entwickelt er dann seine Vision, was die virtuelle Realität, der Begriff, als dessen Erfinder Lanier bekannt geworden ist, im positiven Sinne leisten könne.

Ich werde zuerst die interessanten Aspekte von Laniers Kritik zusammenfassen und dann kurz auf seine Vision eingehen. Ich beziehe mich ausnahmsweise auf die deutsche Übersetzung von Michael Bischoff.

Lanier wendet sich gegen eine Ideologie, die er »digitalen Maoismus« oder »kybernetischen Totalitarismus« nennt (30). Sie misst Netzwerken einen großen Wert zu und organisiert Individuen zu Schwärmen, die Leistungen erbringen. Dabei wird der Mensch als Person vernachlässigt – dabei, so Lanier, »haben nur Menschen Sinn und Bedeutung« (30). Seine Belege: Menschen verhalten sich online rücksichtslos, weil sie nicht als Personen wahrgenommen würden – die Finanzwirtschaft basiert nicht auf echter Wertschöpfung, sondern auf Manipulationen von Netzwerken und Informationen – die Musikkultur ist verarmt – es gibt keine lebendige Spiritualität mehr.

Lanier fordert die Menschen auf, ihre Persönlichkeit mit digitalen Mitteln auszudrücken: Auf Pseudonyme und Nicknamen zu verzichten, als Person aufzutreten und seine Persönlichkeit auszudrücken – hier Laniers eigene Webseite, aufwändige Inhalte erstellen, in die man viel Zeit investiert (Blogposts, Videos) und die das Innere zum Ausdruck bringen.

Eine der interessantesten Passagen von Laniers Buch ist seine Interpretation des Turing-Tests. Der Test fordert eine Person aus, mit zwei »Personen« zu chatten oder ein Gespräch zu führen. Eine der »Personen«, im Bild A, ist ein Computer/Algorithmus, der sich als Mensch ausgibt, die andere eine echte Person.

Turing stellte die These auf, dass Computer dann menschliches Bewusstsein erlangt hätten, wenn nicht mehr zu beurteilen ist, wer Mensch und wer Computer ist. Lanier bettet den Text zunächst historisch ein und hält fest, dass er auf einem viktorianischen Gesellschaftsspiel beruhte, bei dem sich die Frage stellte, wer Mann und wer Frau ist (47). Zudem habe Turing aufgrund der Einnahme weiblicher Hormone (eine verordnete Behandlung »gegen« seine Homosexualität) weibliche Geschlechtsmerkmale entwickelt – so dass er eigentlich die Person war, von der nicht mehr zu sagen gewesen wäre, ob sie Mann oder Frau (oder eben: Mann oder Computer) gewesen sei.

Laniers clevere Bemerkung ist aber die, dass der Turing Test zwei Dinge gleichzeitig misst: Das Verhalten von A und B – aber auch die Anforderung, die C an menschliches Verhalten stellt. Wenn z.B. schulische Leistungen nur noch in Bezug auf standardisierte Tests, also Algorithmen, gemessen werden, dann wird menschliches Verhalten bald so beurteilt, wie man die Leistung von Computern einschätzt.

Lanier besteht aber auf der Einzigartigkeit des menschlichen Denkens und der menschlichen Kreativität: Beides könne weder durch eine Masse von Menschen ersetzt noch durch Computer geleistet werden. Das bleibt während des ganzen Buches eine diffuse Behauptung, eine Art Glaubenssatz Laniers (»Wenn sich herausstellen sollte, daß der individuell menschliche Verstand über Eigenschaften verfügt…«, S. 73).

Überzeugend ist aber seine Kritik am Design von Social Media: Viele seiner negativen Eigenschaften (z.B. Vereinfachung von Mobbing-Prozessen und Übergriffen, Preisgabe der der Privatsphäre, Verlust der Individualität) seien nicht einfach kleine Fehler, die sich mit der Zeit beheben ließen, sondern fundamentale Eigenschaften eines Designs, das kaum mehr sichtbar sei. Menschen passten sich den Vorgaben an und verhielten sich so, wie es die »Gadgets« von ihnen verlangten: »[D]iese neue Woge eines Gadget-Fetisischmus ist eher von Angst als von Liebe getrieben. […] der reduzierte Inhalt dieser Kommunikation wird am Ende zur Wahrheit des betreffenden Menschen.« (99f.)

Auch die wirtschaftliche Kritik an den neuen Medien und ihren Folgen basiert auf einer Kritik eines wichtigen Konzept: Der Bedürfnispyramide Maslows.

Bedürfnispyramide. Quelle: http://localproduction.net/

Lanier zitiert Maos Vorstellung, nur diejenigen Arbeitsleistungen verdienten einen Lohn, die Bedürfnisse befriedigten, die auf der Pyramide unten stünden: Also Menschen ernährten oder ihnen Sicherheit gewährten. Alle anderen Tätigkeiten, welche aufgrund der wirtschaftlichen Verbesserungen im 19. und 20. Jahrhunderts vielen Menschen ermöglichten, damit ihren Lebensunterhalt zu verdienen, sollten Mao zufolge nicht entschädigt werden. Die »Open-Culture-Bewegung«, so Lanier (109f.), führe dazu, dass diese Vorstellung eine neue Bedeutung erhalte: Wenn kulturelle Produkte nur noch gratis geteilt würden, dann könnte man damit kein Geld verdienen und Menschen wären auf andere Aktivitäten angewiesen, um sich Lebensnotwendiges leisten zu können. Die Entwertung der Kultur führe zu einer Entwertung all dessen, was »menschlich« sei – worauf die Menschheit in einem »dunkles Zeitalter« (113) zurückfiele.

Lanier zeigt das mit einer ausführlichen Analyse des Musikmarktes und mit der Beobachtung, dass der zentrale Widerspruch der Social Media-Ideologie an der Werbung sichtbar wird: Social Media macht Werbung eigentlich obsolet.

Ein funktionierendes, aufrichtiges, auf der Weisheit der Vielen basierendes System sollte bezahlte Überredung eigentlich ächten. Wenn die Vielen so weise sind, sollte eigentlich jeder einzelne in der Lage sein, bei der Hausfinanzierung, bei der Wahl der Zahnpasta und auf der Suche nach einem Partner optimale Entscheidungen zu treffen. Diese ganze bezahlte Überredung sollte irrelevant sein. Jeder Penny, den Google verdient, beweist, daß die Vielen gescheitert sind – und Google verdient eine Menge Pennies. (115)

Der Ausweg, den Lanier weist, ist recht einfach: Er fordert eine Kostenpflicht fürs Internet. Der Bezug von Informationen müsse etwas kosten – ganz, ganz wenig. Das Geld erhielten die, welche Informationen anbieten, am besten über eine staatlich finanzierte Infrastruktur. Wer diesen Blogpost liest, würde mir einen Cent, vielleicht weniger überweisen. Mit dieser an etablierte Mechanismen in der Kulturindustrie angelehnten Idee wäre es weiterhin möglich, mit Ideen, Kreativität, menschlichen Tätigkeiten Geld zu verdienen – was letztlich dazu führt, dass Menschen dies weiterhin tun würden.

Gerade in Bezug auf Schule hat Lanier durchaus Recht: Das Privileg, Schülerinnen und Schüler entschädigt unterrichten zu dürfen, ist ein Auslaufmodell. Individuelle Bildung ist über angepasste Netzwerke und mit Video-Tutorials (z.B. von der Kahn Academy) problemlos möglich, Lehrpersonen und Peers bieten ihre Leistungen kostenlos an. Warum müsste man sie also weiterhin bezahlen?

Daran sieht man, wie stark Lanier in die Zukunft denkt. Auch wenn einige seiner Beobachtungen der heutigen Funktionsweise von Social Media polemisch oder falsch sein mögen, seine Analyse der zugrunde liegenden Ideologien zumindest begrifflich äußerst blumig ist und seine Vorstellungen von Spiritualität und dem Wesen einer »Person« diffus: Er zeigt die Fluchtpunkte der Entwicklungen auf, die wir erst als beginnende wahrnehmen.

Das sieht man auch an seinen Interessen und Projektvorschlägen, die von einer Mathematisierung der Finanzinstrumente bis zur Entwicklung einer post-symbolischen Kommunikation reichen – also der Möglichkeit, sich zu verwandeln, um kommunizieren zu können, ohne dass mithilfe von Symbolenetwas gesagt oder geschrieben werden muss. Diese Idee soll nicht mehr beschrieben, sondern mit einem wunderschönen Video unterlegt werden, auf das sich Lanier bezieht: