Das Google-Urteil: Recht auf Vergessen oder eine Welle der Zensur?

Letzte Woche hat der Europäische Gerichtshof EuGH ein für Google bedeutsames Urteil erlassen. Die Schlüsselpassage lautet wie folgt:

Durch die Tätigkeit einer Suchmaschine können die Grundrechte auf Achtung des Privatlebens und Schutz personenbezogener Daten somit erheblich beeinträchtigt werden, und zwar zusätzlich zur Tätigkeit der Herausgeber von Websites; als derjenige, der über die Zwecke und Mittel dieser Tätigkeit entscheidet, hat der Suchmaschinenbetreiber daher in seinem Verantwortungsbereich im Rahmen seiner Befugnisse und Möglichkeiten dafür zu sorgen, dass […] ein wirksamer und umfassender Schutz der betroffenen Personen, insbesondere ihres Rechts auf Achtung ihres Privatlebens, tatsächlich verwirklicht werden kann.

Kurz: Google muss Einträge entfernen, die den Schutz des Privatlebens von klagenden Personen verletzen – auch wenn die betreffenden Informationen im Netz weiterhin verfügbar sind. Im konkreten Fall ging es um einen Spanier, der in einer Zeitung im Zusammenhang mit einer zwangsversteigerten Immobilie genannt worden war. Die von der Zeitung verbreitete Information entsprach der Wahrheit: Nur wurde sie von Google allen verfügbar gemacht, die sonst kaum das Archiv der entsprechenden Zeitung durchforstet hätten.

Solche Informationen gab es schon immer. Amtliche Dokumente halten unliebsame Prozesse, Verwaltungsakte etc. von Menschen während ihrem ganzen Leben fest, nur fielen die vor der Google-Ära unter die so genannten »practical obscurity«: Nur wer mit hohem Aufwand und Kompetenz nach diesen Informationen sucht, findet sie. Für alle anderen sind sie verborgen. 

Das Urteil zeigt, dass Erinnerung und Vergessen gesellschaftlich relevante Themen sind, die nicht nur durch Technologie und Rechtssprechung Veränderungen erfahren können, die ungewollt und ungeplant sind.

Zeynep Tufekci verweist zu Recht auf den Genozid in Ruanda, während dessen Bewältigung die Kastenzugehörigkeit zu einem Tabu wurde: Ein kollektiver Prozess des Vergessens oder Verdrängens ersetzte die Praxis der belgischen Kolonialbehörden, die Kastenzugehörigkeit auf Ausweisen zu notieren – was letztlich den Genozid administrativ möglich machte.

Diese Überlegung zeigt, zwei wichtige Einsichten:

  1. Gesellschaften sollten sich nicht technologisch ausserstande setzen, Vergessen zu ermöglichen, weil davon ihr friedliches Zusammenleben abhängen kann.
  2. Informationen sind nicht neutral und Transparenz nicht kontextlos wertvoll.

Gleichzeitig ist das »Recht auf Vergessen« aber auch kein klares Konzept. Während es Tendenzen gibt, im Strafrecht dieses Vergessen ganz auszusetzen (zentrale Register von Straffälligen), wünschen sich viele Menschen ein Netz, in dem Sie Missliebiges auf Knopfdruck löschen können. Wer welche Information wo publiziert ist aber zunächst – und das ist eine große Errungenschaft – Gegenstand der Meinungäußerungsfreiheit und als solcher außerhalb der Zuständigkeit des Staates. Der Schweizer Datenschützer, Hanspeter Thür, äußerte sich zum Urteil wie folgt:

Mit dem EuGH-Urteil wird aus Sicht von Thür keine Zensur im Internet betrieben. Wenn Google auf Anfrage Links entferne, werde die Information im Internet nicht gelöscht. Gelöscht werde lediglich die von Google hergestellte Verknüpfung, betonte der oberste Schweizer Datenschützer. Die Suche nach einer bestimmten Information im Internet werde dadurch erschwert, aber nicht verhindert.

Diese Sicht umgeht die Frage nach den Kriterien für eine Löschung elegant, indem sie vorgibt, Google müsste alle Informationen löschen, wenn Menschen dazu einen Antrag stellen. Die Konsequenzen wären absurd: Bald würden Wikipedia-Einträge, Bücher, Zeitungsseiten nicht mehr gefunden, weil Menschen aus eingebildeten oder realen Nöten eine Löschung im Suchindex beantragt haben. Und warum sollte dieses Recht dann nur Google betreffen und nicht jede Suche im Netz, also beispielsweise auch die auf Newsportalen, in Facebook oder Wikipedia?

Und wenn es Kriterien für die Löschung gäbe: Müssten die nicht sinnvollerweise mit denen identisch sein, die zu einer Löschung der betreffenden Informationen nach Landesrecht führen? Heißt: Könnte ich eine Zeitung in der Schweiz rechtlich dazu bringen, einen Artikel über mich zu löschen – dann muss Google auch dann mitziehen, wenn der Artikel im Ausland erschienen ist.

Die juristische Umsetzung des Urteils wird den Weg weisen. Die Vorstellung, die »practical obscurity« würde zurückkehren und es wäre eine gute Sache, wenn die Menschen mit Zugang zu den nötigen Ressourcen und Suchalgorithmen alle Informationen einsehen könnten, während alle anderen eine staatlich zurechtgestutzte Suchmaske verwenden dürfen, scheint allerdings naiv. Die relevanten Probleme im Umgang mit Informationen sind sozial, nicht technisch, wie auch Per Urlaub in einem Kommentar für die Welt festhält:

Natürlich müssen wir uns vor den Gefahren der digitalen Permanenz schützen, aber nicht auf Kosten des freien Informationszuganges. Was wir brauchen, ist nicht ein Recht auf Vergessen, sondern eine Kultur der Vergebung. Dazu gehört auch ein gelassener Umgang mit der Tatsache, dass gerade die kreativsten, produktivsten und engagiertesten Menschen komplexe Leben führen, wo Privates gerne auch mal in Konflikt mit bürgerlicher Wunschvorstellung steht.

Durch eine solche menschlichere Sichtweise würde eine 15 Jahre alte Zeitungsnotiz über eine Grundstücksversteigerung ebenso zur Petitesse wie das jugendlich-leichtsinnige Selbstporträt mit Haschpfeife und Bikini auf der Facebook-Seite der Jurastudentin.

BnnKnViIEAAQcgX

 

 

 

Wie Algorithmen unser Leben verändern werden

Niemand weiß, wie die digitale Welt in 10 Jahren aussehen wird. Während sich die westlichen Gesellschaften in den letzten 50 Jahren nur marginal verändert haben, ändern sich digitale Praktiken sehr schnell: Wir haben alle die Zeit erlebt, in der wir mit Pseudonymen im Internet aktiv waren – heute sind die meisten von uns mit unserem Namen präsent; ohne dass sich viele Menschen überlegt haben, warum das so sein könnte.

Blicke ich in die digitale Zukunft und damit auch in die Zukunft von Social Media, dann denke ich meist an Algorithmen oder Bots. Die Science Fiction war lange von Robotern geprägt, Menschen nachgebildeten Geräten, die vollautomatisch operierten. Man kann die Form und sogar die Materialität weglassen und einfach von »Handlungsvorschriften, die nach einem bestimmten Schema Zeichen umformen« sprechen – wie das Mercedes Bunz in ihrem hervorragend Buch Die stille Revolution tut. Gibt es solche Handlungsvorschriften, dann gibt es natürlich auch entsprechende Geräte, die sie ausführen können – ohne dass es Menschen dazu braucht. Im Jahre 2020 wird es zwischen 50 und 100 Milliarden Geräte mit Internetanschluss geben; die alle Gegenstände und Lebewesen verwalten, nachverfolgen und orten können, die mit einem RFID-Chip ausgestattet sind. Schon 2007 gab es einen solchen Chip, der so klein wie ein Staubkorn war. Bunz spricht in ihrem Buch davon, dass diese Erkenntnis sofort zu einem Reflex führt, dass man an die totale Überwachung denkt – natürlich nicht zu Unrecht:

Wir sehen nur, wie eine bestimmte Technik in einem historischen Moment  eingesetzt wird, und vergessen darüber, dass man damit auch noch ganz andere, bessere Dinge anstellen könnte. Konzentrieren wir uns noch einmal auf den wesentlichen Aspekt des Internets der Dinge: Es erlaubt uns, Projekte, für die wir neben Menschen und Informationen auch materielle Gegenstände und Räume brauchen, wesentlich schneller, leichter und vor allem kostengünstiger zu organisieren. […] damit verlieren die großen, hierarchischen, über Mitgliedsbeiträge, Steuergelder oder die von Aktionären bereitgestellten Mittel finanzierten Institutionen des Industriezeitalters ihr Monopol auf Unternehmungen eines bestimmten Ausmaßes oder Komplexitätsgrades. (156)

11cdb0163e4211e2b62722000a1fbc10_7

Während Bunz die Revolution der Algorithmen parallel zur Industrialisierung in einem gesamtgesellschaftlichen Rahmen beschreibt, möchte ich etwas konkreter zeigen, was Algorithmen für unseren digitalen Alltag bedeuten und wie sie heute – vielfach unbemerkt – schon präsent sind. Ich tue das anhand von sechs Beispielen, die ich kommentiere.

  1. Algorithmen in Smartphones erkennen heute automatisch, wie hell sie den Bildschirm stellen müssen, damit wir ihn lesen können; bemerken, ob wir auf den Screen schauen und wie wir das Gerät halten. Sie lernen unser Tipp- und Schreibverhalten und verbessern unsere Fehler automatisch. Sie schlagen uns Musik und Apps vor, die wir wahrscheinlich mögen. Sie kennen unsere Kontakte, wissen, wie und worüber wir mit ihnen kommunizieren.  Sie verbessern unsere Bilder automatisch. Wir werden nicht lange auf die ersten Optionen in sozialen Netzwerken warten müssen, die es erlauben, dass automatisch interessante Statusmeldungen, Bilder oder Videos gepostet werden. Schließlich können Algorithmen problemlos erkennen, nach welchen Mustern wir handeln. Unsere Smartphones werden unsere Umwelt wahrnehmen und in der Lage sein, Ausschnitte daraus zu teilen.
    Während wir heute nur noch in der Lage sind, etwas Bedeutsames zu erleben, wenn wir es digital festhalten, werden Algorithmen diese Aufgaben so für uns übernehmen können, dass wir die maximale Aufmerksamkeit unserer Kontakte erhalten. 
  2. Unsere Kontakte könnten bereits heute problemlos Algorithmen oder Bots sein. Mithilfe der im Internet verfügbaren menschlichen Äußerungen können Algorithmen selbständige Facebook-Profile füllen und mit anderen Usern zu interagieren. Spricht uns jemand Unbekanntes im Internet an, können wir heute nicht sagen, ob dahinter eine Person oder ein Bot steckt. Diese Unsicherheit wird zunehmen, wenn z.B. Unternehmen für die Kundenberatung etc. Algorithmen im großen Stil einsetzen, die menschliches Verhalten imitieren und so nicht als solche zu erknnen sind.
  3. Algorithmen können für uns Routinearbeiten erledigen. Sie werden dabei immer besser in der Lage sein, von uns zu lernen: Wir zeigen ihnen zwei, drei Mal, was wir machen wollen, uns sie führen den Schritt dann selbständig aus. Dadurch werden viele Arbeitsschritte ihre Bedeutung und ihren Wert verlieren; geistige Arbeit wird davon stark betroffen sein, vor allem, wenn sie aus Routinearbeiten besteht. Betrachten wir nur Berufe, die mit Büchern zu tun haben: Jeder Buchhändler und jede Bibliothekarin ist heute durch einen Algorithmus ersetzbar. Sie finden Bücher nicht nur schneller, sondern können relevante Passagen zitieren (Amazon sammelt für jede Buch die Passagen, die am häufigsten angestrichen werden) – und zwar aus allen Büchern. Zudem können sie Leserinnen und Leser anhand ihrer Lektüreerfahrungen besser einschätzen.
  4. Überhaupt sind Algorithmen fast in jeder geistigen Tätigkeit Menschen überlegen, die nicht hochtalentiert und enorm erfahren sind. Das zeigt sich sowohl am Schachspiel wie auch beim Pokern. Wettkämpfe sind nur noch möglich, wenn sicher gestellt werden kann, dass Algorithmen keine Rolle spielen. Damit ist auch gezeigt, dass Algorithmen uns Menschen verbessern werden. Sie werden unsere Schwächen kompensieren wie eine Brille das tut. Viele Menschen nutzen heute komplexe Computer mit schlauen Algorithmen, um ihr Gehör zu verbessern. Aus diesen Hörgeräten werden bald Denkgeräte entstehen, die verhindern, das wir vergessen, was wir nicht vergessen wollten, dass wir abschweifen, wenn wir uns konzentrieren wollen.
  5. Algorithmen werden Medien in andere umwandeln. Sie werden uns Texte vorlesen, bildlich darstellen oder Gehörtes verschriftlichen, wenn wir das wünschen. Sie werden Sprachen in andere übersetzen, in real-time und ohne Kosten. Sie werden unsere Gesten besser verstehen, als wir das heute können: Erkennen, wann Babys zur Toilette müssen, wann sie Schmerzen haben.
  6. Bereits heute finden wir Informationen nur noch dank Algorithmen. Google zeigt uns, was wir finden wollen – und zwar anhand von verschiedener, automatischer Abläufe, die unser Suchverhalten, das andere Menschen sowie weitere Kriterien berücksichtigen. Die Technik der Google-Suche kann an beliebigen Orten eingesetzt werden. Nehmen wir die iPad-Menukarte im Restaurant: Sie kann uns problemlos Vorschläge aufgrund unseres Essverhaltens sowie den Vorlieben anderer Menschen machen, kombiniert mit Preisüberlegungen, Wartezeit etc.

Algorithmen werden unbemerkt unverzichtbar werden. Heute können wir die Geräte eine Weile weglegen und ohne sie leben. Bald wird uns das so wünschenswert erscheinen, wie ohne Kleider aus dem Haus zu gehen. Auch das könnten wir, es ist aber nicht nur sozial geächtet, sondern auch meist sehr unbequem.

Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com
Von Algorithmen erstellte Kunst. Don Relya, donrelyea.com

In seinem Buch Gadget hält Jaron Lanier fest, dass unsere Unfähigkeit, online zwischen Mensch und Algorithmus zu unterscheiden, eine Reduktion unseres Menschenbilds zeigt: Wir erwarten von einem Menschen nicht mehr als von einem Algorithmus. Das ist eine Sicht. Lanier behauptet, nur Menschen könnten Bedeutungen hervorbringen. Das darf stark bezweifelt werden: Bald werden uns vollautomatisch erstellte Bilder, Texte und Videos zu Tränen rühren und lachen machen, weil Algorithmen wissen, was für uns lustig ist und was berührend. Mit uns werden auch Algorithmen lachen und weinen – weil sie gelernt haben, wann Menschen das tun.

Die Digitalisierung bietet uns heute die Möglichkeit, eine andere Zukunft zu gestalten. Und aus ihr wird, was wir aus ihr machen. (160)

So der optimistische Schluss von Bunz‘ Buch. Unklar ist, wer wir sein werden, die diese Zukunft gestalten: Gibt es in zehn Jahren noch ein Ich ohne Hilfsmittel? Und: Wäre das zu bedauern?

 

Anleitung: Daten aus Social Media archivieren

Setzt man Social Media als Tool für Wissensmanagement ein – z.B. um wichtige Links kommentiert abzulegen, eigene Gedanken zu dokumentieren, Gelesenes zusammenzufassen und in Verbindung zu setzen etc. -, kommt man nicht umhin darüber nachzudenken, wie man seine Daten archivieren kann. Damit kann man einerseits sicher stellen, dass sie unabhängig von der Existenz der einzelnen Plattformen erhalten bleiben, andererseits sie mit anderen Mitteln bearbeiten und durchsuchen.

Im Folgenden eine kurze Anleitung, wie Daten der wichtigsten Plattformen gesichert werden können.

Facebook: Im Menu der Kontoeinstellungen gibt es die Option, ein Archiv der eigenen Daten herunterzuladen (Bild wird beim Klicken größer):

Die Standardoption beinhaltet eigentlich die wichtigsten Daten – wer aber komplett sehen möchte, was Facebook abspeichert (inklusive IP-Adressen etc.), kann auch ein erweitertes Archiv herunterladen:

Google: Google bietet für alle Dienste einen zentralen Download-Manger, der Google Takeout heißt: google.com/takeout. Dort ist es möglich, die Bilder aus Picasa, Videos von Youtube sowie alle Daten aus Google Drive runterzuladen, auch die Informationen aus Google+ sind abrufbar. Google bietet die Möglichkeit, alle Daten in einem Archiv oder sie einzeln ausgewählt zu speichern.

In Google Drive bzw. Google Docs ist es leicht möglich, nur einzelne Ordner zu speichern (um sie z.B. als Backup auf einer externen Harddisk oder auf einem anderen Cloud-Service wie Amazon oder Dropbox abzulegen). Man muss dazu Files markieren und kann dann mit der Option »herunterladen« im Menu »Mehr« auch auswählen, in welchem Format die Files runtergeladen werden sollen. Das ist praktisch, weil man so Googles etwas seltsames Format umgehen kann und ein gebräuchlicheres wie den Microsoft-Standard wählen kann:

Twitter:  Verantwortliche bei Twitter haben versprochen, bis Ende 2012 eine offizielle Möglichkeit anzubieten. Eine inoffizielle Möglichkeit bietet Tweetbackup an, dort können alle wesentlichen Daten runtergeladen werden.

Blogs: Praktisch alle Blogplattformen bieten die Möglichkeit an, die Daten zu exportieren. So entsteht ein brauchbares Archiv, bei WordPress im .xml-Format, das man auch bei anderen Plattformen wieder einspeisen könnte.

Instagram: Alle Instagram-Bilder können mit Instaport runtergeladen werden, in Zukunft ist es möglich, sie auch nach Flickr oder Facebook zu exportieren. (Das ist auch die offiziell empfohlene Vorgehensweise.)

Pinterest: Eine offizielle Möglichkeit gibt es nicht. Pin4Ever bietet eine Archivfunktion an, die jedoch bei mehrmaliger Benutzung kostenpflichtig wird.

Mit dem Dienst »If This Then That« (IFTTT.com) ist es einfach möglich, konstante Backups von Daten zu erstellen. Leider sind einige soziale Netzwerke bei IFTTT nicht mehr präsent, weil sie keine unlimitierten Zugriffe externer Apps erlauben (z.B. Twitter). Hier ein Rezept zum Speichern von Pinterest in der Dropbox.

* * *

 Eine allgemeine Bemerkung: Ich empfehle, alle wichtigen Daten dreifach zu sichern und zwar unabhängig voneinander. D.h. die Backups müssen unabhängig von Orten, Geräten und Anbietern sein. Ich verwende folgende Lösung:

  1. Backup auf externer Harddisk zuhause.
  2. Backup auf externer Harddisk am Arbeitsplatz.
  3. Backup auf Google Drive.
  4. Backup auf Dropbox.
  5. Bei wichtigen Projekten: Backup auf Memory-Sticks.

Damit ist der Zeitfaktor noch nicht berücksichtigt: Diese Methoden stellen nur sicher, dass der Zugriff auf die Daten gewährleistet ist, nicht aber, dass sie auch in 20, 50 oder 100 Jahren noch verwendbar sind.

Ich freue mich über weitere Tipps oder Fragen in den Kommentaren!

Was man aus der Petraeus-Affäre über Anonymität im Internet lernen kann

Ganz einfach: Anonymität gibt es im Internet nicht. Oder: Fast nicht.

Der ehemalige Direktor des amerikanischen Geheimdienstes CIA, David Petraeus, wurde am 9. November entlassen. Die Affäre ist äußerst kompliziert, wie man der folgenden Grafik entnehmen kann, ihre Hintergründe sind teilweise unklar.

 Klar ist: Im Mittelpunkt stehen Emails. Brisant ist das, weil das FBI die Affäre zwischen Petraeus und Broadwell in ihren Email-Spuren aufgedeckt hat – obwohl Petraeus Direktor des Geheimdienstes war, also hätte wissen können und wissen, wie man Spuren verhindert. Das Fazit wäre: Wenn Petraeus nicht heimlich per Mail verkehren kann, kann es wahrscheinlich niemand. Hier die entscheidenden Fakten, wie sie John Breeden II für GCN zusammengetragen hat:

  1. Bei verschickten Emails, werden viele IP-Adressen registriert und mitgeschickt. So sind die Absender in den meisten Fällen ermittelbar.
  2. Deshalb nutzen Terroristen einen Trick: Sie hinterlassen in Email-Konten nur Entwürfe, die dann von den Empfängern gelesen werden können (und gleich wieder gelöscht). So müssen keine Emails verschickt werden. Auch Petraeus und Broadwell haben diesen Trick verwendet.
  3. Google gibt Behörden recht freizügig Zugang zu Kontoinformationen (also auch Login-Informationen, d.h. wer hat sich wo und wann in ein Konto eingeloggt und was getan). Eine Übersicht bietet Google selbst in ihrem Transparency-Report (erste Jahreshälfte 2012: D: 1533 Regierungsanfragen, 39% erfüllt; CH: 82/68%).
  4. So hat sich das FBI auch Zugang zu Broadwells Konten verschafft – weil sie Jill Kelley per Mail belästigt hatte. Sie tat das zwar anonym und von einem Hotel aus, aber durch die Hoteldaten konnte das FBI ermitteln, wer zum gleichen Zeitpunkt in jedem der betreffenden Hotels war.

Breeden gibt Tipps, wie man vorgehen soll, wenn man im Internet anonym agieren (und Mails verschicken) will:

  • Mails ohne die originalen Header-Informationen (wie IP) verschicken. So genannte Remail-Services ersetzen die Header-Informationen, bieten aber wiederum Risiken, dass sie dazu dienen, Informationen zu sammeln. 
  • Online-Mail-Dienste nur über einen Proxy verwenden.
  • Sich nie von zuhause aus oder von Hotels aus einloggen, immer öffentliche Hotspots verwenden und jeden nur einmal. Entscheidend ist hier, ob man über den Hotspot identifizierbar ist oder nicht.
  • Cache und Cookie-Daten auf den (mobilen) Geräten sofort löschen – was nicht bei allen Geräten zuverlässig geht.
  • Nie gleichzeitig in ein anonymes und einen nicht-anonymes Konto einloggen.

Ich habe bereits hier einmal festgehalten, weshalb es im Internet keine Anonymität gibt: Wir hinterlassen, z.B. schon nur durch unseren Browser (Version, Betriebssystem, Plugin etc.) klare Spuren im Internet, die Rückschlüsse auf uns ermöglichen, auch wenn wir uns komplett anonym wähnen.

***Zusatz 16. November:***

Ich habe den Artikel leicht modifiziert. Der Kommentar von Torsten ist empfehlenswert, ebenso die Anmerkungen von Martin auf Google Plus.

Vorstellung: Me & My Shadow – Welche Spuren hinterlassen wir im Internet?

Die ästhetisch sehr ansprechende Website »Me & My Shadow« vermittelt sehr anschaulich Informationen über digitale Spuren, die wir im Internet hinterlassen. Die Seite gibt es leider nur auf Englisch, eine Lektüre der Texte und ein Durchlauf durch die interaktiven Angebote ist aber sehr lohnend.

 

 

Das Feature »Trace my Shadow« erlaubt es zu erfahren, welche Spuren man überhaupt im Internet hinterlässt – basierend auf einigen Nutzungsangaben. Danach ist es möglich, zu jeder Spur genauere Angaben zu erhalten.

Die Seite bietet auch die Möglichkeit, interaktiv zu erfahren, was die wesentlichen Punkte der EULA (»End User Licence Agreements« oder Allgemeine Geschäftsbestimmungen) von Online-Diensten sind, welche versteckten Datensammlungen damit legitimiert werden – siehe »Lost in Small Print«.

Die Betreiber der Seite beschreiben den Zweck ihres Angebots wie folgt:

Me and my shadow is a new initiative by Tactical Tech that will examine different aspects of the digital traces we leave behind us online. The project has developed out of a growing concern for the way that privacy issues are impacting social networking users and owners of online and mobile devices. These are important issues for everyone, but they have a particularly serious impact on rights and transparency advocates, independent journalists, and activists who can be targets of surveillance, censorship and control.
[Übersetzung phw:] »Me and my shadow« ist eine neue Initiative von Tactical Tech. Sie überprüft verschiedene Aspekte von digitalen Spuren, die wir online hinterlassen. Das Projekt ist aus der wachsenden Besorgnis entstanden, dass Privatsphärenprobleme Nutzer von Social Media und mobilen Geräten immer stärker beeinflussen. Dabei handelt es sich um wichtige Themen für jedermann, aber besonders für AktivistInnen im Bereich der Privatsphäre, unabhängige JournalistInnen und andere AktivistInnen, die das Ziel von Überwachung, Zensur und Kontrolle werden könnten. 

Social Media, ein Algorithmus oder ein redaktioneller Beitrag? – Zum Fall Bettina Wulff.

Bettina Wulff hat Google verklagt, weil die Suchmaschine mit seiner Autocomplete-Funktion im Zusammenhang mit ihrem Namen die Suchanfragen »Bettina Wulff Prostitutierte« und »Bettina Wulf Escort« vorschlägt.

 

Zur Klage gibt es zwei unterschiedliche juristische Einschätzungen, wie Wolfgang Michal auf Carta schreibt: Rechtsanwalt Thomas Stadler ist der Meinung, die Klage dürfte und dürfe keinen Erfolg haben, weil das Resultat eine Zugangserschwerung zu Suchdiensten und Informationen sei. Die vorgeschlagenen Suchanfragen würden zu Texten aus seriösen Medien führen, die nichts anderes besagte, als dass Frau Wulff verleumdet worden sei.

Die andere Seite wird vom Juristen Ernst Müller vertreten, der von Google verlangt, die redaktionelle Verantwortung für die Autocomplete-Funktion zu übernehmen – oder sie ganz auszuschalten. Ein zentrales Argument: Vielen Nutzern wird selbst bei der Eingabe »be« der »verleumderischen Ergänzungsvorschlag«angezeigt, ohne dass ein Interesse des Users an diesem Thema erkennbar wäre.

Wie auch immer diese Frage rechtlich zu beantworten ist: Für Suchmaschinenbenutzer ist unklar geworden, ob die Autocomplete-Funktion:

  1. die häufigsten Suchbegriffe anzeigt, die mit den eingegebenen Buchstaben beginnen
  2. Vorschläge einer Redaktion präsentiert, die eventuell auch gegen Bezahlung gewisse Begriffe häufiger einblendet oder andere ausblendet
  3. Resultate eines Alogrithmus darstellt, der bestimmte Prinzipien berücksichtigt, die nicht dokumentiert sind.

Diese Vermischung verschiedener Möglichkeiten begegnet uns im sozialen Netz häufiger: Wir wissen nicht, ob wir Texte oder Daten lesen, die Menschen generiert haben oder Maschinen – oder beliebige Mischformen.

Leistungsschutzrecht kurz erklärt

Am 29. August hat die Bundesregierung Deutschlands einen Gesetzesentwurf für ein so genanntes Leistungsschutzrecht für Presseverleger (pdf) beschlossen. Im Folgenden eine kurze Erklärung, was damit gemeint ist – gefolgt von einem Aufriss der dadurch entstandenen Kritik am vorgeschlagenen Gesetz.

Was bedeutet Leistungsschutzrecht?

Leistungsschutzrechte sind Teil des Urheberrechts – sowohl in Deutschland als auch in der Schweiz. Die auch »verwandte Schutzrechte« genannten Rechte schützen nicht die Urheber von Rechten, sondern künstlerische, wissenschaftliche oder gewerbliche Leistungen, die nicht die nötige Originalität aufweisen, um urheberrechtlichen Schutz zu erhalten. Konkret sind damit zum Beispiel folgende Leistungen gemeint:

  • Künstler treten mit Werken auf, die sie nicht selber geschaffen haben (z.B. Cover)
  • ein Buch wird in einer wissenschaftlichen Ausgabe aufbereitet und kommentiert
  • ein Film oder ein Tondokument wird durch die Veröffentlichung zugänglich gemacht.

Presseverlage machen – so die Idee des Leistungsschutzrechtes – journalistische Texte einer Öffentlichkeit zugänglich. Deshalb müssen sie für diese Leistung geschützt werden. Schutz hießt konkret: Wer ihre Leistung kommerziell nutzt, muss dafür eine Lizenz erwerben und bezahlen.

Gemeint sind damit Suchmaschinen und ähnliche Dienste. Betrachtet man ein Google-Suchergebnis, dann sieht man, dass Google sowohl auf die Texte von Online-Portalen verweist, als auch daraus zitiert (so genannte Snippets publiziert).

Damit nutzt Google die Leistung von Presseverlagen kommerziell, so die Idee des Leistungsschutzrechtes für Presseverleger. Google verdient sein Geld nämlich mit Werbung. Fährt Google nach der Einführung des Gesetzes fort, Suchergebnisse von Webseiten von Presseverlagen in dieser Art und Weise aufzubereiten, muss das Unternehmen die Verlage dafür entschädigen.

Ein Leistungsschutzrecht ist deshalb nötig, weil Google nicht gegen das Urheberrecht verstößt, zumal nur wenige Wörter zitiert werden, was das Urheberrecht zulässt.

Kritik am Leistungsschutzrecht

Obwohl der Gesetzesentwurf »andere Nutzer, wie z. B. Blogger, Unternehmen der sonstigen gewerblichen Wirtschaft, Verbände, Rechtsanwaltskanzleien oder private bzw. ehrenamtliche Nutzer« explizit ausschließt und sich nur auf Suchmaschinen und ähnliche Leistungen (gemeint ist z.B. das online Kulturmagazin Perlentaucher, das schon einen Nachruf mit dem Titel »Das Internet war eine Episode der Freiheit« publiziert hat) bezieht, stößt er auf heftige Kritik. Die fünf wichtigsten Aspekte in der Übersicht:

  1. Wer nicht bei Google erscheinen will, erscheint nicht bei Google.
    Verlage, die sich daran stören, dass Google ihre Texte abruft, können mit wenigen Klicks Google daran hindern, das zu tun. Die Verlage nutzen die Leistungen von Google freiwillig, niemand zwingt sie dazu, im Google-Index zu erscheinen.
  2. Die Verlage profitieren mehr von Google als Google von den Verlagen.
    Die Suchergebnisse von Presseverlagen machen etwas 10% der Google-Suchergebnisse in Deutschland aus. Bei den Presseportalen machen die über Google vermittelten Zugriffe aber 30-60% aller Zugriffe aus. D.h. ohne die Presseportale funktionierte Google weiterhin problemlos – die Presseportale verlören hingegen einen Großteil ihrer von Google vermittelten Zugriffe.
  3. Google erbringt eine andere Leistung als die Presseverleger.
    Zu sagen, Google nutze die Leistung der Presseverleger unentgeltlich, impliziert, Google sei auch eine Art Verlag. Google ist aber eine Suchmaschine. Die Werbeeinnahmen erhält Google nicht wegen seiner verlegerischen Leistung, sondern weil es hilft, relevante Links zu finden.
  4. Die Verlage werden durch das Leistungsschutzrecht nichts einnehmen.
    Das wahrscheinlichste Vorgehen der Suchmaschinenanbieter ist, die Presseverlage nicht mehr in ihre Suchergebnisse einzubinden. Dadurch verdienen die Verlage nicht nur nicht, sondern sie verlieren auch massiv Werbeeinnahmen durch fehlende Zugriffe. Sie schneiden sich ins eigene Fleisch, könnte man denken.
  5. Das Gesetz verhindert den freien Fluss der Information.
    Das Internet funktioniert mit Links, mit denen auf andere Informationen verwiesen wird. Darf man – egal in welchem Kontext – nicht verlinken, ohne dafür zu bezahlen, so hindert man Menschen daran, Informationen zu erhalten, die frei verfügbar wären. Das ist grundsätzlich unethisch.

Auch in der Schweiz wurde die Idee eines Leistungsschutzrechtes schon debattiert, am prominentesten wird es durch den Schaffhauser Verleger Norbert Neininger vertreten (NZZ August 2010, NZZ Juni 2012).

Ich verlinke nicht auf sämtlichen relevante Texte, eine lesenswerte Übersicht über die Reaktionen bietet aber irights.info.

Auch Sascha Lobos Analyse der politischen Hintergründe ist sehr lesenswert, zudem zeigt er, dass der Gesetzesentwurf andere, konstruktivere Massnahmen im Umgang mit der problematischen Monopolstellung von Google verhindert oder erschwert.

Den Page-Rank verstehen

Ich habe kürzlich dargestellt, warum es heute unabdingbar ist, zu verstehen, wie Google funktioniert – und wie man das in der Schule vermitteln könnte. Ein wesentlicher Bestandteil von Googles Technolgie und Funktionsweise ist der Page Rank, benannt nach Larry Page, der ihn zusammen mit Sergei Brin entwickelt hat.

Der Page Rank ist ein mathematisch komplexes Konzept – eignet sich deshalb für Mathematik-Leistungskurse oder Projekte für Begabte. Ein interessanter Zugang wäre der das Zufallssurfer-Modell.

Die Funktionsweise lässt sich aber sehr gut mit einer interaktiven Seite verstehen, die man hier abrufen kann. Dort erstellt man ein eigenes kleines Internet, in dem die Page Ranks aller Seiten sofort angezeigt werden.


Die PageRanks von beliebigen Seiten können mit Tools wie diesem leicht bestimmt werden, z.B. hat diese Seite hier den PageRank 2. Eine einfache Übung wäre, Schülerinnen und Schüler die PageRank-Werte der wichtiger Newsseiten zu vergleichen.

Wie eine Person gehackt werden kann und was man dagegen tun kann

Mat Honan ist Journalist bei Wired – einem Fachmagazin für digitale Entwicklungen und Technologie. Er ist, da darf man sicher sein, kein naiver Nutzer von Technologie. Seine Nutzung des Internets gleicht der vieler Menschen, die regelmäßig online sind: Er kaufte Bücher bei Amazon, hatte einen iTunes-Account, nutze das Mailprogramm von Google, war auf Twitter aktiv und speicherte viele seiner Daten in der so genannten Cloud – also auf einem Server, der übers Internet zugänglich ist.

Mat Honans Konten wurden alle gehackt, wie er selber schreibt – mit folgenden Konsequenzen:

  1. Sein Google-Konto wurde komplett gelöscht.
  2. Auf seinem Twitter-Konto wurden rassistische und homophobe Meldungen verbreitet.
  3. Sein Computer und sein iPhone wurden restlos gelöscht (Verlust von wichtigen Daten, u.a. allen Bilder seiner Tochter)

(1) Wie konnte das geschehen?

Die Hacker betrieben einen recht großen Aufwand und nutzen Schwächen im Sicherheitssystem. Anfällig waren Amazon und Apple, die beide Informationen an die Hacker herausgaben, die taten, als wären sie Honan, der sich nicht mehr in seine Konten einloggen konnte. Mit den jeweiligen Informationen war es möglich, auf beide Konten zuzugreifen. Das Apple-Konto war die Backup-Mailadresse für das Google-Konto und darüber konnten die Hacker Zugriff auf Google erlangen und damit auf Twitter zugreifen – das eigentlich Ziel: Sie sollten Honan öffentlich in Schwierigkeiten bringen.

Mit dem Apple-Zugriff kann man, wenn das eingerichtet ist, Computer und iPhones löschen – weil man das möglicherweise machen möchte, wenn die Geräte gestohlen werden.

(Diese Darstellung ist sehr knapp und vereinfacht – wenn jemand was Genaueres wissen möchte, bei Wired nachlesen oder in den Kommentaren nachfragen.)

(2) Kann das jeder und jedem passieren? 

Grundsätzlich schon. Wie gesagt: Der Aufwand muss sich lohnen. Hacker nehmen sich nicht 40 Stunden Zeit, um die Konton einer uninteressanten Person zu hacken. Aber falls sich was gewinnen lässt, ist niemand sicher.

(3) Das kann man dagegen tun

Apple und Amazon sind anfällig – man kann die Konten kaum besser schützen. Zudem ist es für dieses Problem irrelevant, wie gut die Passwörter sind – die wurden nicht geknackt, sondern umgangen. Was hilft ist, sind folgende Möglichkeiten, die nicht immer praktikabel sind:

  1. Email quasi jede Minute zu checken, dann würde man sehen, wenn Email mit temporären Zugangscodes eintreffen, die man selber nicht angefordert hat.
  2. Der Schutz von Google ist im Moment einer der besten im Netz – aber nur, wenn die sogenannten »2-Step-Verification« oder »Bestätigung in zwei Schritten« eingeschaltet ist: Dann erhält man jeweils eine SMS, mit der man sich dann definitiv einloggen kann. Niemand, der nicht das Mobiltelefon besitzt, kann sich ins Konto einloggen. Das Einschalten geht recht einfach, aber das Einrichten auf verschiedenen mobilen Geräten ist äußerst mühsam, finde ich.
  3. Die Konten nicht miteinander verbinden, d.h. als Backup-Email-Adresse nie eine aus einem anderen wichtigen Konto angeben (weil man sonst zwei Konten mit einem hacken kann).
  4. Alle Daten nicht nur in der Cloud, sondern auch auf Harddisk mit einem Backup speichern.

Für weitere Hinweise in den Kommentaren bin ich dankbar.