In einem großen Artikel verkündet die New York Times nichts weniger als das Ende der Privatsphäre. Gemeint sind Gesichtserkennungsverfahren, die in den USA zunehmend von Behörden eingesetzt werde. Clearview AI bietet eine Dienstleistung an, welche Bilder aus dem Internet in entsprechende Datenbanken einspeist. Die resultierende Angst: Weil es von uns allen Bilder im Netz gibt, werden wir nie mehr unerkannt sein. Im Artikel werden Google-Glass-ähnliche Brillen beschrieben, welche es erlauben würden, auch im öffentlichen oder privaten Raum alle Menschen über die Datenbank identifizieren lassen.

Was in dieser Argumentation passiert, ist problematisch: Eine Kritik an Praktiken von Behörden wird mit der Vorstellung verbunden, Technologie wirke wie Magie. Das ist ein Muster: Nach der Wahl Trumps verbreitete sich die Vorstellung, die Firma Cambridge Analytica habe der Wahlkampagne geholfen, über Facebook-Daten Persönlichkeitsprofile zu erstellen und Menschen dann gezielt zu manipulieren.
Der CA-Skandal hat zwei massive Probleme aufgedeckt:
- Facebook hat Daten an kommerzielle (politische, militärische) Projekte weitergegeben, ohne die Benutzer*innen zu informieren oder ihr Einverständnis einzuholen.
- Politische Werbung wurde in sogenannten Dark Ads auf eine intransparente, kaum nachvollziehbare Weise nur spezifischen Zielgruppen angezeigt.
Das sind die beiden entscheidenden Punkte. Die Vorstellung, CA könnte mit Persönlichkeitsprofilen gezielt Menschen manipulieren, ist hingegen stark übertrieben wenn nicht schlicht falsch.
Ganz ähnlich läuft die Diskussion zu Gesichtserkennung und Clearview AI. Wiederum gibt es zwei klare Probleme:
- Gesichtserkennung funktioniert nicht gut. Die aktuell verwendeten Systeme weisen hohe Fehlerquoten auf und diskriminieren beispielsweise PoC massiv (weil Fehler größer werden).
- Gesichtserkennung basiert auf Daten, über deren Erhebung Betroffene nicht informiert wurden; auch Consent wurde nicht eingeholt. (Das ist gerade das Problem von Clearview AI: Daten werden mit kommerziellen Absichten aus dem Internet gezogen, ohne dass Betroffene informiert werden oder das verhindern könnten.)
Man kann die Probleme gut mit Fingerabdrücken oder DNA-Proben vergleichen: Menschen, die in europäischen Rechtsstaaten leben, sollten wissen, wann Fingerabdrücke oder DNA-Proben von Behörden gespeichert werden (das ist Punkt 2.). Die Identifikation über Fingerabdrücke oder DNA-Proben ist nahezu fehlerfrei (das in Punkt 1.). Bei Gesichtserkennung sind beide Kriterien nicht gegeben: Ich kann also über ein System falsch identifiziert werden, indem Bilder verwendet werden, von deren Speicherung ich nichts weiß. Dabei entsteht ein drittes Problem: Behörden geben vor, aus Sicherheitsgründen Datenschutzregeln missachten zu dürfen. Das ist nicht korrekt: Solche Befugnisse müssen Behörden per Gesetz erhalten, in fast allen Fällen gibt es dabei keinen Grund, Betroffene nicht zu informieren.
Im kritischen Tech-Journalismus wird das Problem aber mit einem ganz anderen Frame-Dargestellt: Eine dystopische Science-Fiction-Angst gibt vor, die Systeme würden viel besser funktionieren, als sie es tatsächlich tun. Das Problem ist nicht, dass die Systeme so gut funktionieren, sondern dass sie gerade nicht gut funktionieren.
Mein Wunsch wäre, dass Verantwortliche Wege finden, konkrete Probleme zu benennen, ohne sie durch den Einbezug von großen Ängsten emotionalisieren zu müssen.



















