Das Problem der Moderation von Social-Media-Plattformen

Edit 7. Januar: Aufgrund längerer Diskussionen auf Twitter füge ich unten einen Lösungsvorschlag an und hier eine Präzisierung: Ich meine mit »Mastodon« im Folgenden nicht ein technisches Protokoll oder eine einzelne Instanz, sondern die miteinander verbundenen (föderierten) Instanzen, die gemeinsam eine Social-Media-Plattform bilden, indem sie User*innen die Möglichkeit bieten, Mastodon als Twitter-Alternative zu nutzen.

* * *

Im letzten Jahr sind viele Menschen von Twitter auf Mastodon umgestiegen. Mastodon wirkt für viele angenehmer: weniger kommerziell, nicht algorithmisch gesteuert, ohne politische Extreme, kleinräumige Communities mit eigenen Regeln.

Ich nutze aktuell Twitter und Mastodon. Dem Versprechen von Mastodon gegenüber bin ich aber skeptisch. Der Grund dafür ist das Moderationsproblem. Es besteht aus drei Teilen:

  1. Social-Media-Plattformen brauchen Moderation.
  2. Moderation kostet Zeit und damit Geld (weil die damit verbundene Arbeit bezahlt werden sollte).
  3. Moderation ist mit politischen Entscheidungen und Macht verbunden. Sie legt fest, wer in welchem Kontext was sagen darf (und mit welcher Reichweite bzw. Sichtbarkeit).

Eine Plattform muss also

  1. Eine Redaktion etablieren, die Moderation organisiert.
  2. Moderation finanzieren können.
  3. Transparente politische Entscheidungen fällen und einen Rahmen schaffen, in dem Macht nicht missbraucht werden kann.

Das sind keine trivialen Probleme. Die oft gescholtene Monetarisierung von Daten hängt damit zusammen, dass viele User*innen nicht bereit sind, für Moderation zu zahlen. Genauso sind politische Entscheidungen konstant umstritten und es ist enorm schwierig, sie in unterschiedlichsten Kontexten zu vertreten.

Mastodon verspricht, das Moderationsproblem zu lösen – obwohl es das gar nicht tut. Die Architektur des Netzwerks besteht aus der Verbindung von Servern, die jeweils lokalen Regeln folgen. Mein Account social.tchncs.de/@phwampfler ist auf dem Server social.tchncs.de gehostet, der von Milan Ihl betrieben wird. Er ist für die Moderation verantwortlich und kann Regeln festlegen, die auf seinem Server gelten. Diese gelten aber auf anderen Servern nicht. Er kann User*innen z.B. sperren, aber nicht verhindern, dass diese auf anderen Mastodon-Servern ein Konto erhalten.

Hinter Mastodon stehen zwei implizite Versprechen, die verdecken, dass es an Lösungen fehlt: Wenn kleine Server dezentral Moderation organisieren, dann wirkt es so, als würde sie nichts kosten und als würde das ein globales politisches Problem entschärfen. Das Versprechen wirkt auch deshalb, weil Verstöße gegen bestimmte Normen schlicht nicht sichtbar sind – es fehlt an Suchmöglichkeiten, wie hier am Beispiel von Kinderpornografie deutlich gemacht wird. Mastodon kennt keine funktionierende globale Suche und keine einheitlichen Regeln: Es zerfällt also in Sub-Netzwerke und ist als Plattform insgesamt kaum einzuschätzen. [Hier findet man eine Replik auf den oben verlinkten Text – sie sagt aber letztlich nur, dass Server den Kontakt zu anderen Servern kappen können und das auch (transparent) tun, wenn alles korrekt läuft.]

Die ideale Vorstellung, Server-Moderation werden als Dienstleistung bereitgestellt (zum Beispiel von öffentlich-rechtlichen Sendern), unterstütze ich durchaus. Nur: Ist das in einem Umfang denkbar, der allen Menschen weltweit einen Zugang ermöglicht? Lässt sich das auch dann finanzieren, wenn Mastodon wirklich ein Tool für die Breite wird?

Die andere Vorstellung, dass lokale Regeln (ohne Algorithmen) politische Entscheide entschärfen können, halte ich für naiv. Je wichtiger Mastodon als Plattform wird, desto perfider werden die Strategien, um auszunutzen, dass Communities unterschiedliche Regeln verwenden. Natürlich werden die Server, auf denen Hardcore-Inhalte verbreitet werden, von anderen schnell markiert und ausgeschlossen. Aber diejenigen, welche Regeln nachlässig durchsetzen und zu wenig Ressourcen haben, um konsequent zu moderieren (etwa bei Übergriffen oder Doxing), provozieren Entscheidungen, die dann entweder führen, dass User*innen nicht mehr miteinander kommunizieren können, obwohl sie dasselbe Netzwerk nutzen – oder halt ein Klima schaffen, in dem Übergriffe und Doxing teilweise erlaubt sind.

Mastodon löst das Vertrauensproblem, in dem User*innen nur den Admins des eigenen Servers, nicht aber der ganzen Plattform vertrauen müssen. Nur: Diese Admins müssen damit Entscheidungen fällen, welche die Wahrnehmung der ganzen Plattform betreffen. Und sie können Nazis oder Pädokriminelle nicht ausschließen, sondern nur die Verbindung zu ihnen kappen. Mastodon ist keine Nische, in der höhere ethische Standards gelten – man merkt nur nicht, dass eigentlich keine gelten, weil lokal ausgeblendet wird, was diesen Eindruck stören kann.

* * *

Ein Lösungsvorschlag:

  1. Einige größere Mastodon-Instanzen einigen sich auf ein demokratisches Verfahren (z.B. dürfen erfahrene User*innen, die sich an Regeln halten, abstimmen).
  2. Mit dem Verfahren werden Moderationsstandards festgelegt (Regeln, Ressourcen für Moderation, Praktiken zum Umgang mit problematischen User*innen etc.). Die Standards orientieren sich an einer positiven und sicheren Erfahrungen der User*innen.
  3. Alle Instanzen, die sich nicht verpflichten, diese Standards umzusetzen, werden deförderiert. Instanzen, die nachweisen, dass sie diese Standards umsetzen, werden auf Antrag föderiert.
  4. Die Standards können durch das in 1. festgelegte Verfahren verändert und angepasst werden.
Bild: Midjourney, Prompt: mastodon, cartoon, creative, v4

1 Kommentar

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..