Um die Möglichkeiten von generativer KI hat sich längst ein Hype gebildet, der sich in übertriebener Begeisterung und verbissener Technologiekritik zeigt. Wer sich ein Bild machen möchte, verliert den Überblick: Immer wieder werden neue Tools angepriesen, die mit geheimen Super-Prompts noch mehr können sollen, als man zunächst denkt. Wer KI ausprobiert, wähnt sich immer im Rückstand. Und wer eine kritische Perspektive einnehmen möchte, muss sich oft in noch eine tiefere philosophische Position eindenken oder noch einen ökologischen oder menschenrechtlichen Schaden verstehen, vor dem die KI-Unternehmen nicht zurückschrecken. Für alle, die hier eine Pause brauchen, schreibe ich auf, was für mich die wichtigsten Punkte sind. Und formuliere sie auch in einem Video. Was ich bewusst nicht aufnehme, sind die Umweltprobleme, die KI-Konzerne verursachen. Erstens sind sie allgemein bekannt, zweitens unterscheiden sich KI-Konzerne in diesem Bereich nicht von anderen Konzernen: Profit steht auch für sie vor Rücksicht vor unserer Lebensgrundlage.
Einsicht 1: Über- und Unterschätzung
Betrachten wir den Einsatz von generativer KI für die Herstellung von Texten, Bildern und anderen Artefakten, dann gibt es ein fundamentales Problem. KI-Tools können hier in sehr kurzer Zeit eine deutlich höhere Qualität erzeugen, als Laien das können. Aber: Sie arbeiten schlechter als Profis, die genügend Zeit und Ressourcen zur Verfügung haben.

Der Einsatz entsprechender Tools hat nun einen doppelten Effekt: Es erlaubt Laien, schneller und auf höherem Niveau zu arbeiten – erzeugt bei ihnen aber den Eindruck, ganz nahe bei dem zu sein, was Profis machen; auch wenn das nicht der Fall ist. Entsprechend wird die Arbeit von Fachpersonen entwertet. Nehmen wir z.B. Grafikdesign: Ein Plakat oder ein Buchcover zu gestalten ist ein Handwerk. Wird diese Aufgabe an KI-Tools übertragen, entstehen unsaubere Arbeiten – wie im unten abgebildeten Fall. Für Laien ist das aber oft nicht zu erkennen. So entsteht also durch den KI-Einsatz eine Nivellierung nach unten, die Ansprüche sinken.

Einsicht 2: Schlangenöl-Problem
Schlangenöl ist «die spöttische Bezeichnung für ein Produkt, das wenig oder keine echte Funktion hat, aber als Wundermittel zur Lösung vieler Probleme vermarktet wird» [Wikipedia]. KI ist schon als Schlangenöl konzipiert worden. LargeLanguageModels können gut mit Mustern umgehen. Wenn Texte, Bilder oder Programme musterhaft sind, dann ist der Einsatz generativer KI sinnvoll. Bei allen anderen Anwendungen stehen übertriebene Versprechen bescheidenen Resultaten gegenüber. KI steht als Schlangenöl in einer Reihe digitaler Innovationen wie Web 2.0, das Metaverse und die Blockchain bzw. Crypto-Anwendungen.
Bei Robotern, die von einer KI gesteuert werden sollen, gibt es immer wieder Zwischenfälle, die nahelegen, dass echte Menschen mit VR-Brillen Bewegungen vornehmen, die per Fernsteuerung übertragen werden. Das ist kein isoliertes Phänomen: Viele KI-Leistungen sind tatsächlich menschliche Leistungen, die als automatisierte Verfahren ausgegeben werden. Um das Schlangenöl zu verkaufen und ihren Marktwert zu steigern, verheimlichen die verantwortlichen Firmen das.

Einsicht 3: KI-Philosophie und das Geschäftsmodell
Kürzlich hat die Financial Times diese Grafik publiziert:

Diese Grafik ist aus zwei Gründen bemerkenswert: Erstens suggeriert sie, dass das durch KI gestützte Wachstum des BIP sich nicht vom Wachstumsverlauf ohne KI unterscheidet. Zweitens ist die Alternative zu diesem linearen Verlauf entweder die Auslöschung der Menschheit oder die Utopie einer Lebensweise ohne Knappheit. Diese Szenarien werden so dargestellt, als würden sie auf Daten beruhen – sind aber letztlich das Resultat der philosophischen Überlegungen, die hinter der KI-Entwicklung stehen.
Die Möglichkeiten von Automatisierung und neuronalen Netzwerken wurden und werden mit den üblichen Methoden der Technologiekritik diskutiert: Was verändert Automatisierung im Leben der Menschen? Wo liegen Vorteile, welche Gefahren drohen? Was ist der Preis des Fortschritts, wo können Probleme mit Verboten verhindert werden? Zusätzlich gibt es aber eine tiefere philosophische Diskussion, welche diesen Diskurs rahmt. Sie speist sich aus drei grundlegenden Gedankenexperimenten (dieser Podcast bietet wie das unten zitierte Buch von Mühlhoff dazu eine gute Einführung):
- Effective Altruism
Diese Ideologie sucht nach Wegen, um die zur Verfügung stehenden Mittel so einzusetzen, dass daraus der maximale positive Effekt für die Menschheit entsteht. Wenn nun eine mächtige KI quasi alle Probleme der Menschheit lösen könnte – wäre es dann nicht sinnvoll, möglichst viel Effort in die Konstruktion dieser KI zu stecken? - Singularität
Was wäre, wenn eine übermächtige KI ein Bewusstsein erhielte und eigene Zwecke verfolgen könnte (oder einem vorgegebenen Zweck alles unterordnen würde)? Wen würde sie dann belohnen, wen bestrafen; wem würde sie dienen, wen würde sie ausnutzen? - Transhumanismus
Kann die Menschheit sich durch die Entwicklung einer «höheren» Technologie selbst überwinden, indem sie Krankheiten und Sterblichkeit zum Verschwinden bringt? Menschliches Bewusstsein und Leben wäre dann ein Teil einer mit Technologie vermischten Existenzform.
Zusammengenommen führten diese abgründigen Gedankenspiele zur Vorstellung, dass möglichst alles unternommen werden müsste, um eine der Menschheit feindlich gegenüberstehende KI zu verhindern. Gleichzeitig scheint gerade dafür die Entwicklung einer nutzbaren KI ideal. Um eine übermächtige KI zu verhindern, entwickeln diese Aktivist:innen also eine übermächtige KI. Aber halt eine, die sie kontrollieren können.
KI-Unternehmertum erhielt so nicht nur einen ethischen Anstrich, sondern auch eine Dringlichkeit. Es war enorm wichtig, so schnell wie möglich leistungsfähige KI-Systeme aufzubauen. Warum? Einerseits, um damit sicherzustellen, dass gute Menschen gewissermassen die Kontrolle über die Technologie behalten konnte, andererseits war die Annahme, dass das KI-Wettrüsten dazu führen würde, dass eine Art Monopol entstehen würde, das darüber entscheidet, wer ein sehr gutes Leben führen kann und wer von der KI beherrscht und ausgebeutet wird.
Die entsprechenden Unternehmer:innen orientierten sich an einem The-Winner-Takes-All-Businessmodell, bei dem Wachstum und Marktdominanz entscheidend waren (wie z.B. bei der Einführung von Facebook). Diese Vorstellung ist eng mit der Digitalwirtschaft verbunden. So war das KI-Rennen nicht nur philosophisch getrieben, sondern wirtschaftlich anschlussfähig an die Mechanismen der Start-Up-Finanzierung und der digitalen Innovation – KI bot Investor:innen eine Gelegenheit, auf die Zukunft und den Durchbruch einer Technologie zu wetten.
Heute sind wir an einem anderen Ort angelangt: Die bisherige Geschichte hat gezeigt, dass die Entwicklung und Betrieb von KI extrem kostspielig und kaum rentabel sind. Um finanzielle Löcher zu stopfen, haben die Anbieter immer wieder eigentlich sinnlose Anwendungen ausgekoppelt und verkauft, z.B. das kürzlich eingestellte Projekt Sora, bei dem OpenAI User:innen erlaubte, lustige Kurzfilme zu generieren. Das bedeutet, dass die KI-Industrie in die klassischen Finanzierungsmechanismen der Digitalwirtschaft eingebunden ist: Investor:innen erwarten riesige Profite von einem Geschäftsmodell, bei dem nicht abzusehen ist, dass es überhaupt jemals rentabel betrieben werden könnte. Wie bei anderen Schlangenöl-Anwendungen ist so eine wirtschaftliche Blase entstanden, die bald platzen könnte.
Einsicht 4: Was kompetente Berufsleute können sollten
Im Umgang mit KI stellt sich schnell der Eindruck ein, immer im Rückstand zu sein. Das ist ein Marketing-Instrument der Verkäufer:innen des Schlangenöls – sie suggerieren, es gäbe permanent neue Entwicklungen, denen alle hinterherrennen. Das schafft Nachfrage nach Beratung und nach Abos bei diesen Tools, entspricht aber oft nicht der Realität.
Wer heute in einem Job arbeitet, der Wissensmanagement verlangt, sollte Folgendes können (immer auf den eigenen Fachbereich beschränkt):
- Verstehen, wie KI-gestützte Entscheidungsprozesse funktionieren (vgl. nächsten Abschnitt). Im eigenen Handeln Entscheidungen nicht von KI übernehmen lassen.
- Ein Gefühl dafür entwickeln, welche häufig anfallenden Arbeitsschritte von KI-Tools in welcher Qualität automatisiert werden können (formale und stilistische Überarbeitung von Texten funktioniert z.B. meist sehr gut).
- Typische KI-Fehler erkennen können und mit Halluzinationen rechnen.
- Ein Verständnis entwickeln, was Fachpersonen im eigenen Fachbereich deutlich besser können als KI-Werkzeuge. Das sollte man auch Laien erklären können.
- Routinearbeiten mit KI bewältigen, wenn das qualitativ vertretbar ist und sich zeitlich lohnt. (Ein gutes Beispiel sind Formatierungen von Text: «Formatiere diesen Text so, dass ich ihn in XY kopieren kann…», Unterstützung bei der Arbeit mit Formeln oder Programmen, dem Verständnis von standardisierten Prozessen.)
- Die Arbeit mit grossen Text- oder Datenmengen durch KI beschleunigen und vereinfachen. NotebookLM erlaubt es etwa, durch kurze Suchanfragen Zitate in langen Dateien zu finden.

Einsicht 5: KI als Machtmittel
In seinem Buch «Künstliche Intelligenz und der neue Faschismus» erklärt Rainer Mühlhoff, wie politische Entwicklungen mit der KI zusammenhängen.
Mühlhoff stellt fest, dass KI-Unternehmen Diskussionen aus dem Weg gehen, was mit ihren politischen Vorstellungen verbunden ist.
Das ist eine Haltung, die sich nicht darum bemüht, öffentlich Rechenschaft für die eigenen Thesen abzulegen und zu deren Diskussion einzuladen, sondern die Taktik »move fast and break things« zur Maxime erhebt. Bei dieser Haltung handelt es sich nicht nur um Abwehr von Kritik, sondern um einen mitunter arroganten Kult der ›Intelligenz‹ und ›Effizienz‹, in dem ökonomische Verwertbarkeit als höchster Beweis für intellektuellen Wert gilt.
Überträgt man diese Denkweise auf das Politische, schließt sie direkt an das Prinzip »no voice, free exit« an, das der Idee von CEO-Monarchien als Staatsform zugrunde liegt. Demokratietheoretisch hat dieses Prinzip etwas Menschenverachtendes, weil es die Bürger:innen des Staates nur anerkennt, insofern sie sich widerspruchslos in eine Verwertungslogik einfügen und als Humanressource verwenden lassen. Das Recht, sich zu den Belangen des Gemeinwesens zu äußern und in politische Debatten einzubringen, wird ihnen dagegen nicht zugestanden.
Diese Grundhaltung führt dann schnell zu einer Entmenschlichung: Die Nutzung von KI wird zum Faktor in einem universellen Konkurrenzkampf, der sich auch darin zeigt, dass KI-Influencer:innen ständig die Gefahr betonen, in «Rückstand» zu geraten, wenn man die neuesten Innovationen nicht nutze. Noch schlimmer: KI-Anwendungen werden in diesem Kampf auch bewusst genutzt, um andere Menschen zu entrechten und ihnen Gewalt anzutun. Das beschränkt sich nicht auf den Einsatz von KI bei Bombardierungen im Krieg, wo beispielsweise im Iran aufgrund einer KI-Empfehlung eine Schule bombardiert worden ist (die ganze Geschichte dahinter ist zutiefst verstörend). Auch die sexualisierte Gewalt, die unzählige Frauen und Kinder durch KI-Deepfakes erfahren (haben) oder die rund 1 Million Menschenleben, welche KI-basierte Einsparungen bei USAID gekostet haben, sind auf KI-Gewalt zurückzuführen.
Die Nutzung dieser Technologie, so Mühlhoffs Argument, ist deshalb faschistisch, weil sie zu einem Machtmittel führt, das entmenschlicht. Er zeigt das im Detail an der Unterscheidung von menschlichen Entscheidungen und probabilistischen Verfahren. Letztere verwenden subsymbolische KI, d.h. eine Form von Musterverarbeitung und -erkennung, welche nicht mit feststehenden Bedeutungen arbeitet. Solche KI-Systeme können nicht erklären, wie sie Entscheidungen fällen. Sie können lediglich mit Mustern operieren, die statistische Ähnlichkeiten auswerten. «Entscheidend […] ist also die Tatsache, dass die erfahrungsbasierte Vorgehensweise nicht auf Wahrheitsfindung über jeden einzelnen Fall, sondern auf bedingten Wahrscheinlichkeiten beruht, deren Genauigkeit hinsichtlich aggregierter Zielgrößen nach dem Interesse der Betreiber optimiert wird.» Das bedeutet, dass im einzelnen Fall massive Fehler und Ungerechtigkeiten entstehen können, weil eine KI sich an der Effizienz der gesamten Aufgabe orientiert.
Wenn sich Unternehmen wie Versicherungen oder gar die staatliche Bürokratie solcher Techniken bedienen, dann entfällt eine entscheidende Sicherung: Die rechtsstaatliche Einzelfallprüfung. Mit Mühlhoff kann man so eine klare Grenze zwischen einem rechtsstaatlich und demokratisch vertretbaren Einsatz von KI und einem faschistischen Einsatz ziehen: Das Recht, dass jeder einzelne Fall von kompetenten Menschen geprüft wird. Es darf bei maschinellen Verfahren nie entfallen. Nur: Diese Sicherung ist ein Kostenfaktor, der genau das verhindert, was KI effizient erledigen könnte.

Fazit
Wie wir über KI sprechen, überhöht die technologische Realität von KI-Systemen, die tatsächlich weder denken, fühlen oder autonom agieren können noch in einem vollwertigen Sinne intelligent sind, wie wir es über uns Menschen sagen würden.
Dieses Zitat aus dem Buch von Mühlhoff kann hier als Abschluss dienen. Der aktuelle Hype um KI hat zutiefst verstörende philosophische und wirtschaftliche Hintergründe, die zu massiven politischen Problemen geführt haben.
KI hat produktive Funktionen – ich habe für die Korrektur dieses Artikels KI benutzt, habe mit NotebookLM Zitate gesucht, an deren Position ich mich nicht erinnern konnte und sogar ein Bild generiert. Ich habe den Artikel aber selbst geschrieben, habe mich eingelesen und eingedacht und eine Struktur entworfen. Ich verstehe, was KI kann – und nehme ihre Limitation bewusst wahr, weil ich diese Tools selbst einsetze. Wer die Infografik genau ansieht, wird viele mühsame Fehler bemerken. Hätte ich sie ausmerzen wollen, wären Stunden von frustrierender Arbeit angestanden. Das ist mir bewusst. Wo es solche Fehler nicht geben darf, kann ich KI nicht einsetzen. Das ist eine fast banale Einsicht, die immer wieder vergessen geht: Die KI-Artefakte wirken so glatt, so perfekt, sind aber Resultat einer Mustererkennung, in der viele wichtige Aspekte komplett ignoriert werden. Das dürfen wir nie vergessen.












