In der unseligen Debatte über Verbote von Smartphones oder Social Media oder nur algorithmisch gesteuerte Plattformen oder nur ein paar Plattformen, die sich problematisch anfühlen, an Schulen oder generell überall für Unter-14-Jährige oder Unter-16-Jährige oder Unter-18-Jährige – in dieser sehr diffusen und wirren Debatte gibt es ein Argument, das immer wieder vorgebracht wird:
Der Staat verbietet aus guten Gründen Alkohol und Nikotin für Minderjährige, weshalb also nicht Bildschirme und Plattformen, zumal die genauso süchtig machen wie Alkohol und Nikotin.
An diesem Argument stimmt nichts. Wirklich gar nichts. Wer es verwendet, sollte damit aufhören.
Der Staat verbietet zwar Alkohol und Nikotin für Minderjährige, diese konsumieren beides aber dennoch. Das Verbot führt nicht dazu, dass der Konsum aufhört. (Ja, das Verbot ist ein Signal, aber kein Argument.)
Der Staat verbietet Alkohol und Nikotin nicht nur, weil diese Stoffe süchtig machen, sondern auch deshalb, weil sie Jugendlichen besonders stark schaden. (Die naheliegende Frage lautet dabei, weshalb er Alkohol und Nikotin wie andere Drogen nicht generell verbietet, zumal sie allen Menschen schaden und alle Menschen süchtig machen.)
Alkohol und Nikotin machen körperlich süchtig. Das tun digitale Medien oder Bildschirme nicht. (Das wird zwar mit irreführenden Dopamin-Argumenten nahegelegt, stimmt deshalb aber weiterhin nicht.)
Bildschirme und digitale Plattformen können von gesunden Menschen auf gesunde Arten genutzt werden. Die meisten Jugendlichen, also rund 85%, gehen damit völlig problemlos um, auch wenn sie diese intensiv nutzen. Jugendliche, die täglich Alkohol oder Nikotin konsumieren, haben alle ein Problem. Sie sind süchtig und fügen ihrem Körper Gift zu. Das ist bei der Nutzung digitaler Medien nicht so.
Die Verwendung dieses problematischen Arguments zeigt, dass es keine sinnvollen politischen oder pädagogischen Argumente für generelle Verbote gibt. Das wird auch daran erkennbar, dass immer diffus gehalten wird, was genau für wen verboten werden soll. Die Vorstellung, man könnte Kindern und Jugendlichen etwas verbieten, was für Erwachsene selbstverständlicher Teil ihres Alltags und ihrer Arbeit ist, ist absurd. Erwachsene trinken während der Arbeit in der Regel keinen Alkohol und auch der Nikotin-Konsum unterliegt recht strengen Regeln. Das ist bei digitalen Plattformen und Bildschirmen nicht so: Viele Berufe erfordern die permanente Nutzung solcher Medien.
Es ist ein Politversagen, wenn eine Moral Panic und die fehlende Regulierung einer problematischen Industrie dazu führt, dass man Jugendliche für etwas bestrafen will, was sie weder verursacht haben noch auf eine generell problematische Art und Weise nutzen.
Entscheidend wären vier politische Massnahmen:
Genug Geld und die nötige Infrastruktur für breite, wirksame, zeitgemässe Präventionsarbeit. Kinder und Jugendliche müssen lernen, wie man gesund lebt. Sie brauchen Unterstützung und Therapieangebote, müssen ohne übermässigen Leistungsdruck aufwachsen, sich bewegen und vielfältige soziale Beziehungen knüpfen können. Sie müssen verstehen, wie sie sich in ihrem Köper wohlfühlen und wie sie gesund bleiben können.
Verbote auf der Anbieterseite – wer mit digitalen Plattformen Geld verdienen will, muss wirksamen Jugendschutz anbieten. In der Schweiz sollte Werbung generell nur auf Plattformen geschaltet werden dürfen, welche die Funktionsweise ihrer Algorithmen offenlegen und Addictive-Design-Features nur für Erwachsene per Opt-In anbieten.
Digitale und einfach zugängliche Formen von Glücksspiel (z.B. Lose, Sportwetten, Loot Boxen) sollten verboten oder streng reglementiert werden.
Harte Strafen für Unternehmen, welche digitale Übergriffe wie Doxing, Stalking, Deepfakes etc. auf ihren Plattformen tolerieren.
Um die Möglichkeiten von generativer KI hat sich längst ein Hype gebildet, der sich in übertriebener Begeisterung und verbissener Technologiekritik zeigt. Wer sich ein Bild machen möchte, verliert den Überblick: Immer wieder werden neue Tools angepriesen, die mit geheimen Super-Prompts noch mehr können sollen, als man zunächst denkt. Wer KI ausprobiert, wähnt sich immer im Rückstand. Und wer eine kritische Perspektive einnehmen möchte, muss sich oft in noch eine tiefere philosophische Position eindenken oder noch einen ökologischen oder menschenrechtlichen Schaden verstehen, vor dem die KI-Unternehmen nicht zurückschrecken. Für alle, die hier eine Pause brauchen, schreibe ich auf, was für mich die wichtigsten Punkte sind. Und formuliere sie auch in einem Video. Was ich bewusst nicht aufnehme, sind die Umweltprobleme, die KI-Konzerne verursachen. Erstens sind sie allgemein bekannt, zweitens unterscheiden sich KI-Konzerne in diesem Bereich nicht von anderen Konzernen: Profit steht auch für sie vor Rücksicht vor unserer Lebensgrundlage.
Einsicht 1: Über- und Unterschätzung
Betrachten wir den Einsatz von generativer KI für die Herstellung von Texten, Bildern und anderen Artefakten, dann gibt es ein fundamentales Problem. KI-Tools können hier in sehr kurzer Zeit eine deutlich höhere Qualität erzeugen, als Laien das können. Aber: Sie arbeiten schlechter als Profis, die genügend Zeit und Ressourcen zur Verfügung haben.
Der Einsatz entsprechender Tools hat nun einen doppelten Effekt: Es erlaubt Laien, schneller und auf höherem Niveau zu arbeiten – erzeugt bei ihnen aber den Eindruck, ganz nahe bei dem zu sein, was Profis machen; auch wenn das nicht der Fall ist. Entsprechend wird die Arbeit von Fachpersonen entwertet. Nehmen wir z.B. Grafikdesign: Ein Plakat oder ein Buchcover zu gestalten ist ein Handwerk. Wird diese Aufgabe an KI-Tools übertragen, entstehen unsaubere Arbeiten – wie im unten abgebildeten Fall. Für Laien ist das aber oft nicht zu erkennen. So entsteht also durch den KI-Einsatz eine Nivellierung nach unten, die Ansprüche sinken.
Cover zu Zauberberg: links Ausgabe von 2025 mit Midjourney (KI), rechts Erstausgabe von 1924
Einsicht 2: Schlangenöl-Problem
Schlangenöl ist «die spöttische Bezeichnung für ein Produkt, das wenig oder keine echte Funktion hat, aber als Wundermittel zur Lösung vieler Probleme vermarktet wird» [Wikipedia]. KI ist schon als Schlangenöl konzipiert worden. LargeLanguageModels können gut mit Mustern umgehen. Wenn Texte, Bilder oder Programme musterhaft sind, dann ist der Einsatz generativer KI sinnvoll. Bei allen anderen Anwendungen stehen übertriebene Versprechen bescheidenen Resultaten gegenüber. KI steht als Schlangenöl in einer Reihe digitaler Innovationen wie Web 2.0, das Metaverse und die Blockchain bzw. Crypto-Anwendungen.
Bei Robotern, die von einer KI gesteuert werden sollen, gibt es immer wieder Zwischenfälle, die nahelegen, dass echte Menschen mit VR-Brillen Bewegungen vornehmen, die per Fernsteuerung übertragen werden. Das ist kein isoliertes Phänomen: Viele KI-Leistungen sind tatsächlich menschliche Leistungen, die als automatisierte Verfahren ausgegeben werden. Um das Schlangenöl zu verkaufen und ihren Marktwert zu steigern, verheimlichen die verantwortlichen Firmen das.
Ein Tesla-Optimus-Roboter zieht eine VR-Brille ab, bevor er umfällt. (Quelle)
Einsicht 3: KI-Philosophie und das Geschäftsmodell
Kürzlich hat die Financial Times diese Grafik publiziert:
Diese Grafik ist aus zwei Gründen bemerkenswert: Erstens suggeriert sie, dass das durch KI gestützte Wachstum des BIP sich nicht vom Wachstumsverlauf ohne KI unterscheidet. Zweitens ist die Alternative zu diesem linearen Verlauf entweder die Auslöschung der Menschheit oder die Utopie einer Lebensweise ohne Knappheit. Diese Szenarien werden so dargestellt, als würden sie auf Daten beruhen – sind aber letztlich das Resultat der philosophischen Überlegungen, die hinter der KI-Entwicklung stehen.
Die Möglichkeiten von Automatisierung und neuronalen Netzwerken wurden und werden mit den üblichen Methoden der Technologiekritik diskutiert: Was verändert Automatisierung im Leben der Menschen? Wo liegen Vorteile, welche Gefahren drohen? Was ist der Preis des Fortschritts, wo können Probleme mit Verboten verhindert werden? Zusätzlich gibt es aber eine tiefere philosophische Diskussion, welche diesen Diskurs rahmt. Sie speist sich aus drei grundlegenden Gedankenexperimenten (dieser Podcast bietet wie das unten zitierte Buch von Mühlhoff dazu eine gute Einführung):
Effective Altruism Diese Ideologie sucht nach Wegen, um die zur Verfügung stehenden Mittel so einzusetzen, dass daraus der maximale positive Effekt für die Menschheit entsteht. Wenn nun eine mächtige KI quasi alle Probleme der Menschheit lösen könnte – wäre es dann nicht sinnvoll, möglichst viel Effort in die Konstruktion dieser KI zu stecken?
Singularität Was wäre, wenn eine übermächtige KI ein Bewusstsein erhielte und eigene Zwecke verfolgen könnte (oder einem vorgegebenen Zweck alles unterordnen würde)? Wen würde sie dann belohnen, wen bestrafen; wem würde sie dienen, wen würde sie ausnutzen?
Transhumanismus Kann die Menschheit sich durch die Entwicklung einer «höheren» Technologie selbst überwinden, indem sie Krankheiten und Sterblichkeit zum Verschwinden bringt? Menschliches Bewusstsein und Leben wäre dann ein Teil einer mit Technologie vermischten Existenzform.
Zusammengenommen führten diese abgründigen Gedankenspiele zur Vorstellung, dass möglichst alles unternommen werden müsste, um eine der Menschheit feindlich gegenüberstehende KI zu verhindern. Gleichzeitig scheint gerade dafür die Entwicklung einer nutzbaren KI ideal. Um eine übermächtige KI zu verhindern, entwickeln diese Aktivist:innen also eine übermächtige KI. Aber halt eine, die sie kontrollieren können.
KI-Unternehmertum erhielt so nicht nur einen ethischen Anstrich, sondern auch eine Dringlichkeit. Es war enorm wichtig, so schnell wie möglich leistungsfähige KI-Systeme aufzubauen. Warum? Einerseits, um damit sicherzustellen, dass gute Menschen gewissermassen die Kontrolle über die Technologie behalten konnte, andererseits war die Annahme, dass das KI-Wettrüsten dazu führen würde, dass eine Art Monopol entstehen würde, das darüber entscheidet, wer ein sehr gutes Leben führen kann und wer von der KI beherrscht und ausgebeutet wird.
Die entsprechenden Unternehmer:innen orientierten sich an einem The-Winner-Takes-All-Businessmodell, bei dem Wachstum und Marktdominanz entscheidend waren (wie z.B. bei der Einführung von Facebook). Diese Vorstellung ist eng mit der Digitalwirtschaft verbunden. So war das KI-Rennen nicht nur philosophisch getrieben, sondern wirtschaftlich anschlussfähig an die Mechanismen der Start-Up-Finanzierung und der digitalen Innovation – KI bot Investor:innen eine Gelegenheit, auf die Zukunft und den Durchbruch einer Technologie zu wetten.
Heute sind wir an einem anderen Ort angelangt: Die bisherige Geschichte hat gezeigt, dass die Entwicklung und Betrieb von KI extrem kostspielig und kaum rentabel sind. Um finanzielle Löcher zu stopfen, haben die Anbieter immer wieder eigentlich sinnlose Anwendungen ausgekoppelt und verkauft, z.B. das kürzlich eingestellte Projekt Sora, bei dem OpenAI User:innen erlaubte, lustige Kurzfilme zu generieren. Das bedeutet, dass die KI-Industrie in die klassischen Finanzierungsmechanismen der Digitalwirtschaft eingebunden ist: Investor:innen erwarten riesige Profite von einem Geschäftsmodell, bei dem nicht abzusehen ist, dass es überhaupt jemals rentabel betrieben werden könnte. Wie bei anderen Schlangenöl-Anwendungen ist so eine wirtschaftliche Blase entstanden, die bald platzen könnte.
Einsicht 4: Was kompetente Berufsleute können sollten
Im Umgang mit KI stellt sich schnell der Eindruck ein, immer im Rückstand zu sein. Das ist ein Marketing-Instrument der Verkäufer:innen des Schlangenöls – sie suggerieren, es gäbe permanent neue Entwicklungen, denen alle hinterherrennen. Das schafft Nachfrage nach Beratung und nach Abos bei diesen Tools, entspricht aber oft nicht der Realität.
Wer heute in einem Job arbeitet, der Wissensmanagement verlangt, sollte Folgendes können (immer auf den eigenen Fachbereich beschränkt):
Verstehen, wie KI-gestützte Entscheidungsprozesse funktionieren (vgl. nächsten Abschnitt). Im eigenen Handeln Entscheidungen nicht von KI übernehmen lassen.
Ein Gefühl dafür entwickeln, welche häufig anfallenden Arbeitsschritte von KI-Tools in welcher Qualität automatisiert werden können (formale und stilistische Überarbeitung von Texten funktioniert z.B. meist sehr gut).
Typische KI-Fehler erkennen können und mit Halluzinationen rechnen.
Ein Verständnis entwickeln, was Fachpersonen im eigenen Fachbereich deutlich besser können als KI-Werkzeuge. Das sollte man auch Laien erklären können.
Routinearbeiten mit KI bewältigen, wenn das qualitativ vertretbar ist und sich zeitlich lohnt. (Ein gutes Beispiel sind Formatierungen von Text: «Formatiere diesen Text so, dass ich ihn in XY kopieren kann…», Unterstützung bei der Arbeit mit Formeln oder Programmen, dem Verständnis von standardisierten Prozessen.)
Die Arbeit mit grossen Text- oder Datenmengen durch KI beschleunigen und vereinfachen. NotebookLM erlaubt es etwa, durch kurze Suchanfragen Zitate in langen Dateien zu finden.
Mühlhoff stellt fest, dass KI-Unternehmen Diskussionen aus dem Weg gehen, was mit ihren politischen Vorstellungen verbunden ist.
Das ist eine Haltung, die sich nicht darum bemüht, öffentlich Rechenschaft für die eigenen Thesen abzulegen und zu deren Diskussion einzuladen, sondern die Taktik »move fast and break things« zur Maxime erhebt. Bei dieser Haltung handelt es sich nicht nur um Abwehr von Kritik, sondern um einen mitunter arroganten Kult der ›Intelligenz‹ und ›Effizienz‹, in dem ökonomische Verwertbarkeit als höchster Beweis für intellektuellen Wert gilt. Überträgt man diese Denkweise auf das Politische, schließt sie direkt an das Prinzip »no voice, free exit« an, das der Idee von CEO-Monarchien als Staatsform zugrunde liegt. Demokratietheoretisch hat dieses Prinzip etwas Menschenverachtendes, weil es die Bürger:innen des Staates nur anerkennt, insofern sie sich widerspruchslos in eine Verwertungslogik einfügen und als Humanressource verwenden lassen. Das Recht, sich zu den Belangen des Gemeinwesens zu äußern und in politische Debatten einzubringen, wird ihnen dagegen nicht zugestanden.
Diese Grundhaltung führt dann schnell zu einer Entmenschlichung: Die Nutzung von KI wird zum Faktor in einem universellen Konkurrenzkampf, der sich auch darin zeigt, dass KI-Influencer:innen ständig die Gefahr betonen, in «Rückstand» zu geraten, wenn man die neuesten Innovationen nicht nutze. Noch schlimmer: KI-Anwendungen werden in diesem Kampf auch bewusst genutzt, um andere Menschen zu entrechten und ihnen Gewalt anzutun. Das beschränkt sich nicht auf den Einsatz von KI bei Bombardierungen im Krieg, wo beispielsweise im Iran aufgrund einer KI-Empfehlung eine Schule bombardiert worden ist (die ganze Geschichte dahinter ist zutiefst verstörend). Auch die sexualisierte Gewalt, die unzählige Frauen und Kinder durch KI-Deepfakes erfahren (haben) oder die rund 1 Million Menschenleben, welche KI-basierte Einsparungen bei USAID gekostet haben, sind auf KI-Gewalt zurückzuführen.
Die Nutzung dieser Technologie, so Mühlhoffs Argument, ist deshalb faschistisch, weil sie zu einem Machtmittel führt, das entmenschlicht. Er zeigt das im Detail an der Unterscheidung von menschlichen Entscheidungen und probabilistischen Verfahren. Letztere verwenden subsymbolische KI, d.h. eine Form von Musterverarbeitung und -erkennung, welche nicht mit feststehenden Bedeutungen arbeitet. Solche KI-Systeme können nicht erklären, wie sie Entscheidungen fällen. Sie können lediglich mit Mustern operieren, die statistische Ähnlichkeiten auswerten. «Entscheidend […] ist also die Tatsache, dass die erfahrungsbasierte Vorgehensweise nicht auf Wahrheitsfindung über jeden einzelnen Fall, sondern auf bedingten Wahrscheinlichkeiten beruht, deren Genauigkeit hinsichtlich aggregierter Zielgrößen nach dem Interesse der Betreiber optimiert wird.» Das bedeutet, dass im einzelnen Fall massive Fehler und Ungerechtigkeiten entstehen können, weil eine KI sich an der Effizienz der gesamten Aufgabe orientiert.
Wenn sich Unternehmen wie Versicherungen oder gar die staatliche Bürokratie solcher Techniken bedienen, dann entfällt eine entscheidende Sicherung: Die rechtsstaatliche Einzelfallprüfung. Mit Mühlhoff kann man so eine klare Grenze zwischen einem rechtsstaatlich und demokratisch vertretbaren Einsatz von KI und einem faschistischen Einsatz ziehen: Das Recht, dass jeder einzelne Fall von kompetenten Menschen geprüft wird. Es darf bei maschinellen Verfahren nie entfallen. Nur: Diese Sicherung ist ein Kostenfaktor, der genau das verhindert, was KI effizient erledigen könnte.
Infografik NotebookLM
Fazit
Wie wir über KI sprechen, überhöht die technologische Realität von KI-Systemen, die tatsächlich weder denken, fühlen oder autonom agieren können noch in einem vollwertigen Sinne intelligent sind, wie wir es über uns Menschen sagen würden.
Dieses Zitat aus dem Buch von Mühlhoff kann hier als Abschluss dienen. Der aktuelle Hype um KI hat zutiefst verstörende philosophische und wirtschaftliche Hintergründe, die zu massiven politischen Problemen geführt haben.
KI hat produktive Funktionen – ich habe für die Korrektur dieses Artikels KI benutzt, habe mit NotebookLM Zitate gesucht, an deren Position ich mich nicht erinnern konnte und sogar ein Bild generiert. Ich habe den Artikel aber selbst geschrieben, habe mich eingelesen und eingedacht und eine Struktur entworfen. Ich verstehe, was KI kann – und nehme ihre Limitation bewusst wahr, weil ich diese Tools selbst einsetze. Wer die Infografik genau ansieht, wird viele mühsame Fehler bemerken. Hätte ich sie ausmerzen wollen, wären Stunden von frustrierender Arbeit angestanden. Das ist mir bewusst. Wo es solche Fehler nicht geben darf, kann ich KI nicht einsetzen. Das ist eine fast banale Einsicht, die immer wieder vergessen geht: Die KI-Artefakte wirken so glatt, so perfekt, sind aber Resultat einer Mustererkennung, in der viele wichtige Aspekte komplett ignoriert werden. Das dürfen wir nie vergessen.
Im Moment entwickeln einige Deutschlehrpersonen an der Kantonsschule Uetikon einen zweistufigen Maturaufsatz. Ich gehöre auch zu diesem Team. Wir haben alle Schüler:innen des Jahrgangs schon einen Testlauf schreiben. Auf den Erkenntnissen daraus beruht dieser Zwischenbericht.
Die Grundidee: sowohl – als auch
Viele Schüler:innen übergeben Schreibaufgaben generell an KI-Tools. Sie haben Mühe damit, Sätze auf ein leeres Blatt oder in ein leeres Dokument zu formulieren. Dadurch verpassen sie den Aufbau von Schreibkompetenzen, der in vielen beruflichen und gesellschaftlichen Bereichen weiterhin bedeutsam ist – zudem erfolgen einige vertiefte Denkprozesse über das schriftliche Erschliessen von Zusammenhängen. KI-Tools führen zu einem De-Skilling, wenn diese Prozesse ersetzt und übersprungen werden.
Als Schule haben wir die Verantwortung, Grundfertigkeiten beim Schreiben zu sichern. Ein verbindliches Prüfungsformat hat hier eine Anker-Funktion, es signalisiert, dass diese Kompetenzen wichtig sind. Es bietet Orientierung für Unterrichtsaktivitäten. Zusammen mit Kolleg:innen habe ich begonnen, Schüler:innen in Hefte schreiben zu lassen, damit die ChatGPT-Affordanz sich verändert und es leichter wird, von sich aus an Texten zu schreiben und sie weiterzuschreiben, zu überarbeiten.
Auf der anderen Seite gibt es aber auch einen hohen Anteil von Schüler:innen, die mangelnde KI-Textkompetenzen haben. Sie können nur einfachste Vorgänge mit KI-Tools durchführen, laden kaum je Dokumente hoch und benutzen kein DeepResearch. Fordert man KI-Nutzung bei einer wichtigen Prüfung an, ist das für sie ein Anreiz, sich vertieft mit diesen Möglichkeiten auseinanderzusetzen.
Schreiben ist ein Prozess. Ihn in zwei Schritte zu unterteilen ist sinnvoll. Im ersten entstehen eigene Ideen und Formulierungen, die dann im zweiten korrigiert, verbessert und erweitert werden, auch unter Zuhilfenahme dafür geeigneter Werkzeuge.
Da der Maturaufsatz – hier habe ich länger über seine Geschichte und Funktion geschrieben – auch die Funktion hat, beim Abschluss der Schulzeit den Stand des eigenen Denkens zu präsentieren. Somit ist er eine sinnvolle Gelegenheit, den aktuellen Stand der Technologie zu reflektieren und sein eigenes Verhältnis dazu zu klären. Kürzlich wurde der Maturaufsatz von Max Frisch publiziert, den dieser 1930 geschrieben hatte. Auch er schrieb über die Technologie seiner Zeit. Das klingt so:
Vom Standpunkte des Glückes aus beurteilt ist die Technik abzulehnen; sie nimmt uns die mechanische Arbeit und gibt uns Zeit. Diese verwenden wir zum Denken. Je klarer und logischer wir aber denken, desto rascher erkennen wir die bodenlose Stumpfsinnigkeit unseres Daseins.
Aus diesen Gründen ist die Grundidee: Schüler:innen sollen sowohl ohne KI schreiben als auch mit.
Die Umsetzung
Die Schüler:innen schreiben zwei Texte, wie das der folgenden Abbildung zu entnehmen ist. Sie geben Teil A in Classtime ab, erhalten ihn von der Lehrperson per Teams zugeschickt und geben dann Teil B in Teams als Word-Dokument ab.
Die Schreibumgebung in Classtime, in der die Schüler:innen arbeiten, ist über den SafeExamBrowser geschützt [ja, gerissene Schüler:innen haben diese Einschränkung schon umgangen und werden das wieder tun]. Das bedeutet, dass die Schüler:innen in diesem Fenster eingeschlossen sind, bis sie den Text abgegeben haben. Sie können keine anderen Programme aufrufen und auch nicht auf KI-Tools zugreifen.
Im Teil B können die Schüler:innen das Internet frei benutzen. Da ihre Aufgabe aber darin besteht, einen bereits bestehenden Text zu überarbeiten und zu erweitern, ergibt es hier wenig Sinn, einen reinen KI-Text zu produzieren und ihn abzugeben.
Unten habe ich ein Beispiel für eine Aufgabenstellung abgebildet. Die Schüler:innen erhalten vier Aufgaben in einem ausgedruckten Dossier. Zu Beginn kennen sie die Aufgaben für Teil A und Teil B.
Bewertung
Die Bewertung von Maturaufsätzen erfolgt im Kanton Zürich nicht standardisiert, sondern wird von der Lehrperson im Rahmen der Bewertungskultur vorgenommen, die im Unterricht etabliert worden ist. Da ich mit Kompetenzrastern beurteile, habe auch für diesen Text ein Kompetenzraster erarbeitet.
Dieses Raster setze ich bei der Bewertung von Probelauf-Texten ein. Mir ist dabei Folgendes wichtig:
Die Anlage ist sehr komplex, die Aufgaben stellen hohe Anforderungen an Schüler:innen. Können sie einen Teil davon nicht erfüllen, dürfen sie nicht zu stark dafür bestraft werden (z.B. wenn ihre Rechtschreibung im Teil A fehlerhaft ist).
Die Texte sind aufeinander bezogen. Es reicht nicht, nur Text A oder Text B auf ein gutes Niveau zu bringen, um eine gute Note zu erhalten. Gleichzeitig müssen Stärken, die nur im Text A oder Text B vorhanden sind, gewürdigt werden.
Text B soll nicht ein KI-Text sein, sondern immer noch die Stimme und Denkweise der schreibenden Person zeigen.
Ein kreativer, mutiger und kompetenter Einsatz von KI soll auch Wertschätzung erfahren. Ich habe meinen Schüler:innen eine kleine Anleitung gegeben, in der Mindeststandards erkennbar werden: –> craft.phwa.ch/a6xDwHGw2ye7Jp
Reflexion
Das Setting stellt hohe Anforderungen an die Schüler:innen und an die Lehrpersonen. Der Aufwand war in der Vorbereitung hoch, er ist es auch bei der Durchführung und Bewertung. Nur: Gute Settings sind mit kleinem Aufwand nicht zu haben. Dieser Einwand kommt immer, er ist immer berechtigt und er ist trotzdem nur dann gültig, wenn sich der Aufwand nicht lohnt. (De-Implementierung ist die Antwort auf den Einwand – wir müssen andere Dinge loslassen, um die Kraft für die wichtigen Aufgaben zu haben.)
Unsere Lösung verbindet zwei grundsätzlich berechtigte Forderungen:
Junge Menschen sollen auch ohne KI-Hilfsmittel schreiben und denken, insbesondere an Gymnasien.
KI-Tools sollen in Schreibprozesse einbezogen werden können, weil das in vielen beruflichen Schreibprozessen zur Norm geworden ist.
Dadurch zeigt dieses Konzept, dass erstens ein Format ohne KI nicht mehr zeitgemäss ist, auch wenn es einfacher wäre und Lehrpersonen nicht zwingt, KI-generierte Schreibanteile von eigenständigen zu trennen.
Zweitens macht es deutlich, dass ein zu offenes Setting Schüler:innen dazu einlädt, viele wichtige Prozesse gar nicht mehr zu durchlaufen. Offene Maturprüfungen mit BYOD-Geräten führen zu KI-Maturaufsätzen, die keine Leistung dokumentieren.
Die Verbindung von Schreibarbeit ohne KI-Tools und einer mit scheint mir im Uetiker Modell gut gelungen. Denkbar wäre auch eine Umkehrung, wie sie Kyra Holzwarth ausgearbeitet hat: Die Schüler:innen bereiten die Schreibaufgabe mit KI vor, schreiben dann aber ohne KI zu einem spezifischen Thema, zu dem sie mit KI recherchieren konnten. So fehlt dann einfach die Entlastung, welche eine Korrektur und stilistische Optimierung durch die KI liefert, viele Schüler:innen würden dann fehlerhafte Texte abgeben. Das ist im Uetiker Modell nicht der Fall.
Jedes Jahr erscheinen vor und während der Gymi-Prüfungen im Kanton Zürich Artikel, in denen Fragen rund um das Verfahren aufgeworfen werden. Diese Artikel erzeugen erstens Resonanz, entstehen aber auch deshalb, weil das Verfahren «Kinder unnötig unter Druck setzt, Schülerinnen im Vergleich mit anderen Kantonen benachteiligt und grundsätzlich wenig Rückhalt in der Bevölkerung geniesst», wie ich meinem kürzlich erschienenen Artikel für die Republik geschrieben habe. Darin bin ich ausgehend von einer Studie der Daten und der Forschungsergebnisse zum Schluss gekommen, dass eine Harmonisierung der Gymnasialquote in allen Schweizer Kantonen und eine Vereinheitlichung des Übertrittverfahrens dringend nötig wäre. Die EDK steht hier in der Pflicht, finde ich.
Jedes Jahr gibt es aber auch Artikel, in denen die Qualitäten der Aufnahmeprüfung betont werden. Dieses Jahr wird darin besonders ein Argument stark gemacht:
«Diejenigen, die bestehen, haben – das zeigen unsere Zahlen – sehr gute Chancen, die Probezeit zu bestehen. Diejenigen, die Aufnahmeprüfung und Probezeit bestehen, machen in den allermeisten Fällen, die Matur. So gesehen bin ich auch nicht sicher, ob wirklich so viele von «den Falschen» […] ans Gymi gelangen.»
Bei einem Aufnahmeverfahren, bei dem Vornoten und Aufnahmeprüfungen zählen wie in Zürich, ist der Anteil der Schülerinnen und Schüler, die sowohl in Sprache als auch in Mathematik nicht ins Gymnasium gehören würden, deutlich unter 5 Prozent. [In Kantonen ohne Aufnahmeprüfung] sind es fünfmal mehr, nämlich 25 Prozent.
Wolter bezieht sich hier aus einer Statistik aus dem vorletzten Bildungsbericht von 2018 (S. 145):
Diese Daten sind so überhaupt nicht aussagekräftig, weil in den beiden Kategorien ganz unterschiedliche Kantone zusammengefasst wurden. So ist der Kanton Zürich in der Kategorie «mit Prüfung» mit allen Kantonen zusammengenommen, die tiefe bis sehr tiefe Maturitätsquoten haben, während in der Gruppe «ohne Prüfung» mehrheitlich Kantone mit hohen Quoten sind.
Relevante Vergleiche könnten nur angestellt werden, wenn der Kanton Zürich mit strukturell ähnlich aufgestellten Kantonen wie etwa Zug oder Aargau verglichen würde, die ohne Prüfung auskommen (der Kanton Aargau hat das System umgestellt und wäre ohnehin als Vergleich interessant, weil er auf der gymnasialen Ebene viele Innovationen umsetzt, die der Kanton Zürich mit etwas Verzögerung ebenfalls implementiert).
Die ÜGK-Studie hat aufgrund der PISA-Daten von 2022 ausgewertet, wie gut Grundkompetenzen im Bereich Sprachen am Ende der 11. Klasse erreicht werden (das ist der Abschluss der obligatorischen Schulzeit). Im Kanton Zürich betrifft das im Bereich «progymnasialer Unterricht» das erste Jahr Kurzzeitgymnasium oder die Handelsmittelschule, im Kanton Aargau die Bezirksschule. Der Kanton Zug hat bei der Befragung als einziger Kanton nicht mitgemacht. Was zeigt die Statistik? Im Kanton Zürich erreichen beim progymnasialen Weg fast alle Schüler:innen die Grundkomptenzen. Im Kanton Aargau ebenfalls – obwohl nur ein Teil der hier getesteten Schüler:innen eine gymnasiale Ausbildung antreten wird.
Die Aussagen von Wolter sind also sofort falsch, wenn man genauer hinsieht. Er braucht eine veraltete und verfälschte Statistik, um die Aufnahmeprüfung zu verteidigen. (In demselben Interview sagt er, von «10 Schülern, die es schaffen, ins Gymi zu kommen, haben nur knapp 3 Schüler zehn Jahre später einen universitären Master» – und lässt dabei alle weg, die eine Fachhochschule absolviert, einen Bachelor erworben oder eine Lehre abgeschlossen haben.)
Kehrt man zum Argument zurück, dann kann man sagen: Die Daten lassen nicht den Schluss zu, welche die Verfechter der Aufnahmeprüfung gerne ziehen würden. Der Kanton Zürich hat nicht deshalb recht gute Ergebnisse bei den Grundkompetenzen und bei den Studienabbrüchen, weil die Aufnahmeprüfung gut wäre, sondern weil er streng selektioniert und eine tiefe Maturitätsquote hat. Alle Kantone mit vergleichbaren Quoten kommen auf vergleichbare Ergebnisse – unabhängig davon, ob sie eine Prüfung einsetzen oder nicht.
Nun kann man, wie Roland Lüthi, auch finden, die Aufnahmeprüfung sei effizient, was den Aufwand betrifft. Wenn das überhaupt stimmt, wiegt das das aus meiner Sicht den Stress für die Schüler:innen und die Unzufriedenheit in der Bevölkerung aber nicht auf. Elegantere Verfahren wären denkbar und würden die Qualität der Bildung im Kanton Zürich verbessern.
Wenn ich mit Lehrpersonen alternative Bewertungs- und Prüfungsmethoden diskutiere, mit denen sich Probleme der traditionellen Prüfungskultur lösen lassen – einen Einblick erhält man in meinem Newsletter – dann taucht ein Einwand immer wieder auf: Sowas gehe in Fächern mit vielen Lektionen sicher gut, aber in den mit nur zwei Lektionen dotierten Fächern sei das ein Ding der Unmöglichkeit. Zu viele Klassen, zu wenig Zeit.
Dieser Einwand ist valide. Ich könnte mit 10 Klassen, die ich zwei Lektionen pro Woche sehe, vieles nicht machen, was ich für lernförderlich und pädagogisch wertvoll halte. Zwei Lektionen pro Woche bedeuten gut drei Minuten Präsenzzeit pro Schüler:in. So kann keine Beziehung entstehen, in der Vertrauen entstehen und ein gutes Arbeitsklima gedeihen kann.
Deshalb müssen die Zweistundenfächer verschwinden. Das ist leicht provokativ formuliert, aber nicht so gemeint: Nicht die Fächer müssen verschwinden, denen oft nur zwei Lektionen pro Woche zugewiesen wird, sondern das Format muss abgeschafft werden. In jedem Fach ist genügend Zeit wichtig, jedes Fach braucht tragfähige Beziehungen zwischen Lehrenden und Lernenden.
Nur: Die Lektionenzahl ist beschränkt. Wie sollen Schulen und Schulverwaltungen das bewerkstelligen? Dazu gibt es mehrere denkbare Wege – einige davon erfordern allerdings gesetzliche Reformen:
Die Stundentafeln könnten so gestaltet werden, dass kein Fach weniger als drei Stunden pro Woche zugeteilt bekommen darf. Das bedeutet dann, dass in einigen Schuljahren bestimmte Fächer nicht unterrichtet werden, in anderen dafür mit mehr Zeit.
In vielen Kantonen gibt es Gymnasien, die Phasenunterricht (mit unterschiedlichen Namen) eingeführt haben. Gemeint ist damit ein Stundenplanwechsel nach einigen Wochen. Während diesen durch den Wechsel abgegrenzten Phase sind die Fächer doppelt so stark vertreten wie sonst – aus Zweistundenfächern werden Vierstundenfächer.
Schüler:innen wählen zwischen mehreren Zweistundenfächern aus und vertiefen die gewählten Fächer, während sie die nicht gewählten nicht (mehr) besuchen.
Fächer werden zu grösseren Einheiten kombiniert, wie das z.B. in der Schweizer Sekundarschule mit naturwissenschaftlichen und geisteswissenschaftlichen Fächern passiert ist.
In Zusammenarbeit mit meinen inspirierenden Kolleg:innen ist an meiner Schule ein Prüfungsformat entstanden, das ich für zeitgemäss und zukunftsfähig halte. Es funktioniert wie im Folgenden ausgeführt (ein Beispiel-Projekt ist hier verlinkt):
Die Schüler:innen arbeiten in selbstorientierten Lernphasen an längerfristigen Leseaufträgen. Die Lektüre kann dabei aus Sachtexten oder belletristischen Texten bestehen. (An meiner Schule sind solche selbstorientierten Gefässe schon etabliert, was hier eine Erleichterung darstellt.)
Diese Arbeit kann allein oder in Gruppen erfolgen. Die besten Ergebnisse erzielen meine Schüler:innen, wenn sie einen Text alleine bearbeiten.
Sie bereiten ein längeres Gespräch über den Text schriftlich vor. Dabei formulieren sie Thesen und wählen Passagen aus dem Text aus, über die sie gern diskutieren möchten. Die entscheidende Kompetenz liegt dabei darin, anhand dieser Passagen Thesen plausibel zu machen.
Mit diesen schriftlichen Arbeiten bereite ich ein Prüfungsgespräch von 30-45 Minuten vor (Kolleg:innen führen auch noch längere Gespräche). Das Gespräch ist kein Abfragen von Wissen, sondern ein Austausch zwischen Personen, die einen interessanten Text gelesen haben und darüber diskutieren.
Mit dabei sind immer auch andere Schüler:innen der Klasse, die mitdenken, zuhören und eigene Fragen stellen.
Denkbar ist, dass die Schüler:innen am Schluss den gelesenen Text abgeben, damit anhand von Randnotizen ihre Vorbereitung und ihr Verständnis noch beurteilt werden können.
Der Frage, welche KI-Tools Schüler:innen wie einsetzen, kommt dabei eine untergeordnete Bedeutung zu. Problematisch wäre nur, wenn sie damit Lektürevermeidung betreiben würden. Aufgrund der Tiefe und Länge des Gesprächs ist das aber kaum zu leisten.
Was überzeugt mich am Format?
Schüler:innen entwickeln hier echte Expertise. Sobald sie für ein Werk zuständig sind, vermeiden sie Fallen, die in der traditionellen Prüfungskultur nachhaltige Lerneffekte immer und immer wieder behindern. In dem beschriebenen Format entstehen Interesse, eine Lesekultur und auch eine Fehlerkultur.
Das Format zeigt die Haltung gegenüber Lernenden, die mich in Christof Arns Ausführungen zur agilen Didaktik immer beeindruckt haben: Ich interessiere mich für das, was sie denken, wahrgenommen haben und fragen. Sie füllen nicht schematische Aufgaben aus, sondern sind echte Gesprächspartner:innen. Ich nehme sie nicht defizitorientiert wahr.
Eine Note ist gar nicht nötig. Die Schüler:innen machen eine Erfahrung, die einen grösseren Wert hat, als eine Note je haben könnte. Sie merken, wenn sie bei Passagen unsicher sind oder Zusammenhänge nicht gut verstanden haben. Ich kann ihnen offenes Feedback geben. Die Reduktion des Gesprächs auf eine Zahl ist denkbar, aber irgendwie auch unsinnig (ich arbeite mit einem Kompetenzraster, das so aussieht).
Schüler:innen machen viele positive Erfahrungen: Sie merken, wie belohnend eine längere Lektüre sein kann, wie interessant Gespräche über literarische Texte sind und sich schriftliche Vorbereitung und mündliche Explikation verbinden. Dabei wird ihnen bewusst, dass sie mehr können als eine KI – sie tanken Selbstvertrauen.
Die Schüler:innen lernen voneinander, hören einander zu und nehmen andere als Fachpersonen wahr.
Dieser Dreischritt von 1) selbstgesteuerte Vorbereitung 2) schriftliche Vorbereitung und 3) mündliche Prüfung ist aus meiner Sicht in allen Fächern auf allen Stufen denkbar. Das Vorgehen bedingt genug Zeit für die Lernenden, was dann auch Lehrkräfte so weit entlastet, dass sie diese für sich genommen aufwendigen Prüfungen durchführen können. Gleichzeitig müssen die Lernenden bei der Vorbereitung aber auch Unterstützung erhalten – der Aufwand ist wirklich nicht zu unterschätzen.
Als Google zum Standard für die Informationssuche wurde, habe ich unter anderen Lehrpersonen geraten, im Netz eine Seite zu erstellen, auf der man Informationen über sie findet. Warum? Erstens erhält man so die Hoheit darüber, welche Informationen bei Google weit oben angezeigt werden. Zweitens ist man geschützt vor Falschinformationen und Verwechslungen.
Bei Unternehmen nennt man das SEO und meint damit Verfahren, Suchmaschinen die Daten zu geben, mit denen sie das eigene Unternehmen bei Suchanfragen möglichst gut darstellen.
Einer der Goldstandards für solche Suchen ist Wikipedia – weil eine entsprechende Seite ein enorm gutes Ranking bei Suchmaschinen und anderen Netzwerken erhielt. Was auf Wikipedia steht, wird generell als unabhängige Wahrheit angesehen. Wikipedia kann aber nicht direkt bespielt werden, auch wenn das viele Menschen und Unternehmen immer wieder versuchen. Zudem sind die dort verfügbaren Informationen nicht immer aktuell oder neutral.
Seit einiger Zeit erfolgt der Zugriff auf Informationen nicht mehr primär über Google, sondern über KI-Tools. Auch Google blendet im Standardmodus eine KI-Antwort auf die Suchanfrage ein. Die Idee einer «Grounding Page» ist nun eine maschinenlesbare Seite, auf der möglichst präzise Informationen über eine Person oder ein Unternehmen stehen. Das Grounding Page Project formuliert die Idee wie folgt:
KI-Systeme basieren auf Musterrekonstruktion, was oft zu Halluzinationen, fehlenden Fakten und instabiler Entitätsinterpretation führt. Das Grounding Page Project löst dies, indem es Sichtbarkeitsdefizite für schwach repräsentierte Entitäten behebt und englisch-dominierte Retrieval-Verzerrungen adressiert.
Mit dem Skript wird man schrittweise durch die Erstellung geführt, Claude formatiert am Schluss alles richtig. (Ich habe in Claude ein Projekt angelegt.)
Zum Schluss eine kleine Einschätzung: Ich denke, das ist für Unternehmen ein hilfreiches Werkzeug, weil es die KI-Tools in die richtige Richtung lenkt. So vermeidet man Verwechslungen und Falschinformationen. Mehr dazu erfährt man auf groundingpage.com/de/ Privatpersonen hingegen brauchen so etwas noch nicht, zumindest dann nicht, wenn man die relevanten Informationen über sie im Netz findet und Verwechslungen unwahrscheinlich sind. Sobald viele ähnlich heissen und in einem ähnlichen Bereich tätig sind, würde ich mir überlegen, eine solche Grounding Page anzulegen.
«Fundamentally I think it’s impossible to make it perfect». Die Aussage des OpenAI-Gründers Sam Altman über KI-Detektoren hallt heute in den Aussagen vieler Expert:innen und Pseudo-Expert:innen nach. Sie behaupten, KI-Detektoren funktionierten nicht. Deshalb sei es nicht sinnvoll, sie einzusetzen.
Diese beiden Aussagen muss man trennen: Die eine ist deskriptiv – sie macht eine Aussage über bestimmte Tools, die getestet werden können. Die Aussage lautet: Diese Tools funktionieren nicht. Diese Aussage ist so falsch. Es gibt funktionierende Detektoren, insbesondere Originality.ai kann recht zuverlässig erkennen, ob Texte von einer KI generiert wurden (RAID-Studie).
Die zweite Aussage ist normativ. Sie lautet: Solche Tools sollten in vielen Kontexten nicht eingesetzt werden, sie schaden mehr, als sie nützen. Das hängt von den Umständen ab, unter denen diese Tools eingesetzt werden. Und von den Konsequenzen, die dieser Einsatz hat. Damit der Einsatz sinnvoll ist, muss er transparent kommuniziert werden und so erfolgen, dass eine Toleranz bezüglich der Fehler, die solche System machen, berücksichtigt wird.
Warum behaupten viele Menschen, die sich mit KI auseinandersetzen, es gäbe keine funktionierenden Detektoren? Das hat verschiedene Gründe:
Die Aussage, von Menschen gemachte Texte, Bilder und Videos seien grundsätzlich und prinzipiell nicht von maschinengenerierten zu unterscheiden, wird für Marketing von KI-Tools missbraucht. Menschen setzen sie auch da sein, wo sie nicht dürften. Die Anbieter:innen und Berater:innen nehmen ihnen die Angst, dass das erkannt werden könnte.
Die Funktionsweise der Detektoren ist vielen Menschen nicht bekannt. Auch Fachpersonen behaupten, KI-Detektoren würden sich auf bestimmte Textmerkmale beziehen, um daraus eine Beurteilung abzuleiten. Die funktionierenden Detektoren setzen aber genau so wie die text- oder bildgenerierenden Tools Machine-Learning ein, um KI-gemachte von menschengemachten Produkten zu unterscheiden. Vereinfacht gesagt können Maschinen fast jedes Muster hervorbringen – und genau so können sie fast jedes Muster erkennen. (Und wir müssen ihnen nicht einmal sagen, worin das Muster besteht.)
Viele Menschen testen die kostenlos zugänglich Detektoren und bilden sich darüber ihr Urteil. Die leistungsfähigen Tools sind aber kostenpflichtig, so auch Originality.
«Funktionieren» wird zuweilen falsch verstanden. Detektoren erkennen nicht 100% der maschinengenerierten Texte. In 2-3% der Fälle kommt es zu False Positives und False Negatives. Diese Fehlerquote ist nicht 0, aber sie ist auch nicht so hoch, dass man diese Tools nicht benutzen könnte. (Hinzu kommt, dass Originality Prozent-Werte ausgibt, die oft missverstanden werden. 84% KI bedeutet, dass 100 solche Texte 84x von einer KI und 16x von einem Menschen geschrieben werden – es bedeutet nicht, dass 84% des Textes von einer Maschine geschrieben wurde, sondern drückt eine Wahrscheinlichkeit aus, dass KI verwendet wurde.)
Expert:innen möchten oft nicht, dass KI-Detection zum Einsatz kommt, z.B. an Schulen oder Hochschulen. Das ist oft ein sinnvoll begründetes Urteil, das mit dem Hinweis verstärkt wird, dass diese Detection gar nicht funktioniere. Mit diesem Beitrag möchte ich das unterbinden: Wer gute Argumente hat, muss bei den Prämissen nicht ungenau werden.
Das «Überarbeiten»-Problem: Frage ich Schüler:innen, ob sie einen Text von einer KI haben erstellen lassen, sagen sie fast immer: «Nein, ich habe ihn nur mit einem KI-Tool korrigiert, das darf ich ja.» Viele Fachpersonen denken, ein mit einem KI-Tool überarbeiteter Text sei nicht KI-generiert. Die Tools auf dem Markt verwenden eine Systematik, die ich unten abgebildet habe:
Klassifikation von Texten bei Originality und anderen Tools, vgl. Hines
Fazit: KI-Detektoren funktionieren. Und: Es gibt gute Gründe, sie nicht flächendeckend einzusetzen.
(Vielleicht noch eine persönliche Bemerkung: Mir ist es wichtig, offene, ehrliche Beziehungen mit Schüler:innen zu haben. Wenn sie mir sagen, was sie mit ChatGPT gemacht haben, kann ich sie unterstützen und mit ihnen arbeiten. Wenn sie mir etwas vormachen, geht das nicht. Der Verweis auf KI-Detektoren kann hier helfen, eine ehrliche Kommunikation herzustellen. Ohne Drohung, ohne Strafe. Es gibt kein Recht auf gute Noten durch Betrug.)
Auf TikTok findet man folgendes Video zum Thema «Vertiefungsarbeiten» in der Berufslehre:
Mit einem einfachen KI-Workflow (ich beschreibe ihn unten) lässt daraus ein formaler, professioneller Reflexions-Text generieren – ich habe ihn ganz unten abgedruckt.
Der Workflow sieht so aus:
Transkription der Audio- oder Videodatei, hier mit Töggl, weil das Video in Dialekt aufgenommen wurde.
Den Text in ein LLM-Tool der eigenen Wahl kopieren und mit folgendem Prompt arbeiten: «Bitte mach aus folgendem Text eine Reflexion für eine Vertiefungsarbeit an einer Schweizer Berufsschule.»
Das bedeutet: Wer heute auch nur eine Sprachnachricht aufnehmen kann, kann daraus einen längeren, strukturierten Text machen. Wer das direkt in die KI-App reinspricht, braucht nicht einmal diese Zwischenschritte.
Reflexion zur Vertiefungsarbeit (VA)
1. Thematische Wahl und Erwartungshaltung
Die Wahl des Themas meiner Vertiefungsarbeit, Social Media, stellte sich im Nachhinein als meine grösste Fehlentscheidung heraus. Während meine Mitschülerinnen und Mitschüler durch spezifische, handlungsorientierte Projekte – wie Interviews mit Fachpersonen (z. B. dem Polizeichef), der Entwicklung einer eigenen Website/eines Games oder dem Erlernen einer neuen Sprache – klare, messbare Ergebnisse erzielen konnten, empfand ich mein Thema als zu breit und unspezifisch. Dies führte anfänglich zu einer Unterschätzung des Arbeitsaufwands und einer unklaren Zielsetzung.
2. Zeitmanagement und Projektplanung: Der gravierendste Fehler
Der kritischste Fehler im gesamten Prozess war das mangelhafte Zeitmanagement und die ungenügende Planung. Ich ging fälschlicherweise davon aus, dass die Erstellung der notwendigen 10’000 Wörter (ca. 10 Seiten) innerhalb des letzten Monats vor der Abgabe realistisch wäre. Diese Haltung – „Ja, ja, das schaffe ich schon noch“ – war fatal.
In der Endphase mündete diese Fehleinschätzung in extremem Zeitdruck. Am letzten Abend war noch ein Grossteil der Arbeit (etwa 5’000 Wörter) zu verfassen. Die Fertigstellung der reinen Textmasse führte kurzfristig zu Erleichterung, wurde jedoch unmittelbar von der Erkenntnis abgelöst, dass essenzielle formale Anforderungen fehlten.
3. Formelle und strukturelle Mängel
Unter dem enormen Zeitdruck wurden wichtige formelle Schritte vernachlässigt oder nur oberflächlich ausgeführt:
Quellenmanagement: Die vollständige und korrekte Verlinkung aller recherchierten Quellen und Bilder wurde erst auf den letzten Drücker und hastig durchgeführt.
Struktur: Die Erstellung eines aussagekräftigen Titels, eines Inhaltsverzeichnisses und die saubere Gliederung der Arbeit litt stark unter dem Zeitmangel.
Abgabeform: Während einige Kollegen ihre Arbeit professionell druckten, laminierten und binden liessen, reichte ich meine Arbeit in einer unpersönlichen Form (auf einem USB-Stick beim Lehrer) ein. Dies signalisierte eine mangelnde Wertschätzung für die erbrachte Leistung.
Ein weiteres Versäumnis war die unsaubere Ausführung des Arbeitsplans. Da die Vertiefungsarbeit in einer Zweiergruppe durchgeführt wurde, war der Plan quasi leer, da wir davon ausgingen, dass wir die tatsächlichen Arbeitsschritte nachträglich ergänzen könnten – eine Haltung, die unseren Betreuungslehrer zu Recht unzufrieden stimmte.
4. Ergebnis und wichtigste Lektionen
Das Endergebnis war mit der Note 3 (Dreier) entsprechend meiner eigenen kritischen Einschätzung. Das war eine herbe, aber ehrliche Quittung für die vielen gemachten Fehler.
Die wichtigsten Erkenntnisse, die ich aus dieser Arbeit gezogen habe, sind:
Priorität der Planung: Eine Vertiefungsarbeit erfordert eine detaillierte, realistische Zeitplanung, die frühzeitig beginnt und konsequent eingehalten wird.
Themenspezifität: Ein klar eingegrenztes und spezifisches Thema führt zu fokussierter Recherche und besseren Ergebnissen.
Formelle Wertschätzung: Die saubere formelle Aufbereitung (Quellen, Struktur, Abgabeform) ist integraler Bestandteil der Gesamtleistung und sollte nicht unterschätzt werden.
Zukünftigen Studierenden kann ich nur raten: Nehmen Sie sich die Zeit, erstellen Sie einen soliden Plan und legen Sie Wert auf die professionelle Ausführung – ich bin überzeugt, dass jede und jeder diese Arbeit deutlich besser abschliessen wird, als es mir in diesem Prozess gelungen ist.
Aktuell gibt es eine KI-Blase. Diese hat primär wirtschaftliche Gründe, hat aber auch stark damit zu tun, dass es rund um KI-Versprechen gibt, welche diese Technologie nicht wird einlösen können. Aktuell denken viele Menschen, dass die KI immer leistungsfähiger wird. Damit ist die Befürchtung verbunden, dass viele Tätigkeiten, die Menschen heute ausüben oder ausüben müssen, von Maschinen übernommen werden könnten.
Diese Versprechen basieren ähnlich wie bei Crypto-Technologien und beim Web 2.0 auf unrealistischen Annahmen. Um das zu verstehen, lohnt es sich zu überlegen, was eine KI heute so gut kann, dass das für Menschen eine Entlastung darstellt. (KI meint hier meistens LLM). Meine Liste sieht wie folgt aus:
Websuche: Die Enshittification (Doctorow) von Google durch Werbung und KI führt dazu, dass KI-Tools bessere Suchergebnisse bieten. Das betrifft insbesondere aufwendigere Anfragen, die mehrere Ergebnisse kombinieren.
Coding: KI-Tools finden Fehler in Programmen, können Routine-Code automatisiert schreiben und erlauben Vibe Coding. Zudem können Code unterschiedlich formatieren.
Verarbeitung grosser Textmengen: KI-Tools können helfen, Orientierung in grossen Textmengen zu finden, suchen Stellen raus und können Zusammenhänge auch visuell klar machen – auch wenn die Zuverlässigkeit noch mangelhaft und die Kontextfenster zu klein sind.
Assoziieren/Ideen finden: KI kann gut Ansätze für weiteres Arbeiten liefern. Nicht dass sie selbst kreativ wäre, aber der Textgenerator erzeugt Einstiegspunkte, z.B. für Buchtitel usw.
Illustrationen / Videos generieren: Visuelle Darstellungen, auch in Video-Form, können in einfacher Form von KI-Tools vorgenommen werden. Auch hier gilt: Kreativ werden diese Ausdrucksweisen nie sein, weil sie vom bereits verarbeiteten Input abhängig sind. Muster lassen sich aber problemlos reproduzieren.
Unterrichtsidee: Plakat gestalten, das für oder gegen den Konjunktiv Position bezieht. Ergebnis von ChatGPT 5.1.
All das werden KI-Tools in Zukunft wohl noch etwas besser können als heute. Sie werden dafür aber viel Energie aufwenden, so dass die Kosten in absehbarer Zeit beträchtlich sein werden. Heute werden sie durch Investments vor- oder querfinanziert. Nach dem Platzen der Blase wird das nicht mehr gehen.
Damit wird die Arbeit von Menschen nicht überflüssig oder ersetzt. Menschen werden zudem KI-Tools einsetzen und ihre Ergebnisse überprüfen müssen. Grundsätzlich arbeitet KI in einer Zone zwischen Laien und Profis. KI kann fast alles besser als Laien – und fast alles schlechter als Profis. Ich habe das so dargestellt:
Das ist der Grund, weshalb KI für Schüler:innen so attraktiv ist: Die Ergebnisse sind besser als diejenigen, die Schüler:innen in der verfügbaren Zeit erreichen können. Für Fachpersonen ist aber KI ein minderwertiger Ersatz. Menschen wollen keine KI-Texte lesen, keine KI-Filme sehen, keinen KI-Code laufen lassen. Sie tun das nur, wenn es nicht anders geht. Ein gutes Beispiel ist dafür Spotify: Die Plattform wird von KI-Songs überschwemmt. Diese hören sich Menschen aber nur an, wenn sie ihnen über den Algorithmus unbewusst abgespielt wird.
Die verwendete Darstellung kann auch erklären, weshalb es zwei gegensätzliche Ansichten zu KI gibt. Aus der Sicht von Laien wird KI überschätzt, Erfahrungen und Beispiele werden so angesehen, als sei es unvorstellbar, was KI kann. Profis hingegen unterschätzen KI, weil sie im Bereich ihrer Expertise zahlreiche Fehler und qualitative Defizite in den KI-Produkten erkennen (rote Pfeile).
Das fundamentale Problem besteht nun darin, dass sich daran erstens nichts ändern wird. Zweitens werden Laien zwar mit KI-Tools bessere Ergebnisse erzielen als ohne, aber sie werden das Level von Expert:innen nicht erreichen – und oft gar nicht verstehen, worin die Expertise überhaupt liegt. Was wiederum dazu führen wird, dass Expertise entwertet wird (ökonomisch und kulturell).