KI-Text-Tools verstehen: Sie funktionieren wie Autofokus

Im Dezember hat Ryan Broderick drei Vergleiche vorgeschlagen, mit denen sich die Auswirkungen von KI-Tools im Umgang mit Texten reflektieren lassen:

  1. Photoshop
    Permanente Verunsicherung und Verdächtigungen; Versuch, Zugang zu erschweren oder verhindern. Eher teuer und nur für Menschen sinnvoll nutzbar, die darin geschult sind.
  2. Napster/Spotify
    Urheberrechtsprozesse werden bei den großen/seriösen Anbietern zu Transparenz führen. Viele werden von User*innen Erlaubnis einholen, Daten verwenden zu dürfen. Am Schluss entsteht ein Spotify für KI, das Urheber*innen minimal entschädigt.
  3. Smartphones
    Erst breiter Zugang ermöglicht sinnvolle Nutzung, führt aber zu einer Moral Panic und breiter Moralisierung (primär in Bezug auf die Nutzung von Frauen und Kindern).

Alle diese Sichtweisen sind erhellend, wenn es um das Verständnis von Technologien geht, die Texte mit KI generieren. Sie beleuchten Aspekte, die alle relevant sind. Wie die Technologie sich aber gesellschaftlich auswirken wird, erfassen sie nicht.

Ich möchte dafür ein anderes Bild anbieten: KI-Sprachtechnologie funktioniert wie Autofocus bei Fotokameras. Diese Technologie hat dazu geführt, dass Bilder auf Knopfdruck scharf waren. Bevor es sie gab, waren auf entwickelten Filme viele Bilder verschwommen, weil Fotograf*innen manuell nicht richtig scharf gestellt haben.

Mit dem Vergleich meine ich zwei Merkmale:

  1. Die Technologie ist in andere Technologie verbaut.
    Textverarbeitungsprogramme, Chat-Software, Bedienungsanleitungen, Suchmaschinen etc. werden in naher Zukunft alle KI enthalten, die Texte erzeugt. Wir werden nicht explizit ChatGPT oder Bing aufrufen, um Text-KI zu nutzen, sondern unser Smartphone und unser Laptop werden automatisch solche Dienste einsetzen, ohne dass wir sie bewusst wahrnehmen.
  2. Sicherung eines neuen Minimums.
    Handyfotos können aus ganz verschiedenen Gründen schlecht sein – unscharf sind sie aber kaum noch. Entsprechend wird es weiterhin schlechte Texte geben: Diese werden aber ein gewisses Niveau nicht mehr unterschreiten. KI wird dazu führen, dass Texte fast alle orthografisch korrekt sind, dass sie eine gewisse Kohärenz und Einheitlichkeit aufweisen und bestimmte Textsortenmerkmale einhalten. Das wird zu einer gewissen Künstlichkeit führen, was bei Autofocus auch der Fall war.

Daraus leite ich ab, dass KI die Gesellschaft nicht radikal verändern wird. Ja, wir leben heute in einer Gesellschaft, in der alle von allem Bilder machen können, die erkennen lassen, was eine Person um sich herum wahrnimmt. Genauso werden wir in einer Gesellschaft leben, wo alle Menschen Texte verfassen lassen können und auch Maschinen Texte generieren. Das wird aber weder die Schule noch andere gesellschaftliche Systeme neu formatieren, sondern einfach unseren Umgang mit Texten leicht verschieben.

Midjourney, Prompt: program code reflected in a camera lens, illustration

Lehrpersonen sollten sich professionell verhalten, keine Vorbilder sein

Die Vorstellung, Lehrpersonen müssten für Kinder oder Jugendliche Vorbilder sein, ist verbreitet. Sie ist meiner Meinung nach aber irreführend und in einigen Aspekten problematisch. Lehrpersonen sollten sich professionell verhalten und eine Kultur etablieren, in der alle Schüler*innen sich wohlfühlen und gut lernen können.

Problem 1: Nachahmung

Ich bin Lehrer, aber ich bin auch ein Mensch mit Schwächen und problematischen Gewohnheiten. Wenn ich mich nun als Vorbild inszeniere, dann gehe ich davon aus, dass Schüler*innen sich so verhalten sollten, wie ich das mache. Ich trinke z.B. sehr viel, zu viel Kaffee. Das sollten Jugendliche aus gesundheitlichen Gründen nicht tun. Nun könnte ich als Vorbild so tun, als wäre das anders, den Kaffee also heimlich konsumieren und auf Nachfragen mit Halbwahrheiten antworten (»nicht mehr so viel wie früher, haha«.) Dann würde ich wiederum vorleben, dass man Schwächen verstecken und andere darüber belügen sollte.

Ganz allgemein ist es wohl keine gesunde Vorstellung, so sein zu wollen, wie jemand anders. Die Schüler*innen, die wir unterrichten, sollten nicht so werden wie wir – weder auf einer individuellen noch auf einer kollektiven Ebene. Ich kenne viele (gute) Schulen, aber an keiner würde ich für die Idee einstehen, dass die Gesellschaft besser würde, wenn sich Schüler*innen als Erwachsene so verhalten würden wie die Lehrpersonen an dieser Schule.

Problem 2: eigene Wege gehen

Als Lehrer in einem Fachlehrersystem kenne ich das Problem, dass jede Lehrperson das eigene Fach für das wichtigste hält. Sie hat es gewählt, studiert; sie vertritt es mit Begeisterung. Nur: Schüler*innen können nicht 12 Fächer mit Begeisterung anpacken. Sie müssen auswählen, priorisieren, eigene Wege finden und sich nach der Matur für ein eigenes Studium entscheiden.

Ähnlich verhält es sich in anderen Bereichen des Lebens. Menschen können sich ganz unterschiedlich verhalten und sie müssen herausfinden, welche Haltungen und Handlungen zu ihnen passen und welche nicht. Die Vorbild-Idee geht davon aus, dass es einen richtigen und viele falsche Wege gibt (und dass die Lehrperson den richtigen eingeschlagen hat).

Wie absurd das ist, zeigt sich z.B. bei der Berufswahl: Es ist völlig klar, dass nicht alle Schüler*innen für den Beruf der Lehrperson geeignet sind. Ist die Lehrperson nun in der Rolle des Vorbilds, dann ergeben sich hier kognitive Konflikte, die Schüler*innen nicht dabei unterstützen, eigene Wege zu gehen. Ganz unterschiedliche Wege.

Problem 3: Asymmetrie

Lehrpersonen nehmen eine ganz bestimmte Rolle mit Pflichten und Rechten ein. Sie benutzen eigene Toiletten, haben Verpflegungsmöglichkeiten und Rückzugsräume und werden bezahlt. Sie arbeiten an einer Schule, d.h. sie bereiten Unterricht vor und begleiten Schüler*innen. Diese besuchen eine Schule und lernen dort im Idealfall, sind geprägt von ihren Peers und ihrer Entwicklung. Kurz: Lehrpersonen sind komplett andere Menschen in anderen Situation als Schüler*innen.

Die Vorbild-Idee ebnet diese Unterschiede ein und gibt vor, dass Schüler*innen sich genauso wie Lehrpersonen verhalten könnten, wenn sie nur wollten. Das ist aber weder sinnvoll noch möglich.

Lösung: eine Kultur etablieren

Lehrpersonen, die sich professionell verhalten, schaffen eine Kultur. Diese besteht aus expliziten und impliziten Erwartungen, aus festgelegten Abläufen, aus Interventionen, Gesprächen etc. Die Kultur zielt nicht darauf auf ab, dass die Lehrpersonen nachgeahmt werden, sondern dass Lernen stattfindet, ein angenehmer sozialer Umgang möglich ist, Regeln und Erwartungen eingehalten werden. Diese Regeln und Erwartungen werden erklärt und begründet. Schüler*innen müssen einander nicht deshalb respektieren oder zuhören, weil die Lehrperson es tut, sondern weil es richtig und sinnvoll ist.

So bedeutet der Verzicht auf die Vorbild-Vorstellung gerade nicht »anything goes«. Sie bedeutet, unehrliche Inszenierungen zu vermeiden und die Energie auf das zu fokussieren, was wirklich wichtig ist an einer Schule: das Lernen und der soziale Umgang miteinander.

Illustration: Midjourney, Prompt: school, happy students and teacher, comic, illustration, v4 (upscaled)

#KIKompetenzen Teil 3: Nutzung transparent nachweisen

Die Verfügbarkeit von verschiedenen KI-Tools erfordert eine Vielzahl von Kompetenzen, sowohl bei Schüler*innen wie auch bei Lehrpersonen. In einer Serie von Blogposts und Videos erörtere und beleuchte ich diese Kompetenzen.

  1. Wie mit einem Kind sprechen (das eine Maschine ist)
  2. Anfragen verfeinern
  3. Nutzung transparent nachweisen
  4. Die KI trainieren
  5. Problem von mehreren Seiten (Sprachen etc.) angehen 
  6. Communities nutzen
  7. Es gibt nicht nur eine KI

Das Plagiats-Problem

Wer schreibt, markiert Zitate oder Paraphrasen und gibt an, auf welche Quellen er oder sie sich bezieht. Diese (wissenschaftliche) Grundregel ist bei KI-Tools nicht ganz einfach zu befolgen – oder nur in den einfachen Fällen, wo ganze Abschnitte von KI-Tools kopiert werden. KI-Schreibtools sind keine Quellen, sondern Hilfsmittel. Ich kann z.B. meinen Text bei ChatGPT hochladen und das Tool bitten, Rechtschreib- und Interpunktionsfehler zu korrigieren oder den Wortschatz etwas zu erweitern. Dadurch nehme ich zwar Hilfe in Anspruch, aber ich kopiere keine Textteile.

Schüler*innen geben bei ihren Arbeiten mittlerweile an, dass sie ChatGPT benutzen. Das sieht dann beispielsweise so aus:

Für mich als Lehrer ist nicht erkennbar, wie sie das Tool genau genutzt haben. Ich kann also – anders als bei korrekten Quellenangaben – nicht genau nachvollziehen, woher bestimmte Informationen oder Formulierungen stammen.

Lösungsvorschlag

  1. Falls Formulierungen oder Bilder direkt aus einem Tool kopiert wurden, diese wie Zitate markieren und entsprechend nachweisen.
  2. Im Literaturverzeichnis verwendete KI-Tools auflisten.
  3. Dabei verwendete Prompts einzeln auflisten.
  4. Im Anhang eine exportierte Dokumentation der Dialoge mit dem Tool anhängen. (Für ChatGPT geht das mit dieser Chrome-Erweiterung einfach.)

Das sieht dann zum Beispiel so aus:

Verwendete KI-Tools

ChatGPT, chat.openai.com (5. Januar 2022)
Prompts:
a) »Generiere drei starke Argumente zum Thema Ruhezeit von 72 Stunden« 
b) »Schreibe einen Titel zu diesem Aufsatz [Kopie des Aufsatzes]« 
c) »Bitte korrigiere alle Fehler (auch Kommafehler) im folgenden Text«

Der Standard von Nature

Im Januar 2023 hat sich die Wissenschaftszeitschrift Nature dazu geäußert, wie die Verwendung von Sprach-KI-Tools nachgewiesen werden sollte. Die Formulierungen sind sehr allgemein gehalten: »document this use« ist nicht weiter spezifiziert.

First, no LLM tool will be accepted as a credited author on a research paper. That is because any attribution of authorship carries with it accountability for the work, and AI tools cannot take such responsibility.

Second, researchers using LLM tools should document this use in the methods or acknowledgements sections. If a paper does not include these sections, the introduction or another appropriate section can be used to document the use of the LLM.

Nature, Januar 2023

Der radikale Vorschlag von Doris Weßels

Doris Weßels (für mich die wichtigste Expertin zum Thema KI-Tools bei wissenschaftlichen Arbeiten) hat vor über einem Jahr vorgeschlagen, die Markierung umzukehren. Würde man der Idee folgen, würden Schreibende kennzeichnen, was ihre eigenen Formulierungen sind. Beim ganzen Rest des Textes kann davon ausgegangen werden, dass er übernommen wurde – ob kopiert oder generiert spielt dann keine Rolle mehr.

Das Problem der Moderation von Social-Media-Plattformen

Edit 7. Januar: Aufgrund längerer Diskussionen auf Twitter füge ich unten einen Lösungsvorschlag an und hier eine Präzisierung: Ich meine mit »Mastodon« im Folgenden nicht ein technisches Protokoll oder eine einzelne Instanz, sondern die miteinander verbundenen (föderierten) Instanzen, die gemeinsam eine Social-Media-Plattform bilden, indem sie User*innen die Möglichkeit bieten, Mastodon als Twitter-Alternative zu nutzen.

* * *

Im letzten Jahr sind viele Menschen von Twitter auf Mastodon umgestiegen. Mastodon wirkt für viele angenehmer: weniger kommerziell, nicht algorithmisch gesteuert, ohne politische Extreme, kleinräumige Communities mit eigenen Regeln.

Ich nutze aktuell Twitter und Mastodon. Dem Versprechen von Mastodon gegenüber bin ich aber skeptisch. Der Grund dafür ist das Moderationsproblem. Es besteht aus drei Teilen:

  1. Social-Media-Plattformen brauchen Moderation.
  2. Moderation kostet Zeit und damit Geld (weil die damit verbundene Arbeit bezahlt werden sollte).
  3. Moderation ist mit politischen Entscheidungen und Macht verbunden. Sie legt fest, wer in welchem Kontext was sagen darf (und mit welcher Reichweite bzw. Sichtbarkeit).

Eine Plattform muss also

  1. Eine Redaktion etablieren, die Moderation organisiert.
  2. Moderation finanzieren können.
  3. Transparente politische Entscheidungen fällen und einen Rahmen schaffen, in dem Macht nicht missbraucht werden kann.

Das sind keine trivialen Probleme. Die oft gescholtene Monetarisierung von Daten hängt damit zusammen, dass viele User*innen nicht bereit sind, für Moderation zu zahlen. Genauso sind politische Entscheidungen konstant umstritten und es ist enorm schwierig, sie in unterschiedlichsten Kontexten zu vertreten.

Mastodon verspricht, das Moderationsproblem zu lösen – obwohl es das gar nicht tut. Die Architektur des Netzwerks besteht aus der Verbindung von Servern, die jeweils lokalen Regeln folgen. Mein Account social.tchncs.de/@phwampfler ist auf dem Server social.tchncs.de gehostet, der von Milan Ihl betrieben wird. Er ist für die Moderation verantwortlich und kann Regeln festlegen, die auf seinem Server gelten. Diese gelten aber auf anderen Servern nicht. Er kann User*innen z.B. sperren, aber nicht verhindern, dass diese auf anderen Mastodon-Servern ein Konto erhalten.

Hinter Mastodon stehen zwei implizite Versprechen, die verdecken, dass es an Lösungen fehlt: Wenn kleine Server dezentral Moderation organisieren, dann wirkt es so, als würde sie nichts kosten und als würde das ein globales politisches Problem entschärfen. Das Versprechen wirkt auch deshalb, weil Verstöße gegen bestimmte Normen schlicht nicht sichtbar sind – es fehlt an Suchmöglichkeiten, wie hier am Beispiel von Kinderpornografie deutlich gemacht wird. Mastodon kennt keine funktionierende globale Suche und keine einheitlichen Regeln: Es zerfällt also in Sub-Netzwerke und ist als Plattform insgesamt kaum einzuschätzen. [Hier findet man eine Replik auf den oben verlinkten Text – sie sagt aber letztlich nur, dass Server den Kontakt zu anderen Servern kappen können und das auch (transparent) tun, wenn alles korrekt läuft.]

Die ideale Vorstellung, Server-Moderation werden als Dienstleistung bereitgestellt (zum Beispiel von öffentlich-rechtlichen Sendern), unterstütze ich durchaus. Nur: Ist das in einem Umfang denkbar, der allen Menschen weltweit einen Zugang ermöglicht? Lässt sich das auch dann finanzieren, wenn Mastodon wirklich ein Tool für die Breite wird?

Die andere Vorstellung, dass lokale Regeln (ohne Algorithmen) politische Entscheide entschärfen können, halte ich für naiv. Je wichtiger Mastodon als Plattform wird, desto perfider werden die Strategien, um auszunutzen, dass Communities unterschiedliche Regeln verwenden. Natürlich werden die Server, auf denen Hardcore-Inhalte verbreitet werden, von anderen schnell markiert und ausgeschlossen. Aber diejenigen, welche Regeln nachlässig durchsetzen und zu wenig Ressourcen haben, um konsequent zu moderieren (etwa bei Übergriffen oder Doxing), provozieren Entscheidungen, die dann entweder führen, dass User*innen nicht mehr miteinander kommunizieren können, obwohl sie dasselbe Netzwerk nutzen – oder halt ein Klima schaffen, in dem Übergriffe und Doxing teilweise erlaubt sind.

Mastodon löst das Vertrauensproblem, in dem User*innen nur den Admins des eigenen Servers, nicht aber der ganzen Plattform vertrauen müssen. Nur: Diese Admins müssen damit Entscheidungen fällen, welche die Wahrnehmung der ganzen Plattform betreffen. Und sie können Nazis oder Pädokriminelle nicht ausschließen, sondern nur die Verbindung zu ihnen kappen. Mastodon ist keine Nische, in der höhere ethische Standards gelten – man merkt nur nicht, dass eigentlich keine gelten, weil lokal ausgeblendet wird, was diesen Eindruck stören kann.

* * *

Ein Lösungsvorschlag:

  1. Einige größere Mastodon-Instanzen einigen sich auf ein demokratisches Verfahren (z.B. dürfen erfahrene User*innen, die sich an Regeln halten, abstimmen).
  2. Mit dem Verfahren werden Moderationsstandards festgelegt (Regeln, Ressourcen für Moderation, Praktiken zum Umgang mit problematischen User*innen etc.). Die Standards orientieren sich an einer positiven und sicheren Erfahrungen der User*innen.
  3. Alle Instanzen, die sich nicht verpflichten, diese Standards umzusetzen, werden deförderiert. Instanzen, die nachweisen, dass sie diese Standards umsetzen, werden auf Antrag föderiert.
  4. Die Standards können durch das in 1. festgelegte Verfahren verändert und angepasst werden.
Bild: Midjourney, Prompt: mastodon, cartoon, creative, v4

#KIKompetenzen Teil 2: Anfragen verfeinern

Die Verfügbarkeit von verschiedenen KI-Tools erfordert eine Vielzahl von Kompetenzen, sowohl bei Schüler*innen wie auch bei Lehrpersonen. In einer Serie von Blogposts und Videos erörtere und beleuchte ich diese Kompetenzen.

  1. Wie mit einem Kind sprechen (das eine Maschine ist)
  2. Anfragen verfeinern
  3. Nutzung transparent nachweisen
  4. Die KI trainieren
  5. Problem von mehreren Seiten (Sprachen etc.) angehen 
  6. Communities nutzen
  7. Es gibt nicht nur eine KI

Midjourney

In dieser Folge arbeite ich mit Midjourney, einem Programm, das Bilder erzeugt. Zugang erhält man über midjourney.com. Die Verwendung von Midjourney erfolgt über das Chat-Tool Discord, wo Midjourney einen Bot anbietet, der auf Anfragen reagiert. Für ChatGPT gibt es hier sehr hilfreiche Hinweise zu Prompts:

Der Aufbau von Prompts

Prompts sind die Eingaben, mit denen KI-Tools arbeiten. In letzter Zeit sind viele Tools in der Lage, natürlichsprachige Prompts zu verstehen: Das bedeutet, ich kann einer KI einen schriftlichen Auftrag geben, der gleich lautet, wie ich ihn einem Menschen geben würde.

Das Programm übersetzt ihn dann in maschinenlesbare Angaben. Diese bestehen grob aus Mustern, Befehlen und Gewichtungen. Ein Beispiel:

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist bildschirmfoto-2022-12-20-um-15.36.46.png

»/imagine prompt« ist hier die Einleitung, die dem Programm sagt, dass jetzt eine Eingabe kommt. Der Prompt lautet dann: »messi as a minion«.

  1. Das Muster hier wäre »x as y«. Hier kann eine KI analysieren, wie ähnliche Muster bearbeitet werden – und diese Muster nutzen, um den Prompt zu bearbeiten.
  2. Einen konkreten Befehl gibt es hier noch nicht, ich könnte z.B. ergänzen mit »–ar 16:9« was dann der Befehl ist, ein Bild in der »Aspect Ratio« 16:9 zu erzeugen.
  3. Gewichtung bedeutet, dass »Messi« und »Minion« entweder gleich starkes Gewicht haben (dann entsteht eine Figur, die gleich stark nach Messi wie nach einem Minion aussieht), oder halt unterschiedliches (z.B. könnte »Messi« wichtiger sein, weil er am Anfang steht, oder »Minion«, weil hier das Aussehen beschrieben wird.

Die Interpretation von Prompts

Wenn Laien KI-Tools nutzen, dann können sie nicht genau abschätzen, wie das Tool ihre Eingaben verarbeitet. D.h. es ist nicht immer klar, welche Muster, Befehle und Gewichtungen in Prompts enthalten sind.

Um das herauszufinden, müssen wir mit den Tools spielen. Hier sieht man das Ergebnis einer ersten Anfrage.

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist bildschirmfoto-2022-12-22-um-14.50.17.png

Midjourney bietet mir direkt 9 Optionen an: Ich kann mit dem Knopf rechts die Anfrage noch mal laufen lassen (KI-Tool geben praktisch nie dasselbe Ergebnis aus, wenn man denselben Prompt verwendet). Mit den U- oder V-Buttons kann ich entweder bessere Auflösungen oder Varianten einzelner Bilder generieren lassen. V4 hat zu diesem Ergebnis geführt:

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist bildschirmfoto-2022-12-23-um-10.07.31.png

U4 hingegen zu dem – man sieht, dass noch mal weitere Optionen angeboten werden:

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist bildschirmfoto-2022-12-23-um-10.08.03.png

Auch wenn KI-Tools nicht signalisieren, dass Anfragen (und damit auch Ergebnisse) verfeinert werden können, so ist das grundsätzlich immer möglich.

Befehle kennen lernen

Für Midjourney gibt es Seiten, die Prompts für User generieren, z.B. promptomania.com/midjourney-prompt-builder. Diese Tools helfen dabei, die korrekten Befehle zu verwenden, damit Midjourney möglichst genau das tut, was ich erwarte. Im Beispiel sieht man, dass ich genau das eingeben sollte, was im weißen Fenster steht – wenn ich diese Art von Kamera, Modellierung und einen Bart möchte.

Dieses Bild hat ein leeres alt-Attribut; sein Dateiname ist bildschirmfoto-2022-12-23-um-10.23.33.png

Viele KI reagieren auf präzise Befehle aus einer Liste, weil sie letztlich einfach Programme ablaufen lassen. Diese Befehle müssen kompetente Nutzer*innen aber kennen. Hier hilft es, Listen nachzuschlagen oder Prompt-Generatoren zu verwenden. Teilweise können unterschiedliche KI-Tools auch genutzt werden, um Prompts für andere Tools zu verfassen, wie das z.B. auch in diesem Thread vorgeführt wird.

#KIKompetenzen Teil 1: Wie mit einem Kind sprechen

Die Verfügbarkeit von verschiedenen KI-Tools erfordert eine Vielzahl von Kompetenzen, sowohl bei Schüler*innen wie auch bei Lehrpersonen. In einer Serie von Blogposts und Videos möchte ich in den nächsten Tagen diese Kompetenzen beleuchten und erörtern.

Inhaltsverzeichnis

  1. Wie mit einem Kind sprechen (das eine Maschine ist)
  2. Anfragen verfeinern
  3. Nutzung transparent nachweisen
  4. Die KI trainieren
  5. Problem von mehreren Seiten (Sprachen etc.) angehen 
  6. Communities nutzen
  7. Es gibt nicht nur eine KI

Wie mit einem Kind sprechen, das eine Maschine ist

Im Gespräch mit Stefan Sasse ist mir klar geworden, dass wir ganz unterschiedliche Bilder im Kopf haben, wer eine KI eigentlich ist. Für mich ist eine KI ein Kind, ich spreche mit ihr wie mit einem Kind (das eigentlich eine Maschine ist). Kinder verstehen oft sehr wörtlich, was Erwachsene sagen – während Erwachsene stärker interpretieren, was jemand meinen könnte. Bei Aufforderungen an KI-Tools braucht man sogenannte Prompts, also Eingaben, auf die das Tool das reagiert. Im ersten Beispiel benutze ich #chatGPT, das einfachste Tool zum Erzeugen von Texten.

Diese Prompts sollten nun:

  1. möglichst explizit sein
  2. möglichst genau beschreiben, wie das Ergebnis aussehen soll
  3. alles erwähnen, was wichtig ist

Im Beispiel habe ich nun etwas vergessen – ich duze die Eltern der Kinder, die zu einer Geburtstagsparty kommen.

Der entscheidende Punkt: Ich kann immer weiter verfeinern. Ein Kind versteht oft auch nicht beim ersten Mal, was ich meine – ein KI-Tool auch nicht. Hinzu kommt: Ein Kind weiß vieles über die Welt noch nicht. Hier ist z.b. der KI nicht klar, dass ich in der Schweiz lebe und ß unüblich ist. Das könnte ich aber im nächsten Prompt wieder erwähnen.

Erinnern sollte man sich aber dabei: Das Kind ist eine Maschine. Sie erkennt Muster und reproduziert sie. Die Maschine weiß aber nichts, hat keine Beziehung zu mir, empfindet nichts und erinnert sich auch nicht in einem menschlichen Sinne. Wenn ich mir also vorstelle, mit einem Kind zu sprechen, darf ich das nicht vergessen.

Betrug, Verbote oder Nutzung: Was GPTChat für die Schule bedeutet

Ein Blogpost über die Frage, wie Programme, die automatisch Texte generieren, in der Schule benutzt werden können, muss damit beginnen, dass ich ihn von einem solchen Programm schreiben lasse. Das habe ich gemacht (im Text stehen Teile kursiv, weil die Darstellung den Gender-Stern als Markdown interpretiert):

Das verwendete Programm ist die Chat-Version von GPT-3, zugänglich unter chat.openai.com. Das Beispiel zeigt, dass jede Form von Schreibaufgabe automatisiert werden kann. Was bedeutet das für die Schule? Die KI formuliert eine verbreitete Meinung:

Um Betrug in diesem Zusammenhang zu vermeiden, ist es wichtig, dass Schüler*innen verstehen, dass die Nutzung von Schreibhilfen-Programmen unfair und unredlich ist.

Wird die Benutzung generell als unredlich angesehen, dann führt das zu zwei Problemen:

  1. Wie erkennt man, ob ein Tool verwendet wurde?
  2. Wie geht man mit Verstößen gegen das Verbot um?

Bereits heute gibt es Werkzeuge, die Voraussagen machen, ob ein bestimmter Text durch eine KI erzeugt wurde (die Voraussagen sind für deutsche Texte eher schlecht). Wir können aber damit rechnen, dass ähnlich wie bei Plagiaten ein Katz-und-Maus-Spiel beginnt: (Hoch-)Schulen werden Detektoren beschaffen, Texterzeugungsprogramme werden so programmiert, dass die Erkennung umgehen können etc. Erwischt werden dann die Lernenden, die dilettantisch arbeiten.

Der Umgang mit diesen Schüler*innen wird dem mit Plagiaten gleichen: schlechte Bewertungen, disziplinarische Maßnahmen.

Generell wird sich ein ungutes Gefühl einschleichen, ein permanenter Verdacht gegen alle guten Texten. Sobald Schüler*innen Erwartungen übertreffen, wird jemand vermuten, dass hier eine KI im Einsatz gewesen sei.

Aber es gibt eine Alternative, die Ben Thompson eindrücklich beschrieben hat. Er geht von der Einsicht aus, dass KI-Tools viele Fehler machen, und schlägt dann diesen Umgang mit Hausaufgaben vor:

Imagine that a school acquires an AI software suite that students are expected to use for their answers […]; every answer that is generated is recorded so that teachers can instantly ascertain that students didn’t use a different system. Moreover, instead of futilely demanding that students write essays themselves, teachers insist on AI. Here’s the thing, though: the system will frequently give the wrong answers (and not just on accident — wrong answers will be often pushed out on purpose); the real skill in the homework assignment will be in verifying the answers the system churns out — learning how to be a verifier and an editor, instead of a regurgitator. […]

In the case of AI, don’t ban it for students — or anyone else for that matter; leverage it to create an educational model that starts with the assumption that content is free and the real skill is editing it into something true or beautiful; only then will it be valuable and reliable.

AI Homework

Wer also Schüler*innen an Aufgabenstellungen arbeiten lässt, sollte keine Angst davor haben, dass sie GPTChat dafür nutzen – sondern sie einladen, es tatsächlich auch zu tun. Die wahre Arbeit beginnt erst danach. KI-Tools sind eine Realität, Menschen nutzen sie für ihre Arbeit. Schüler*innen müssen lernen, kompetent damit umzugehen – nicht Verbote zu umgehen. Auch dabei würden sie lernen, wie die Tools funktionieren – nur würden diejenigen bestraft, die es noch nicht verstanden haben… 

(Vor ein paar Wochen habe ich bereits ausführlich diskutiert, was GPT-3 für den Schreibunterricht bedeutet.)

Das E-Mail-Problem von Schulen lösen – in 3 Schritten

Lehrpersonen erhalten an vielen Schulen in einem Ausmaß E-Mails, dass ihre Lektüre und Bearbeitung zu einer Belastung geworden ist. Drei Schritte können helfen, das Problem einzudämmen. (Ich habe vor sieben Jahren schon darüber geschrieben, viel hat sich nicht verändert.)

  1. Der Schulleitung-Newsletter
    Lehrpersonen wie auch die Schulleitung schreiben keine Mails ans ganze Kollegium mehr. Alle Informationen, welche die ganze Schule betreffen, werden gesammelt und einmal pro Woche über einen Newsletter verschickt.
    Wer sich nicht daran hält, wird ermahnt. Die Regel muss eingeführt, aber auch durchgesetzt werden.
  2. Vorgänge automatisieren
    Regelmäßige Abläufe wie Absenzenerfassung, Notenerhebung, Raumreservationen, Vertretungen etc. müssen in Tools automatisiert werden. Sie sollten nur in Ausnahmen zu Mails führen, sondern in der Regel zu sauber abgelegten Daten, die alle dann beziehen können, wenn sie für sie relevant sind.
    Kollaborative Dokumente sind ebenfalls gute Mittel, um Zusammenarbeit ohne E-Mails möglich zu machen. Auch Lernmanagementsysteme erlauben, Informationen so zu hinterlegen, dass sie abgerufen werden können, statt über eine Push-E-Mail mitgeteilt zu werden.
  3. Bessere E-Mails schreiben
    Gute E-Mails sind
    a) kurz (three.sentenc.es)
    b) nur an die Personen adressiert, die davon betroffen sind
    c) auch im CC, dort stehen nicht Menschen, die einfach zugucken sollen, sondern wirklich Betroffene
    d) hilfreich, d.h. alle Arbeit ist erledigt, die vor der Mail erledigt werden kann (perfid sind Mails, die geschrieben werden, um anderen Arbeit zu übergeben, die man selbst machen könnte)
    e) konkret, d.h. es ist denen, welche die Mails bekommen, klar, welche Art von Reaktion erwartet wird.
Illustration einer Person, die E-Mails schreibt

Bild: Dall-E 2, »an illustration of a person reading e-mail, digital art«

Was Schulentwicklung mit dem Ethos von Graffiti zu tun hat

In Zürich gibt es Wände, an denen Sprayer*innen legal Graffiti anbringen dürfen. Dabei gibt es zwei Grundregeln:

  1. Überspraye ein Kunstwerk nur mit etwas Schönerem.
  2. Überspraye nichts, was mit dem FC Zürich zu tun hat, weil du sonst Ärger bekommen könntest.

In einem Gespräch mit einer Kollegin ist mir heute bewusst geworden, dass Schulentwicklung genau diesen Regeln folgt. Sie ersetzt etablierte Praktiken an einer Schule durch neue. Das gelingt dann, wenn

  1. Die neuen Praktiken besser sind als die alten.
  2. Niemand verärgert wird, der oder die nicht damit umgehen kann, wenn sich Gewohnheiten verändern.

Klingt trivialer als es ist: Wer eine Schule verändern will, muss sich nicht nur besser machen, sondern auch ihre teilweise versteckten Traditionen und Hierarchien verstehen. Es reicht nicht nur, gute Vorschläge zu machen – wer sie umsetzen will, muss verstehen, was Veränderungen für Schlüsselpersonen bedeuten.

Wer ein FCZ-Graffiti übersprayt, kann nicht darauf verweisen, wie schön das neue Kunstwerk ist. Die Auseinandersetzung erfolgt weder über Ästhetik noch über Vernunft, sondern wird durch die Regeln von eingefleischten Fans bestimmt. Diese gibt es auch an Schulen.

Prüfungslernen: Begriff gesucht!

Die Prüfungskultur vieler Schulen führt dazu, dass Lernende sich kurzfristig auf Arbeiten vorbereiten, schnell Auswendiggelerntes niederschreiben und es dann schnell wieder vergessen. Diese Praxis wird von Schüler*innen »Lernen« genannt, Lehrpersonen verwenden andere Begriffe, um sich davon negativ abzugrenzen: Häufig ist die Rede von »Bulimie«-Lernen, bei dem Stoff »reingefressen« und »rausgekotzt« wird.

Krankheitsbilder sind keine guten Begriffsspender. Deshalb passt auch die englische Alternative nicht: »binge learning« ist an »binge eating« angelehnt, also wird krankhaftes Lernen wiederum mit anderen Krankheitsbildern in Verbindung gebracht.

Was tun? Ich habe rumgefragt, auf Twitter und Mastodon. Hier die Liste mit Vorschlägen – ich bedanke mich bei allen. Unten verkünde ich dann meinen Favoriten.

  1. Büffel-Lernen
  2. Eintrichtern, Nürnberger Trichter
  3. Fast-Food-Lernen
  4. Optimierung-Lernen
  5. Wegwerf-Lernen
  6. Luftballon-Lernen (mit aller Kraft aufblasen, dann macht es pfffft…)
  7. Strohfeuer-Lernen
  8. Durchlauferhitzen
  9. Koma-Lernen
  10. Marathon-Lernen
  11. Last-Minute-Lernen
  12. geballtes Lernen (vs. gestaffeltes Lernen)
  13. blockiertes Lernen
  14. Stoff-Hamstern
  15. neoliberales Lernen
  16. temporäres Lernen
  17. Kurzzeitlernen
  18. Prüfungslernen
  19. Learning to the test
  20. Ketchup-Lernen
  21. Rush-Learning
  22. Eichhörnchen-Methode
  23. Cramming
  24. Zombie-Learning
  25. Kopf-Stopfen

Ich finde »Cramming« überzeugend, weil das Englisch sehr verbreitet ist, auch mit negativer Bewertung. »temporäres/geballtes Prüfungslernen« passt für mich auch, je nach Kontext gerne auch die Tiermetapher »Hamsterlernen« oder »Eichhörnchenlernen« mit Adjektiv, oder dann »Strohfeuerlernen«. Hätte nicht gedacht, dass so schnell so viele Begriffe zusammenkommen – danke sehr!

Illustration: Dalle-E 2