KI als Spiegel

Mit dem folgenden Text habe ich mich am Essaywettbewerb der Berner Zeitung ‚Der Bund‘ beteiligt. Gewonnen haben andere Beiträge.

Je menschenähnlicher Figuren oder Roboter werden, desto vertrauter werden sie uns. Wir empfinden Empathie und fühlen uns in ihrer Gegenwartwohl. Kurz bevor wir sie fast nicht von echten Menschen unterscheiden können tritt ein paradoxer Effekt ein: Sie werden uns unheimlich. Dieser Effekt hat einen Namen, er wird als ‚uncanny valley‘ bezeichnet. Die Vorstellung gruselt uns, etwas Künstliches könnte genau so sein wie wir, die wir geboren wurden und gelebt haben.  

Als Gesellschaft stehen wir in Bezug auf die KI-Technologie vor der Frage, ob dieses Tal des Unheimlichen, wie das ‚uncanny valley‘ auf Deutsch heisst, durchschritten werden kann. Können wir uns Figuren oder Intelligenzen vorstellen, die so menschenähnlich sind, dass wir das als angenehm empfinden? Der Turing-Test präsentiert ein Verfahren, um das zu überprüfen: Eine Person erhält auf ihre Fragen jeweils zwei Antworten – eine von einem Mensch, die andere von einer Maschine. Die Maschine besteht den Turing-Test, wenn die Person sie für den menschlichen Gesprächspartner hält. Das Kriterium, um Maschinen echte Intelligenz oder Denkvermögen zuzuschreiben, wäre also: Kann sie ein so lebendiges Gespräch führen, dass wir Menschen gar nicht mehr unterscheiden können, ob wir mit einem Menschen oder einem Automaten sprechen? (Eine Untersuchung aus dem Dezember 2023 zeigt, dass ChatGPT den Turing-Test noch nicht besteht – nur menschliche Nutzer werden aktuell in über 50% der Versuche auch als Menschen identifiziert.)

Der Turing-Test macht deutlich, was an der Vorstellung unheimlich ist, dass Maschinen Menschen in ihrem Handeln gleichen: Wir sind dann nicht mehr in der Lage einzuschätzen, wer ein Mensch ist und wer nicht. Wir lassen uns auf bisher menschliche Formen der Interaktion ein, indem wir etwa ein Gespräch führen – und unterhalten uns mit einer Maschine. Snapchat stellt allen Usern einen Kontakt namens ‚MyAI‘ zur Verfügung: Der Bot lernt einen kennen und ist immer für einen anregenden Chat zu haben.  Der Spielzeughersteller Curio integriert diese Technologie in Plüschtiere, die mit kleinen Kindern sprechen und sich an sie gewöhnen. Was zunächst wie ein nettes Feature wirkt, wird doch schnell wieder unheimlich: Möchten wir Menschen, die einem Bot sprechen, weil der immer positiv und zuverlässig antwortet? Der Technikkritiker Jaron Lanier hat den Turing-Test deshalb auch nachvollziehbar kritisiert: Er zeige nur, dass wir bereit seien, die Ansprüche an menschliche Interaktionen zu senken, wenn wir uns zu viel mit Maschinen abgäben.

Daraus lässt sich eine tiefere Einsicht ableiten, die hinter dem Problem des ‚uncanny valley‘ steht: Warum wirkt es eigentlich unheimlich auf uns, wenn eine Figur uns gleicht? Wenn wir ausgehend davon über die Fragen nachdenken, die uns in der Auseinandersetzung mit KI beschäftigen, eröffnet das neue Perspektiven. Wir können uns fragen, warum es uns beunruhigt, wenn eine Maschine Entscheidungen fällt, moralische Abwägungen trifft oder Sachverhalte so zurechtlegt, dass es uns schwer fällt, Wahrheit, Lüge oder Manipulation zu unterscheiden. Mittlerweile werden die Maschinen sogar faul; Ende 2023 haben sich Klagen gehäuft, KI-Tools wie ChatGPT würden Anforderungen zunehmend kurz und schnippisch beantworten.

Das alles wirkt so, als blickten wir in einen Spiegel. Wir verwenden ein Tool, das scheinbar so viel kann, dem wir aber doch nicht trauen. Eine Maschine, die leistungsfähig aber fehleranfällig ist. Automaten, deren Rechenkapazitäten uns faszinieren, die aber plötzlich die Arbeit verweigern. Sind sie nicht äusserst menschlich? Ist das nicht, was uns als Menschen definiert: Kreativität, Leistungsbereitschaft, Effizienz – aber auch Fehler, Lügen, Faulheit?

Auf einer technischen Ebene überrascht das nicht: Die Chat-KI-Tools sind Datenbanken, die menschliche Texte durchsuchen, Muster identifizieren und basierend darauf Texte oder Bilder hervorbringen, die bedeutsam wirken. Wir schauen also tatsächlich technisch gesehen in einen Spiegel: Was die Maschine antwortet, ist das, was ein Mensch antworten könnte. Die Fehler, die Lügen, die Faulheit – sie sind alle über menschliches Verhalten in die Maschine reingeraten. Die Muster der Maschine sind die Muster der Menschen. 

Die KI zeigt uns, wie wir selber funktionieren. Das ist wohl noch unheimlicher als ein Automat, der uns gleicht und den wir nicht von anderen Menschen unterscheiden können. Wir sind konfrontiert damit zu verstehen, was in uns eigentlich macht, dass wir denken und fühlen. Hat das etwas Maschinelles? Oder gar etwas Zufälliges?

Die KI-Forscherin Emily Bender spricht in Bezug auf Chatbots von stochastischen Papageien, die einfach nach Wahrscheinlichkeiten Worte auswählen, die dann bedeutsam wirken. Die Nutzung von KI stellt uns also vor die Frage, ob wir nach bestimmten Mustern funktionieren, wenn wir sprechen, denken oder empfinden. Natürlich fühlt sich das für uns nicht so an, aber das, was die Chatbots hervorbringen, nehmen wir im ersten Moment auch nicht als etwas Maschinelles wahr. Wir sprechen mit ihnen, als wären sie ein menschliches Gegenüber. Siri, Alexa und der Stimme von GPS im Auto hören wir zu, als würden uns kluge Frauen durchs Leben führen. Und wenn wir ganz ehrlich sind: Beim Small Talk in der S-Bahn sagen wir zuweilen durchaus Dinge, die auch ein programmierter Papagei plappern könnte. 

Hier kommt das Unheimliche ins Spiel: Wie ich mich bei einer Maschine täuschen kann, wenn ich denke, ich hätte es mit einem Menschen zu tun statt mit einem Automaten; so könnte ich mich auch in Bezug auf mein eigenes Denken, Sprechen und Handeln täuschen: Es könnte tatsächlich von einer Maschine hervorgebracht werden, ein Produkt von raffinierten Mechanismen und Mustern sein – aber nichts mit mir und dem, was sich in mir als Ich anfühlt, zu tun haben.

Ich erspare den Leserinnen und Lesern dieses Textes die billige Pointe, die man erzielen kann, indem man ChatGPT-Antworten kopiert und dann testet, ob alle rausfinden, was Mensch oder Maschine geschrieben haben. Aber ich nutze beim Schreiben eine Software, die nachverfolgt, welche Textpassagen ich reinkopiert habe und mich fragt, aus welcher Quelle sie stammen. Ich brauche also ein Hilfsmittel um nachweisen zu können, dass ich einen Text geschrieben habe und nicht etwa eine Maschine. Bald wird diese Differenz verschwinden, wir werden annehmen, dass fast alle Texte automatisch generierte Textteile enthalten. Die Frage, wie sich dann mein Schreiben von dem von Maschinen unterscheidet, wird verschwinden. Dadurch wird immer weniger klar, was eigentlich menschlich ist und was nicht, wo die Differenz zwischen Robotern und denkenden Personen liegt. Ich schreibe dann als Teil eines riesigen Kollektivs und lasse von der Maschine Textmuster generieren, die andere Menschen so auch formulieren könnten. Nicht viel anders als die Kommentierenden, die mir mit Feedback geholfen haben, diesen Text schlüssiger und eleganter zu machen. 

Wenn wir heute über die Möglichkeit maschineller Empathie, Moral oder Wahrheitsfindung nachdenken und durchaus auch etwas Angst empfinden, menschliche Errungenschaften könnten dadurch bedroht werden, wie wir KI einsetzen, dann können wir ausgehend von den bereits angestellten Überlegungen zwei Phasen unterscheiden und zwei Schlüsse ziehen:

In einer ersten Phase ist KI ein Werkzeug, das wir einsetzen. Wenn dadurch Probleme entstehen, Unwahrheiten verbreitet werden, Fehler gemacht werden, dann ist all das Menschen zuzuschreiben, welche KI einsetzen. Würde ich mit diesem Text Lügen verbreiten, müsste ich dafür gerade stehen, auch wenn ich sie von ChatGPT übernommen hätte. Genauso wie ich sie verantworten müsste, hätte ich sie aus einem Buch abgeschrieben oder in einem Gespräch aufgeschnappt. Die Schlussfolgerung daraus wäre: Was Menschen mit KI machen, müssen Menschen rechtfertigen. Es hat mit Technologie nichts zu tun.

In einer zweiten Phase können wir aber Menschen und Technologie kaum noch unterscheiden. KI entwickelt Persönlichkeiten und wird schreiben und sprechen, wie Menschen das tun – während Menschen sich durch die intensive Nutzung von KI immer stärker wie Maschinen verhalten werden, die ja gleichzeitig auf menschliches Material zurückgreifen, um Musteranalysen durchzuführen. Menschliches Verhalten wird dann mit maschineller Tätigkeit so verbunden sein, dass alle Konzepte, von Wahrheit über Moral bis zu Liebe, sich einem Wandel unterziehen werden. Auch Verdrängtes und Tabuisiertes wird die Beziehung zwischen Mensch und Maschine beeinflussen. Heute wirkt das unheimlich, oft auch unerwünscht. Blickt man aber in die Geschichte der Menschheit, dann haben sich alle Konzepte ständig verändert. Technologie und Innovation haben dazu geführt, dass wir so leben, wie wir heute leben. Und sie werden dazu führen, dass Menschen in Zukunft anders leben, als wir es heute tun. Der Spiegel der KI führt uns das aktuell gerade vor Augen. Das ist der zweite Schluss. 

Die Angst vor einer KI, die autonom handlungsfähig wird und Menschen dabei bedroht, ist sehr verbreitet. Wir denken, getrieben von Science-Fiction-Serien, immer wieder über Systeme nach, welche die Kontrolle übernehmen und Menschen nicht mehr gehoren. Diese populäre Angst ist aber lediglich eine Ablenkung von dem, was uns wirklich ängstigt: Dass Maschinen uns zeigen, wie wir Menschen funktionieren, wie wir (mit und ohne Maschinen) handeln – und wie wir uns verändern werden. 

Illustration ChatGPT/Dall-E. Kommentar von ChatGPT zum Bild: »Hier ist eine Illustration, die die Essenz deines Textes einfängt. Sie zeigt die Interaktion zwischen einem humanoiden Roboter und einem Menschen, umgeben von Symbolen, die den Turing-Test darstellen, in einer Szene, die Neugier, Introspektion und ein leichtes Unbehagen widerspiegelt. Ich hoffe, diese Illustration ergänzt deinen sorgfältig ausgearbeiteten Text passend.« 

Wie Schulen sich entwickeln: das Problem der systemischen Abhängigkeit

Kürzlich habe ich mich sehr über eine Boulevard-Schlagzeile gefreut: Dort hat die Vorsteherin des wichtigsten Schweizer Verbands für Lehrpersonen, Dagmar Rösler, deutlich gemacht, dass es aus ihrer Sicht Zeit ist, von Noten abzurücken.

Gerade in Bezug auf Gymnasien, die in der Schweiz in einer Krise stecken, bin ich fest davon überzeugt, dass die Abschaffung von Noten viele positive Auswirkungen hätte. Könnten und dürften Lehrpersonen keine Noten mehr geben, dann würden sie ihren Unterricht so optimieren, dass er in den meisten Fällen besser würde. Dasselbe gilt für Schüler:innen – auch sie würden ohne Noten den Fokus auf das legen, was ihr Lernen voranbringt und weniger Studenting betreiben.

Diese Zuspitzung blendet aber einen wichtigen Zusammenhang aus: Schulentwicklung ist komplex, weil unterschiedliche Aspekte von Schule miteinander verbunden sind und auch unerwartete, paradoxe Effekte auslösen können. Wenn wir bei den Noten bleiben, dann stellt sich ja sofort die Frage nach den Alternativen. Diese beantworte ich zuweilen salopp so, dass es keine braucht: Noten sind unnötig. Nur: Das bedeutet dann bei einigen Lehrpersonen, dass sie Schüler:innen gar kein Feedback mehr geben würden. Ohne Noten und Prüfungen könnte es sogar sein, dass es kaum mehr Schüler:innenaktivitäten gäbe, Unterricht wäre dann eine Art Plauderstunde einer Lehrperson, die Schüler:innen über sich ergehen lassen, weil sie davon kaum betroffen sind. Was wiederum heißt: Ohne Noten würden bestimmte Formen von Unterricht schlechter, als sie es heute sind.

Lehrpersonen fragen etwa zurecht, woher sie die Zeit nehmen sollen, die aufwändigere Formen von Feedback erfordern, wie sie individuell auf Lernprozesse von Schüler:innen eingehen sollen. Beurteilung und Feedback sind also auch abhängig von der Arbeitszeit von Lehrpersonen, vom Betreuungsverhältnis. Das ist eine Selbstverständlichkeit, die aber immer wieder betont werden muss: Gute Schulen gibt es nur mit guten Arbeitsbedingungen und guten Betreuungsverhältnissen.

Das ist nur ein Beispiel: Auch das System des Fachunterrichts müsste hinterfragt werden, was wiederum mit den Anstellungen von Lehrpersonen zusammenhängt, die in einer idealen Schule nicht an bestimmte Fächer geknüpft wäre, sondern ganzheitlich mit verschiedenen Arbeitsformen an Schulen verbunden wäre. Weiter hängt die Führung von Lehrpersonen mit alldem zusammen, die Frage, wer sie bei einer Entwicklung begleitet, wer etwas von ihnen einfordert etc.

All das betrifft jede Form von Schulentwicklung, gerade auch Aspekte der Digitalität. Jede Massnahme löst systemische Effekte aus, die bedacht werden müssen. Menschen agieren in komplexen Systemen, ihre Handlungen sind an unterschiedliche Bedingungen geknüpft – es gibt nie eine Ursache und einen Effekt, sondern verschiedene Ursachen rufen unterschiedliche und auch widersprüchliche Effekte hervor.

Wie die Schule bei KI reflexartig wiederholt, was schon bei Wikipedia ein Problem war

Wikipedia-Logo

Was war das Problem am schulischen Umgang mit Wikipedia? Als allen Verantwortlichen klar wurde, dass Schüler:innen schnell auf eine Enzyklopädie zugreifen können, haben Lehrpersonen begonnen, diese Möglichkeit mit Unwahrheiten schlecht zu reden. Jede:r könne Artikel verändern, die Qualität sei nicht geprüft, Wikipedia sei keine seriöse Quelle, bei Arbeiten dürfe man sich nicht auf Wikipedia beziehen – die Liste mit Halbwissen, dass Schüler:innen als Begründungen geliefert wurde, ist lang. Lehrpersonen nutzen Wikipedia selbstverständlich bei der Vorbereitung, machten die Nutzung aber moralisch mit ungenauen oder gar falschen Behauptungen schlecht.

Das ist im Rückblick sehr schade: Sinnvoll wäre gewesen, mit Schüler:innen an Wikis so zu arbeiten, dass sie lernen können, an Wikipedia mitzuarbeiten und zu beurteilen, wie gut ein Artikel ist (diese Idee haben Notari und Döbeli Honegger in ihrem Buch im Detail vorgestellt).

Bei KI-Tools passiert dasselbe. Zwar ist vielen Lehrkräften bewusst, dass es eigentlich gut wäre, Schüler:innen würden die Tools für die Textproduktion kompetent und kritisch nutzen – nur sind sie in ihrer Unterrichts- und insbesondere Prüfungspraxis oft damit so überfordert, dass sie dazu übergehen, die Nutzung zu erschweren, verhindern und sie auch moralisch abzuwerten.

Das will ich einzelnen Personen nicht vorwerfen: Aktuell ist es schwierig abzuschätzen, wie Jugendliche und junge Erwachsene in Zukunft schreiben werden und wie sie lernen können, kompetente Schreibende zu werden, wenn sie jederzeit auf KI-Tools zurückgreifen können… Letztlich fehlt im System das Vertrauen und der Anreiz, Technologie zu nutzen und diese Nutzung zu reflektieren. Gerade die Leistungs- und Prüfungskultur verhindern Settings, in denen offene Erprobungsphasen stattfinden können – es ist deshalb nicht verwunderlich, dass Lehrpersonen den Unterricht auf Prüfungen hin fokussieren, die nicht dem aktuellen Stand der Technologienutzung entsprechen.

Warum es das Twitter-Feeling nicht mehr geben wird

Sobald eine neue Plattform eröffnet wird (aktuell gerade Threads), stellt sich schnell die Hoffnung ein, es könnte wieder so werden, wie es bei Twitter mal war. Abgesehen davon, dass es genau so wahrscheinlich nie war, weil Nostalgie klare Wahrnehmung immer verhindert: Die Hoffnung ist verfehlt. Das begründe ich kurz.

Twitter war zu Beginn eine Vernetzung von Menschen, die weder ökonomisch noch politisch eingebunden waren. Twitter war in diesem Sinne ein reines Gespräch, nicht beeinträchtigt von anderen Interessen. Mehr noch: Viele Menschen konnte sich auch aus ihren sozialen Rollen lösen, lasen nicht, was andere waren, sondern was sie geschrieben haben. Miteinander reden, als ob es egal wäre, wer die anderen sind, wie sie aussehen, was sie können oder nicht können und ob man damit Geld verdient.

Die unschuldige Start-Phase war schnell vorbei. Ich erinnere mich daran, wie ich an einer Konferenz vor ca. 10 Jahren mal Professor*innen darauf aufmerksam gemacht habe, dass es einen kritischen Diskurs über ihre Aussagen gäbe, den sie noch nicht mal wahrnehmen könnten: auf Twitter. Diese Professor*innen waren nicht die einzigen, die gemerkt haben, dass dieser anarchische, machtfreie Raum etwas war, was sie bedrohte – und was sie also wieder unter ihre Kontrolle bringen mussten.

Diese Kontrollbemühungen entstanden aus verschiedenen Richtungen: Letztlich ging es darum, politische und ökonomische Machtverhältnisse zu sichern. Der Effekt war, dass Twitter zu einer politischen Bühne und einem Marketing-Tool wurde, dass Content Creators sich überlegten, wie sie Twitter-Reichweite monetarisieren konnten oder wie sie Reichweite aufbauen konnten, um sie dann zu monetarisieren.

Sobald eine neue Plattform startet (viele verweisen auf Threads auch auf Clubhouse), stellt sich die Hoffnung ein, es könnte wieder diesen anarchischen Raum geben, der sich den Machtverhältnissen der Gesellschaft entzieht. Das wird aber so lange nicht der Fall sein, wie Größe und Reichweite entscheidend sind. Wer anarchische Räume will, muss Nischen besetzen. Nicht umsonst leben ja Subkulturen in Foren und z.B. auf Tumblr dann weiter, wenn das nicht Angebote für eine breite Öffentlichkeit sind; wenn nicht Usability und Netzwerk-Effekte im Vordergrund stehen.

Twitter 2011

Müssen Jugendliche besser lesen lernen? – Eine kritische Bemerkung zu einer populären Forderung

Fasst man die Ergebnisse der PISA-Studie 2022 im Bereich Lesen zusammen, genügen für die Schweiz zwei Zahlen:

  • ein Viertel der 15-Jährigen in der Schweiz kann die zentralen Aussagen in einem einfachen Text nicht erkennen
  • knapp 10% können anspruchsvolle Texte lesend erschließen.

Diese Ergebnisse sehen visualisiert so aus (S. 25 im Bericht):

Im Folgenden soll es aber um die Reaktionen gehen. Auch wenn die Schweizer Ergebnisse im internationalen Vergleich halbwegs okay sind (die Schweizer Jugendlichen lesen leicht besser als der OECD-Schnitt und die Jugendlichen in den umliegenden Ländern) – fordern viele Menschen eine Reaktion, eine Form von Leseförderung.

Grundsätzlich kann man sagen, dass dieses Ergebnis der Logik des Schweizer Bildungssystems entspricht: Bildungsverlierer:innen erwerben im selektiven System auch basale Kompetenzen nicht (in Mathematik sind es knapp 20%, die grundlegende Anforderungen nicht erfüllen). Diese Jugendlichen sollen Berufe ausüben, in denen sie nicht lesen können müssen. Wären sie besser gebildet, würden sie sich wohl nicht mit diesen Berufen abfinden. Das ist die zynische, realpolitische Sicht.

Der Peter-Gut-Cartoon ortet das Problem bei den digitalen Medien, ein SRF-Beitrag fragt, wie Lesen »wieder cool« werden könnte (vielleicht mit TikTok), die NZZ-Redaktion befiehlt Jugendlichen zu lesen und gibt ihnen ein paar Buchtipps mit auf den Weg, Bettina Weber findet gar, politisch korrekte Sprache müsse als Wurzel des Problems gemieden werden. Diese Forderungen von belesenen Menschen gehen am Problem vorbei (viel besser machen es Comtesse und Jones in diesem Bund-Artikel). Sie sind aber aufschlussreich, weil sie deutlich machen, wie hilflos viele Menschen dem aktuellen Kulturwandel gegenüber sind.

Grundsätzlich baut die schulische Lesedidaktik sowie die allgemeine Vorstellung von Werteerziehung auf privater Lektüre auf. Wer gern und viel liest, lernt in der Schule besser lesen und kann vom stark auf Lektüre schriftlicher Texte basierenden Unterricht stärker profitieren. Gleichzeitig werden bürgerliche Werte übernommen, wenn man sich mit dem Lektürekanon auseinandersetzt. Jugendliche müssen lesen, um zu verstehen, was ein ‚guter‘ Mensch tun und denken sollte; um sich mit moralischen Fragen auseinanderzusetzen. Lesen ist gleichzeitig aber auch Me-Time, Anlass zu vertiefter Reflexion und entspannende Unterhaltung.

Nun liest aber ein relevanter Anteil von Kindern und Jugendlichen keine literarischen Texte (mehr). Für Me-Time, Unterhaltung und Reflexion nutzen sie TikTok, Instagram, Snapchat – oder Games, auf dem Handy oder an der Konsole. Da lesen sie durchaus, wenn man einen weiten Textbegriff verwendet, der sich nicht auf gedruckte Texte beschränkt. TikTok-Videos sind komplexe Geflechte von Bedeutungen, Verweisen, Anspielungen, bedeutungsvolle Musik und Mitteilungen, die sich aufeinander beziehen. Genauso bieten Games anspruchsvolle Formen von Storytelling. Nur: Die Fähigkeiten, die man braucht, um digitale Texte zu lesen (eine wissenschaftliche Einordnung dazu findet sich hier), sind nicht dieselben, die man braucht, um die Texte zu lesen, mit denen bei PISA Lesekompetenz gemessen wird.

Das bedeutet zunächst, dass bei diesen jungen Menschen die Lesezeit für herkömmliche Texte fehlt. Das hat Konsequenzen:

  1. Die Grundlage für den schulischen Leseunterricht fehlt. Dieser basiert auf der Annahme, dass Kinder und Jugendliche auch außerhalb der Schule lesen. Fällt das weg, müsste der Unterricht neu konzipiert werden (indem z.B. Lesezeit in der Schule zur Verfügung gestellt wird).
  2. Lesen schriftlicher Texte bekommt eine andere Bedeutung, es ist nicht mehr ein universeller Zugang zu Wissen, Kultur, Unterhaltung und Wertevermittlung, sondern der Zugang eines Teils der Bevölkerung, eine Nische.

Die oben zitierten Reaktionen zeigen, dass zumindest journalistischen Kommentator:innen das beides nicht akzeptieren können. Sie gehen davon aus, dass Lesen eine universelle Bedeutung habe, eine zentrale Grundlage sei, ohne die vieles nicht denkbar sei. Da sie aber (schon länger) weggebrochen ist, muss vieles ohne das Lesen von schriftlichen Texten gedacht werden. Mahnungen in Zeitungen, die junge Menschen ja ohnehin nicht lesen, bringen nichts. Sie sind eine Bestätigung für alle die Menschen, die auch nicht damit klarkommen, dass sich Kultur und Gesellschaft verändert haben, verändern und verändern werden.

Die entscheidende Frage ist, wie ein gutes Leben ohne die Lektüre schriftlicher Texte aussehen kann; wie gute Bildung gestaltet werden kann, wenn Jugendliche zuhause teilweise nicht mehr lesen; wie wir Werte verhandeln können, wenn wichtige Debatten auf audio-visuellen Plattformen stattfinden und nicht mittels gedruckter Texte geführt werden.

Vielleicht müssen also Jugendliche gar nicht mehr oder besser lesen, sondern wir müssen Wege finden, damit umzugehen, dass einige es nicht tun und trotzdem gebildete, gute Menschen sind.

Mit ChatGPT einen Chatbot programmieren: Eine Anleitung

In den letzten Tagen hat ChatGPT ein fundamentales Update erhalten. Seit einer Weile sind Plugins und andere Features wie die Integration von Dall-E für bezahlende Abonnent:innen verfügbar – bislang war es aber äußerst kompliziert, sie einzuschalten und zu verwenden. Neu werden sie automatisch zugeschaltet: ChatGPT analysiert Anfragen und kann dann z.B. aufs Web zugreifen, Dokumente durchsuchen, Bilder analysieren etc.

Neu ist eine Funktion, mit der man eigene GPTs bauen kann. Das sind dann ChatBots, die ganz spezifische Verhaltensweisen zeigen und auf Spezialwissen zugreifen können. Ich habe das gemacht und werde zuerst zeigen, wie das funktioniert – und dann erklären, wie ich vorgegangen bin.

Meinen Bot findet man unter:
https://chat.openai.com/g/g-bsklQ9cPS-philippe-wampflers-ansichten-auf-schule-und-noten

Er sieht so aus:

Im Hintergrund greift der Bot auf verschiedene Texte zu, die ich geschrieben habe. Er gibt Antworten auf Deutsch, verweist wenn möglich auf Quellen und imitiert meinen Schreibstil (basierend auf den hochgeladenen Texten).

Er arbeitet in der ChatGPT-Umgebung (oben links kann man auswählen, welche Instanz Anfragen beantworten soll). Zugänglich ist er nur für Menschen, die ebenfalls ein Abo für ChatGPT gelöst haben (es kostet 20 Major Währungseinheiten pro Monat).

Gerade im Schulkontext könnte sowas hilfreich sein, um z.B. alle Materialien eines Kurses über GPT zur Verfügung zu stellen. Soweit bin ich noch nicht, ich habe nur erste Tests gemacht und experimentiere weiter.

Schritt-für-Schritt-Anleitung

Zunächst muss ein GPT erschaffen werden. Dazu klickt man oben links auf »Explore« und dann auf das Plus-Zeichen in der Mitte.

Danach erscheint ein geteiltes ChatGPT-Fenster. Links wird der Bot quasi programmiert – dazu verwendet man ganz reguläre ChatGPT-Prompts, mit denen mitgeteilt wird, wie der Bot funktionieren soll. Der Name, der Stil, die Antwortform etc. können alle so bestimmt werden. Zudem können mit der Büroklammer unten Texte hochgeladen werden, welche die Basis für die Antworten sind (ChatGPT und die entstehenden Bots bezeichnen das als »My Knowledge«).

Zuletzt muss der Bot oben rechts gespeichert werden – dabei kann man festlegen, ob er öffentlich oder privat zugänglich sein soll. Es ist ebenfalls möglich, ihn in Webseiten einzubetten, was ich noch nicht im Detail getestet habe.

Der Bot befindet sich dann im regulären ChatGPT-Fenster. Mit der kleinen Marke kann ein Menu aufgerufen werden, indem sein Verhalten wieder verändert werden kann.

So habe ich zum Schluss auch noch ein Logo hinzugefügt.

Bildungsinstitutionen im Visier des rechten Kulturkampfes – Empfehlungen für den Umgang mit Beschwerden

Rechte Akteur*innen tragen den Kulturkampf aus Social Media vermehrt in Bildungsinstitutionen, um die Lehrfreiheit einzuschränken. Den Verantwortlichen geht es darum, Lehrenden Angst zu machen, bestimmte Themen zu behandeln oder Meinungen im Unterricht zuzulassen. Aktuell stehen primär Gender-Themen im Fokus, aber auch der Umgang mit Terror und Krieg, mit Migration, Klimaerwärmung, Steuern etc. sind verdächtig.

Zwei Beispiele aus der Schweiz: Eine Professorin hält eine Antrittsvorlesung in Form einer Performance. Das führt zu einer Anfrage im Kantonsparlament, zu Rückfragen bei der Professorin, bei ihrer Hochschule und zuletzt entstehen Medienberichte, hier der Artikel aus der Sonntagszeitung.

Am Rande einer Lehrveranstaltung an der Uni Zürich macht eine Studentin auf eine politische Veranstaltung aufmerksam (in Absprache mit einem Professor). Studierende filmen das, über Social Media wird Druck auf den Professor und die Hochschule aufgebaut, der wiederum zu mehreren Medienberichten führt.

Diese Beispiele stammen aus den letzten Tagen. Es gibt viele weitere. Sie alle laufen nach demselben Drehbuch ab:

  1. Jemand erfährt von einem Vorgang an einer Bildungsinstitution, mit dem er oder sie nicht einverstanden ist.
  2. Informationen dazu werden digital weitergeleitet, sie gelangen zu rechten Aktivist*innen, die sie öffentlich machen.
  3. Es entsteht eine Empörungswelle, in deren Rahmen Menschen bei Vorgesetzten Konsequenzen fordern (meist die Entlassung).
  4. Gleichzeitig greifen Medien das Thema auf, weil sie damit Klicks generieren können. Auch sie stellen Vorgesetzten kritische Fragen.
  5. Bei staatlichen Bildungseinrichtungen werden mit parlamentarischen Anfragen Kürzungen von Mitteln als Reaktion auf diese Vorfälle beantragt.

All das führt zu viel Aufwand und Ärger. Oft ist im ersten Moment nicht ganz klar, was überhaupt vorgefallen ist. Subjektive Eindrücke, selektive Darstellungen und Gerüchte vermischen sich mit Fakten. Die Anfragen richten sich oft auch an Vorgesetzte, die gar nicht direkt verantwortlich sind, welche die Lehrveranstaltungen nicht kennen oder gar nicht über Konsequenzen entscheiden dürfen. Gleichzeitig baut sich aber eine Empörungswelle teilweise so schnell auf, dass eine bedachte Reaktion gar nicht mehr möglich ist. Aus diesen Gründen würde ich betroffenen Institutionen Folgendes empfehlen:

  1. Mitarbeiter*innen generell instruieren, in solchen Fällen nicht mit Medienschaffenden zu sprechen und Aktivist*innen keine Auskünfte zu geben. Alle Informationen müssen von der Leitung kommen.
  2. Vorfälle intern abklären und bei Verstößen gegen ethische oder juristische Vorgaben konsequent handeln.
  3. Beschwerden knapp und freundlich beantworten: »Danke für den Hinweis, wir klaren das intern ab.« 
  4. Medienschaffenden kurz die rechtlichen Rahmenbedingungen erklären und sie bitten, nicht über irrelevante Vorfälle aus Lehrveranstaltungen zu berichten.
    Nicht über Details und Hintergründe sprechen.
  5. Betroffene Lehrende schützen, ihnen rechtliche und psychologische Unterstützung anbieten.
  6. Im Kopf behalten, dass die Empörungswellen weiterziehen. Was im Moment überwältigend erscheint, ebbt nach einer Woche ab.

Besonders der Schutz von Betroffenen ist sehr wichtig. Spüren sie in solchen Situationen keinen Rückhalt, erreichen die Aktivist*innen ihr Ziel, die Lehrfreiheit einzuschränken und ideologischen Einfluss auf Bildungsprozesse zu nehmen. Das darf nicht passieren.

Was bedeuten Social Media 2023 für Jugendliche?

Nächste Woche spreche ich mit einer Gruppe von Fachpersonen aus der Medizin über die Verwendung von Social Media durch Jugendliche. Die Frage ist, was in diesem Bereich neu ist, was sich entwickelt hat.

Hier eine kurze Zusammenfassung meines Vortrags. Die Folien und Links dazu findet man hier.

Grundsätzlich ist das »social net«, wie wir es kennen, tot. Das bedeutet: Die Plattformen, auf denen sich Jugendliche heute bewegen, folgen nicht Gesetzmäßigkeiten, nach denen Social Media konzipiert wurden. Am einfachsten lässt sich das daran zeigen, wie die Auswahl von Inhalten stattfindet. Ursprünglich war etwa Facebook gedacht als eine Kontaktaufnahme mit Menschen, die wir kennen oder kennen könnten – also mit »friends« und »friends of friends«. Das »social« an Social Media war die Verlinkung mit anderen Profilen.

Das hat in einem zweiten Schritt etwas Unbehagen verursacht, weil plötzlich deutlich wurde, dass sich Menschen mit viel mehr Profilen verbinden, als sie kennen, dass wir uns auch an Diskussionen beteiligen, bei denen wir die Gesprächspartner*innen nicht kennen. Das war dann sowas wie eine Influencer-Kultur, die geprägt wurde von Resonanz: Die Plattformen haben gezeigt, was laut ist und viele Reaktionen auslöst – das wurde dann als wichtig taxiert. Influencer haben Reichweite aufgebaut und diese dann benutzt, z.B. um Geld zu verdienen.

Aktuell erleben wir eine dritte Phase: Algorithmen steuern, was User*innen zu sehen bekommen. Das ist weder von sozialen Netzwerken noch von Influencer*innen abhängig, sondern wird über bestimmte (geheim gehaltene) Messwerte gesteuert.

Der Effekt bewirkt bei TikTok eine individuelle Abstimmung. Wer den TikTok-Algorithmus trainiert hat, erhält Videos, die zu einem passen. Die interessant sind, sich wichtig anfühlen. Die müssen nicht gefunden werden, sie finden einen. Bzw. der Algorithmus findet sie für einen.

Dadurch werden Menschen anfällig für Ideologien. Diese werden algorithmisch verstärkt und individuell so runtergebrochen, dass sie nicht von bestimmten Menschen oder Machtverhältnissen auszugehen scheinen, sondern sich quasi natürlich anfühlen, als hätten wir sie selber entdeckt, als wären sie Selbsthilfe.

Als Beispiel werde ich im Vortrag auf Andrew Tate eingehen, der jungen Männern einredet, eine gute Arbeitsethik würde ihnen dabei helfen, ihre sexuellen Bedürfnisse zu befriedigen und im Leben erfolgreich zu sein. Dazu verwendet er eine Strategie, die ideal auf algorithmisch gesteuerte Plattformen abgestimmt ist.

Die etablierten sozialen Netzwerke verschwinden nicht. Vielmehr sind sie teils von allen Apps geworden, die wir im Beruf und in der Freizeit verwenden. Die Aufgabe, sich digital zu inszenieren und zu vernetzen entfällt nicht, sie ist aber nicht mehr Hobby oder digitale Extravaganz, sondern Arbeit.

Die Diskussion um Handyverbote an Schulen – ein Dauerbrenner

»Auch bei uns?«, fragt ein Beitrag der deutschen Tagesschau auf Instagram. Gemeint ist: Sollten auch in Deutschland Smartphones an Schulen verboten werden? Der Beitrag eröffnete eine Diskussion, die Resonanz erzeugt. Nicht erstaunlich: Sie hat eine lange Geschichte. 2012 habe ich an dieser Stelle die Argumente rund um die Forderung nach einem Handy-Verbot an Schulen zusammengefasst. Im Folgenden werde ich kurz darlegen, weshalb diese Diskussion am Thema vorbeigeht. Sie konstatiert Probleme und bietet dafür eine Lösung an, die keine ist.

Was sind die Probleme?

Grundsätzlich gibt es fünf Problembereiche, die in dieser Diskussionen miteinander verbunden werden:

  1. Schulkrise.
    Schüler*innen erleben schulisches Lernen immer wieder als wenig sinnstiftend. Sie klinken sich aus, lenken sich ab. Das geht mit Handys sehr gut, Smartphones sind ein Zeitvertrieb, der sinnvoller erscheint als das, was die Schule zu bieten hat.
  2. Abhängigkeit.
    Viele Apps sind so designt, dass sie ähnlich wie Glücksspiele in Casinos oder an Slotmachines Abhängigkeiten erzeugen sollen. Smartphones animieren besonders Kinder und Jugendliche, mehr Zeit mit bestimmten Anwendungen zu verbringen, als sie eigentlich möchten.
  3. Mobbing und Gewalt.
    Viele Formen von Gewalt und Mobbing unter Schüler*innen sind mit digitaler Kommunikation verbunden. Chats, Videos, Bilder etc. werden auch genutzt, um anderen Leid zuzufügen.
  4. Digitale Transformation.
    Die Schule und die damit verbundenen Lernerfahrungen wurden in den letzten 20 Jahren digitalisiert. Für Lehrpersonen bedeutet das, dass sie ihren Unterricht so gestalten müssen, dass er auch in einer Kultur der Digitalität funktioniert. Das ist mit viel Aufwand und einem veränderten Rollenverständnis verbunden.
  5. Jugendkultur.
    Jugendliche haben Werte und Kommunikationsformen, die Erwachsene nicht verstehen (sollen). Diese zeigen sich im Umgang mit Smartphones sehr stark. Erwachsene werten Jugendkultur oft aus einem Reflex ab, weil sie merken, dass sie keine Jugendlichen mehr sind und weil sie befürchten, was Jugendliche ausprobieren, könnte später zu einer gesellschaftlichen Norm werden, an die sie sich anpassen müssten.

Welche Probleme löst ein Smartphoneverbot?

Keines. Das wissen auch alle, die ein solches Verbot fordern. In einem NZZ-Artikel schlagen Zierer und Montag vor, schulische Regelungen einzuführen und mehr Schulgeräten für digitales Lernen anzubieten. Die Experten wollen also Schüler*innen daran hindern, private Geräte in der Schule zu nutzen, sie aber an Schulen mit Geräten ausstatten. Das löst keines der Probleme. Schulen müssen bessere Lernorte werden, damit sich schulisches Lernen für Jugendliche sinnvoll anfühlt. Sie müssen professionell mit Jugendkultur umgehen und Unterricht anbieten, der in eine Kultur der Digitalität passt.

Umgekehrt braucht es sinnvolle Prävention, um digitale Formen von Gewalt und Abhängigkeit zu reduzieren. Verbote an Schulen sind hier eine Scheinmaßnahme – sie fühlt sich gut an und macht Probleme an Schulen unsichtbar. Zur Lösung tragen sie nicht bei, im Gegenteil: Smartphone-Verbote belasten Schulen und absorbieren Ressourcen, die für Kontrolle und Durchsetzung eingesetzt werden müssen.

Wer ein Smartphone-Verbot fordert, um Abhängigkeiten oder Übergriffe zu reduzieren, versteht nicht, welche Faktoren zu Abhängigkeit oder Übergriffen führen. Smartphones verursachen diese Probleme nicht, sie moderieren sie: Das heißt, es fällt Schüler*innen leichter, Abhängigkeiten auszuleben oder Gewalt auszuüben, wenn sie ein Smartphone haben. Die Gründe dafür sind aber andere: Mobbing und Cybermobbing sind oft Reflexe von Gewalt, die Jugendliche von Erwachsenen erfahren, wie Constanze Marx nachgewiesen hat. Abhängigkeit entsteht aus einer Mischung aus Veranlagung und Lebenssituation.

Eine Scheindiskussion

Praktisch alle Schulen im deutschen Sprachraum reglementieren den Umgang mit Smartphones. Sie legen fest, wann Schüler*innen diese mitbringen und nutzen dürfen. Die Verbotsdiskussion geht an dieser Realität vorbei. Sie fordert eine globale Verschärfung, die vor Ort oft wenig Sinn ergeben und aus nachvollziehbaren Gründen nicht eingeführt wurden. Zum Beispiel, weil Schüler*innen ihr Smartphone brauchen, weil sie direkt nach der Schule zum Training oder zu einer Therapie fahren und sich auf dem Smartphone ihr Bus-Abo und ihre Kreditkarte befinden. Oder weil Schüler*innen zu stark darunter leiden, wenn sie einen ganzen Tag nicht mit Familie und Freund*innen chatten können.

Die Parallelen zur Kleiderordnung

Smartphone-Verbote funktionieren ähnlich wie Verbote bestimmter Kleidung: Überforderte Erwachsene, welche die Verhaltensweisen von Jugendlichen nicht verstehen, bilden sich ein, über Regeln Probleme lösen zu können, deren Ursachen sie nicht verstehen. Damit verbessern sie aber nichts, im Gegenteil: Sie verhindern pragmatische, lokale Lösungen unter Einbezug der Jugendlichen. »Am ersten Schultag habe ich ganz bewusst ein bauchfreies Shirt angezogen, nur weil ich wusste, hier darf ich das«, hat mir kürzlich eine Schülerin gesagt. Vom Verbot an ihrer früheren Schule ist ihr nur geblieben, wie wütend es sie gemacht hat.

KI im Schreibunterricht: Creative Writing Prompts

Die Angst, Schreiben im Unterricht verliere an Bedeutung, weil KI-Tools Texte generieren können, ist auch unter Lehrpersonen weit verbreitet. Wenn es nur um die produktorientierte Vorstellung geht, einen fertigen Text zu produzieren, dann ist die Angst gleichzeitig berechtigt und unberechtigt: Zwar verliert Schreiben dann an Bedeutung, was aber keine Rolle spielt, weil Menschen auch ohne Schreibkompetenzen fertige Texte produzieren können (wozu sie diese dann brauchen, ist eine andere Frage).

Somit zeigt die Verfügbarkeit dieser KI-Tools, dass besonders schulisches Schreiben als Prozess konzipiert werden muss. Als Axiom der Schreibdidaktik kann für den Umgang für KI gelten:

KI-Tools fördern den Aufbau Schreibkompetenzen, wenn sie bewusst für einen Prozessschritt eingesetzt werden. Sie behindern den Aufbau von Schreibkompetenzen, wenn damit Prozessschritte übersprungen werden.

Wir können das mit dem einfachen unten abgebildeten Prozessmodell veranschaulichen. Schreiben besteht also aus fünf Prozessschritten:

  1. Pre-Writing: Inspiration, Sammeln von Ideen, Klären des Ziels, Planen des Schreibprozesses
  2. Drafting: Erstes Schreiben des Textes.
  3. Revision: Einholen vom Feedback, Abgleich des Textes mit den Zielen und Wirkungsabsichten.
  4. Revising: Überarbeiten des Textes.
  5. Publishing: Text veröffentlichen (inkl. Layout etc.).

KI kann nun beispielsweise für den Editing-Prozess sinnvoll genutzt werden: Deepl Write beschleunigt die Überarbeitung und erleichtert es, formale Fehler zu finden. Wer einen Text schreibt und ihn dann bei Schritt 4 mit Deepl Write korrigiert und stilistisch überarbeitet, befolgt das oben formulierte Axion.

Das gilt auch für die Unterstützung beim Finden von Ideen. Ein Freund hat mir kürzlich gezeigt, wie Drehbuch-Techniken eingesetzt werden können, um mit ChatGPT Ideen zu generieren. Diese ersetzen den Schreibprozess nicht, sondern können helfen, Inspiration zu finden und den Prozess zu strukturieren. Hier ein Beispiel (Verlinkung).

Während mit den Begriffen »Beat-Sheet« und »Save-the-Cat« Fachwissen eingebracht wird, kann das auch über den Verweis auf bestimmte Erzählungen erfolgen. Das zeigt das nächste Beispiel (Verlinkung) – es funktioniert allerdings nur, wenn ChatGPT auf Wissen über diese Erzählungen zugreifen kann:

Der letzte Tipp für die Pre-Writing-Phase kann verallgemeinert werden. Grundsätzlich ist es immer möglich, der KI eine Rolle zuzuweisen, in der sie einem hilft, überhaupt die richtigen Anfragen zu formulieren. Das habe ich hier gemacht (Verlinkung):

Selbstverständlich liegt die Versuchung immer nahe, ChatGPT direkt dann auch die Texte schreiben zu lassen. Damit das nicht passiert, braucht es eine didaktische Begleitung sowie Schreibaufgaben, die nicht von einer KI gelöst werden können…