Zollkiesel statt Meilensteine
Digitaler Zettelkasten eines chronisch Neugierigen
Zollkiesel statt Meilensteine
Digitaler Zettelkasten eines chronisch Neugierigen
In einem Thread zum Thema der “KILLM” in der Schule (und ich wünschte wirklich, zumindest Pädagoginnen und und Pädagogen, immerhin Leute mit einem abgeschlossenen Studium, würden um den Wert halbwegs exakter Terminologie wissen…) kam in diesem Thread eine Frage von Thorsten, die sich innerhalb eines einzelnen Posts nicht bewerksteligen ließ.
Er fragte: “Aktuell erlebe ich aber zumindest in meinen Kreisen eher absolute Berührungsängste als ein unreflektiertes Nutzen. Wie ordnest Du das ein?”
Ich kenne Deine Kreise nicht und will sie auch nicht stören, ich bin ja kein römischer Legionär 😎 1. Wobei das schon ein erstes Argument wäre, warum ein LLM eben ein LLM und niemand mit Sprachwitz ist. Aber dazu weiter unten mehr.
Natürlich ist das Thema nach den Zeitmaßstäben, in denen das Bildungssystem arbeitet, “brandneu”. Abgesehen von Forschungen Mitter der 2010er Jahre, die zu den heutigen LLMs führten, wird oft vergessen, dass es tatsächlich noch keine drei Jahre her ist, dass OpenAI mit ChatGPT-3 an die Öffentlichkeit ging. Im Vergleich zu anderen Themen der Digitalität, die in der Schule behandelt werden, war das also “gestern”. 😉
Alles Neue, vor allem wenn es mit einem solchen Hype kommt wie LLMs, bedeutet erst einmal Veränderung. Veränderung erzeugt Angst, vor allem in stark strukturkonservativen Umgebungen wie dem Schulsystem. Berührungsängste sind daher vollkommen verständlich, ebenso wie das begeistere Beschäftigen mit einem neuen “Spielzeug” für die early adopters.
Es sollte auch jede Lehrkraft eigene Erfahrungen mit dieser Technologie sammeln, schon um selbst Möglichkeiten und Grenzen kennen zu lernen. Was ich aus meiner Warte allerdings bedenklich finde, ist die Tatsache, dass die von der Begeisterung Getragenen oft die Fortbildungen für die Zögerlichen übernehmen. Denn das führt dann wirklich oft zu einem unreflektierten “Alles Super” und der Angst der Zögernden, abgehängt oder überrannt zu werden.
Vor allem muss die Benutzung dieses Schwammbegriffs “KI” aufhören. Dieser Alles-und-Nichts-Terminus erschwert bei Neueinsteigern nicht nur das Verständnis, sondern weckt auch völlig falsche Erwartungen. Wie bei vielen anderen Gebieten wäre es meiner Meinung nach sinnvoll, sich erst einmal mit den grundlegenden Dingen zu beschäftigen. Wenn man schon von “KI” sprechen will anstelle von maschinellem Lernen, sollte auch eine Definition von “Intelligenz” zur Verfügung stehen. Schon damit bringe ich bei persönlichen Gesprächen den Großteil meiner Gegenüber zum Stocken. “Ja, das heißt halt so”, kommt dann. Perfekt, Begriffe ohne Reflektion zu benutzen. 😎
Es gibt für maschinelles Lernen durchaus eine Menge von sinnvollen Einsatzszenarien, im Schulbereich bedeutet “KI” aber fast immer “LLM”, egal von welchem Anbieter. Und dann kommen in den “Fortbildungen”, die den Namen nicht verdienen, Themen vor, die wir hier in der Bubble zur Genüge von Erfahrungsberichten der Teilnehmenden kennen. Es wäre viel sinnvoller, sich zuerst klar zu machen, was ein LLM eigentlich ist: eine statistische Maschine, die in der Lage ist, korrekte Sprache als Output auf eine Eingabe hin zu erzeugen, in dem für den Eingabestrom das nächste Token (annähernd Wort) prognostiziert wird. Ich muss keine Deutsch-Lehrkraft mit abgeschlossenem Studium sein, um zu erkennen, dass die menschliche Sprache vieles ist, aber nicht nur eine Möglichkeit, während einer Konversation das nächste Token vorherzusagen.
Natürlich sind Lehrkräfte von den Ergebnissen eines LLms begeistert, denn das Schulsystem ist eine Ecke der Sprachanwendung mit hoch formalisierter und ritualisierter Sprache. Ein LLM (das “L” für Large können wir gleich mal streichen, das bedeutet nur viele Trainingsdaten und noch mehr Parameter), also ein “Language Model” ist eben genau das. Ein Modell für die Produktion von Sprache. Nein, das ist weder eine Antwort- noch eine Such-Maschine oder etwas, das in irgendeiner Art und Weise “denkt”. Es ist ein Modell und noch dazu nicht einmal ein besonders gutes für alle Umgebungen, in denen es schwer fällt, Konversationen vorherzusagen. Ein Modell ist nur die Manifestation einer Hypothese mit Bias, mehr nicht.
So funktioniert menschliche Kommunikation und Sprache aber nicht. Diese generativen Modelle funktionieren gut, wenn es einfach ist. Stehst Du beim Metzger und hast gerade gesagt “100 Gramm Parmaschinken”, dann sind “Soll ich was dazwischenlegen”, “Darf’s a bisserl mehr sein?” und “Sonst noch was” in weit über 95% aller Fälle die nächsten Textproduktionen. 😉 Wenn ich in einem Cockpit sitze und jemand sagt neben mir “Eighty” (oder “100”), dann sage ich “Check” und das nächste wird in der Regel (hoffentlich!) “V1” und “Rotate” sein. 2
Stehst Du beim Metzger und gibst ein “Darmok und Jalad bei Tanagra” 3 von Dir, erntest Du ziemlich sicher verständnislose Blicke. Machst Du das auf einer Star Trek Convention, wirst Du verstanden. Kontext und Wahrscheinlichkeit ist alles. Deswegen wird es auch keine Kreativität, unvermutete Plot Twists oder Dinge wie Jandels “Schtzngrm” von einem LLM geben. Wie gesagt, ein Modell für die Produktion von korrekter Sprache. Sprachlich korrekt bedeutet aber weder intelligent, kreativ noch fachlich richtig.
Die wahrscheinlichste Antwort auf die Frage, “wann hat der Armin eigentlich sein XML-Buch geschrieben?” ist eben statistisch eine Jahreszahl und nicht “Du Depp, der schreibt nur Kochbücher” (tut er nicht nur 😎). Da kommt auch das Thema “RLHF” (reinforcement learning with human feedback) ins Spiel. “KI” steht salopp für “korrigierende Inder”, denn der Mensch muss den Mist, denn ein LLM produziert bewerten, korrigieren, das Modell anpassen. Nur deshalb wurden manche der LLMs besser, nicht weil die großartige künstliche Intelligenz dazulernt, sondern weil jemand dem Ding mitgeteilt hat, wo es Mist produziert. Aus diesem Grund sind “Halluzinationen” auch keine solchen, denn ein LLM halluziniert nicht, es funktioniert exakt wie geplant. Es mag durchaus sein, dass die für das Modell wahrscheinlichste Ausgabe nicht Deinen Wünschen entspricht, aber das ist etwas völlig anderes als eine Halluzination, ein Begriff, der ebenso unzutreffend ist wie so viele in diesem Bereich verwendete Begriffe.
Wer also “Ich habe ChatGPT nach einer Antwort gefragt” schreibt, gibt damit einfach einfach nur zu, dass er oder sie kein Wissen um die grundlegenden Konzepte hat. Ebenso wie die Versuche, Arbeiten von SuS mit Hilfe dieser Technik zu analysieren oder — noch viel schlimmer — die Technik sich selbst analysieren zu lassen und festzustellen, ob ein Text mit Hilfe eines LLMs erstellt wurde. Böser Em-Dash! 😄
Deswegen auch mein Einstieg mit Deinen Kreisen, denn niemals wird ein LLMs auf solche Sprachspiele kommen, es sei denn, der Trainingskorpus wäre voll von Puns und Wortsitzen. Aus diesem Grund scheinen die Ausgaben im Bereich der Schule auch so gut zu laufen, das Internet ist voll von Artikeln zur Geschichte der französischen Revolution oder der Reise von Charles Darwin, natürlich ist dann die Wahrscheinlichkeit für eine passable Ausgabe groß. Wie es mit Daten aussieht, die kaum im Trainingskorpus vorkommen und die noch nicht von den RLHF-Sklaven korrigiert wurden, darüber habe nicht nur ich schon geblogged. 4
Nehmt LLMs und maschinelles Lernen für Dinge, für die sie gut sind wie maschinelle Übersetzung (da willst Du eben keine “kreativen Schwankungen” 😎), Mustererkennung, Wartungs- und Diagnosesysteme. Aber erwartet weder, dass ein LLM “Antworten” gibt oder “denkt” oder “intelligent” ist. Vor allem, ohne dass wir über eine gemeinsame Definition von “Intelligenz” verfügen. Ich zitiere an dieser Stelle mal John McCarthy 1979 mit seinem extrem weiten Begriff von Problemlösungsvermögen: “Machines as simple as thermostats can be said to have beliefs and having beliefs seems to be a characteristic of most machines capable of problem solving performance.”
Um zum Schluss sollte jede Lehrkraft ebenfalls wissen, wie der Begriff “Künstliche Intelligenz” überhaupt in die Welt kam, weil John McCarthy nämlich auf der Jagd nach Fördergeld war und sich nicht mit Norbert Wiener streiten wollte. 5 Also brauchte er einen “catchy” Begriff für sein neues Forschungsgebiet, mit dem er sich von Wiener absetzen wollte. Eine etwas bescheidenere Formulierung hätte uns viel Kopfschmerz erspart.
Warum aber sind Lehrkräfte dann so versessen auf diese Technologie? Aus dem gleichen Grund, aus dem in der Edu-Bubble fragen der technisch-digitalen Gesellschaft fast immer unter dem Aspekt “Arbeitsmittel oder Arbeitserleichterung für Lehrkräfte” diskutiert werden? Hast Du schon mal analysiert, wie wenige der ganzen Posts sich mit dem Thema beschäftigen, was SuS wirklich brauchen, welchen Herausforderungen sie sich stellen müssen, wie eine Entwicklung der Gesellschaft im Dreieck aus planetaren Leitplanken, Vielfalt und Teilhabe und Politik aussieht? Nein, es geht um “weniger Arbeit”, “mehr Zeit”, “schnellere Arbeitsblätter”, “einfachere Korrekturen”.
Das sind Symptome einer Beharrung in den alten, überkommen Strukturen, in denen Lehrkräfte fieberhaft versuchen, neben ihrer eigentlichen Aufagbe organisatorische Belange, Kontrollen, Bürokratie und noch mehr des alten überkommenen Systeme zu schaffen. Niemand kann mit zehn Fingern elf Korken unter Wasser halten. Anstatt dies aber zu erkennen und das System zu ändern, wird versucht, mit den Mitteln der Technik das alte System zu stützen. Weil, ja, weil Veränderung und Instabilität Angst und Verunsicherung erzeugt und Leute dann lieber im alten Schrecken bleiben anstatt den Blick aus den Trümmern zu heben.
Diese Spaltung in Hype-Jünger und Zauderer wird sich auch nicht schnell auflösen. Was beide aber aus den Augen verloren haben, sind die ganzen anderen Auswirkungen dieser Technologie, die langfristig viel wichtiger werden und die nur von wenigen im Bildungssystem gesehen werden. Ich kann Lehrkräfte nicht verstehen, die von “KI” schwärmen, sich aber nicht im mindesten mit ihren SuS auseinandersetzen, was der Wunsch nach der Wiederinbetriebnahme von Kernkraftwerken, die Folgen von Rechenzentren mit einem Energiebedarf von 10 Gigawatt (das ist der Verbauch der Schweiz!) und der Möglichkeit der Stärken von maschinellem Lernen, nämlich der Mustererkennung und was das für bestimmte politische Szenarien für Folgen haben wird.
Wer Archimedes und das Zitat “Noli turbare circulos meos” gar nicht kennt: https://de.wikipedia.org/wiki/Archimedes#Leben ↩︎
Mehr dazu erfährst Du bei einer Suche nach der Kommunikation in einem Flugzeug-Cockpit wärend des Starts- ↩︎
Wem “Darmok and Jalad at Tanagra” nicht sagt: https://de.wikipedia.org/wiki/Darmok ↩︎
Zum Beispiel hier: https://www.arminhanisch.de/2022/12/ki-ist-nicht-kk/ ↩︎
Siehe beispielsweise https://en.wikipedia.org/wiki/Dartmouth_workshop ↩︎
Lizenz für diesen Post CC-BY-SA 4.0