Klassen mit mehr als dreißig Schüler:innen, für die Unterrichtsvorbereitung fehlt die Zeit und erst recht für die individuellen Bedürfnisse der Lernenden. Der Mangel an Lehrkräften überfordert das System Schule seit Jahren. Viele Pädagog:innen arbeiten am Limit, entwickeln Burn-out und steigen vorzeitig aus dem Beruf aus.
Dass sich die Lage entspannt, ist nicht absehbar. Zwar hebt der Bund die Gelder für das Bildungssystem regelmäßig an, gut 72 Prozent davon fließen ins Personal. Doch gemessen am Bruttoinlandsprodukt sind die Investitionen ins Bildungssystem in den vergangenen zehn Jahren um gerade einmal 0,2 Prozentpunkte gestiegen. Das sei nicht genug, um den Bedarf zu decken, kritisiert der diesjährige Nationale Bildungsbericht (PDF).
Wo immer Fachkräfte fehlen, wächst derzeit der Glaube an die sogenannte Künstliche Intelligenz (KI). Die EdTech-Branche, die technische Anwendungen für den Bildungssektor erstellt, richtet ihre Angebote darauf aus. In TEDTalks und YouTube-Tutorials versprechen technikaffine Didaktiker:innen schnelle Lernerfolge und Produktivitätssteigerungen.
Und auch Schüler:innen nutzen KI längst in ihrem Alltag. Sie verwenden ChatGPT während des Unterrichtes und zur Erledigung der Hausaufgaben. Lehrer:innen zeigten sich hingegen meist überfordert, weil sie die Technologie noch nicht ausreichend verstünden.
Dünne wissenschaftliche Basis
Die Konferenz der Bildungsminister:innen der Länder (Bildungs-MK) – sie ist Teil der Kultusministerkonferenz – veröffentlichte vor wenigen Tagen Handlungsempfehlungen (PDF) zum Umgang mit Künstlicher Intelligenz. Schulen sollen demnach „die Potenziale dieser Technologien für das Lernen und Lehren“ nutzen und zugleich einen kritischen Umgang mit dem Thema KI pflegen.
Dabei stützt sich die Bildungs-MK auf den Bericht „Large Language Models und ihre Potenziale im Bildungssystem“ (PDF) der Ständigen Wissenschaftlichen Kommission (SWK). Demzufolge könnten KI-Sprachmodelle, sogenannte Large Language Models, LLMs, Lehrkräfte entlasten, etwa indem sie diese dabei unterstützen, Lernmaterial zu erstellen oder den Unterricht vorzubereiten. Auch könnten sie dabei helfen, den Schüler:innen individuelles Feedback zu geben oder deren Klausuren zu korrigieren.
Sogenannte Intelligente Tutorielle Systeme (ITS) könnten den Schüler:innen zugutekommen und sie entsprechend ihrer individuellen Bedürfnisse beim Lernen fördern, so die Einschätzung des SWK. ITS ahmen menschliche Tutor:innen nach. Ihr Vorgehen basiert auf wissenschaftlich untersuchten Lernpfaden, die Schüler:innen nehmen, um Inhalte effizient zu erlernen.
Diese Lernpfade sollen gemäß der Vorgaben der Bildungs-MK aber nicht länger Pädagog:innen, sondern LLMs ausarbeiten. Ein solcher Vorschlag entbehre indes jeder wissenschaftlichen Basis, kritisiert Wikimedia Deutschland in ihrer Initiativstellungnahme zu dem entsprechenden Vorhaben der Minister:innen, die netzpolitik.org vorliegt. Wikimedia weist zudem darauf hin (PDF), dass die Bildungs-MK von KI-Systemen spricht, ohne dabei beispielsweise generative KI wie LLMs von symbolischer KI wie ITS klar zu unterscheiden.
Den Lehrkräften fehlt das Wissen
Laut Bildungs-MK hätten Intelligente Tutorielle Systeme das Potenzial, Lehrkräfte zu entlasten. Allerdings deuten die Minister:innen in ihrem Papier an, dass zunächst mehr Arbeit auf die Lehrkräfte zukommt. Denn ihnen obliege die Aufgabe, den Schüler:innen „einen konstruktiv-kritischen Umgang“ mit KI zu vermitteln: Prompts zu schreiben, Quellen zu prüfen und diskriminierende Verzerrungen in den mit KI erzeugten Inhalten zu erkennen. Das dafür erforderliche Wissen müssen sich die meisten Lehrkräfte aber zunächst selbst erst aneignen.
Darüber hinaus müssten die Lehrenden auch „eine neue Prüfungskultur“ etablieren, die die Bildungs-MK noch ausarbeiten will. Es brauche „eine an einer Kultur der Digitalität ausgerichtete Prüfungskultur“, Abschlussprüfungen seien entsprechend anzupassen. Wie dies jedoch im Detail ablaufen soll, verrät die Bildungs-MK nicht.
Anne-Sophie Waag, Referentin für Bildungspolitik bei Wikimedia Deutschland, ist skeptisch, dass KI die Arbeit der Lehrenden langfristig erleichtern kann. Erste Untersuchungen (PDF) würden belegen, dass Lehrkräfte durch den Einsatz etwa von ChatGPT nicht weniger Arbeit haben, sondern dass sich deren Aufgaben und Tätigkeitsprofile verlagerten.
Es droht Mehrbelastung
Auch die GEW-Vorsitzende Maike Finnern zeigt sich nicht überzeugt davon, dass der Einsatz von KI die Lage an den Schulen verbessert. „Auch Rationalisierungsmaßnahmen können zu Mehrarbeit und Arbeitsverdichtung führen, indem neue Aufgaben hinzukommen oder Prozesse beschleunigt werden, die Frequenz der Aufgaben erhöht wird oder größere Klassengrößen angesetzt werden“, sagt Finnern gegenüber netzpolitik.org.
Die Gewerkschafterin warnt davor, KI und automatisierte Lernsysteme als Lösung für den Lehrkräftemangel zu sehen. Für eine nachhaltige Entlastung an den Schulen müssten mehr Lehrkräfte eingestellt werden. „KI kann nicht die Lösung für eine verfehlte Haushaltspolitik sein“, so Finnern.
Das kritisiert auch Nina Galla. Verantwortliche auf allen Ebenen würden seit Jahren zwar den Lehrkräftemangel beklagen, die Ursachen aber ignorieren: die Gehaltsspreizungen bei Grundschul- und Gymnasiallehrer:innen oder Fragen der Verbeamtung. Galla ist hauptberuflich Pressesprecherin bei AlgorithmWatch, zuvor war sie Referentin für die Enquete-Kommission Künstliche Intelligenz für die damalige Linksfraktion im Deutschen Bundestag.
KI werde als Allheilmittel gesehen und habe die Debatte abgewürgt. „Das ist eine toxische Gaslighting-Strategie der Politik, die sich nicht mehr mit denen auseinandersetzt, die mit dem Mangel umgehen müssen“, so Galla gegenüber netzpolitik.org.
Datenschutz ist kein Thema
Lehrer:innen müssen infolge des KI-Einsatzes im Unterricht aber nicht nur mit mehr Arbeit rechnen, sondern auch einer steigenden Verantwortung gerecht werden – etwa beim Thema Datenschutz. So sollen Lehrkräfte in Baden-Württemberg beispielsweise die Eingaben der Schüler:innen in die KI-Systeme daraufhin überprüfen, ob diese personenbezogene Daten enthalten.
Das sei in der Praxis kaum umzusetzen, erklärt Anne-Sophie Waag von Wikimedia gegenüber netzpolitik.org. Ein solcher Anspruch setze voraus, „dass Lehrkräfte selbst über das dafür erforderliche Wissen verfügen“. Gerade Intelligente Tutorielle Systeme sammelten viele Daten der Nutzenden, um entsprechende Vorschläge unterbreiten und Entscheidungen treffen zu können, sagt Waag. Wie damit hinsichtlich des Datenschutzes umgegangen werden soll, führt die Bildungs-MK in ihren Handlungsempfehlungen nicht aus. Sie frage auch nicht danach, wer die Systeme bereitstellt, wo die Daten liegen und wer sie wie verwenden darf, so Waag.
Lehrkräfte würden außerdem für den Erfolg oder Misserfolg des KI-Einsatzes in die Verantwortung genommen – nicht aber die Technik selbst. Dabei sei es derzeit noch weitgehend unklar, welche Folgen es hat, wenn Entscheidungen über Lernverläufe und -inhalte an Intelligente Tutorielle Systeme oder LLMs ausgelagert werden.
„Mit den bisherigen KI-Systemen und der aktuellen Ausbildung der Lehrkräfte ist eine Bewertung nicht möglich“, so Waag gegenüber netzpolitik.org. KI-Systeme seien intransparent, Lehrkräfte könnten deren Entscheidungen daher nicht nachvollziehen. Somit könnten sie auch nicht bewerten, ob deren Entscheidungen – gerade mit Blick auf die individuellen Bedürfnisse von Schüler:innen – sinnvoll sind.
Viele Menschen haben es noch nicht verstanden, wie die so genannte „KI“ funktioniert und glauben hiermit könnte man Berge versetzen.
Ein Versuch dieses vereinfacht zu erklären: Verlangt man in einem Beispiel von 100 Menschen, einen Strich auf ein DIN A4 zu machen, im Anschluss werden diese 100 Blätter vom „KI“ Bot gescannt… Verlangt man nun ohne weiteres von der sogenannten „KI“ in etwa auf ein DIN A4 einen Strich zu machen, ergibt die Ausgabe einen Durchschnitt, der Form, Länge, Position, Farbe, usw. aller Stricher der 100 Menschen. … Um so mehr Menschen nun statt einem Strich doch eher eine Kurve zeichnen, entsprechend die fehlerhaften Ausgaben der so genannten „KI“.
Hierduch resultiert auch der Grund, warum eine so genannte „KI“, einer anderen „KI“ nicht trainieren kann. Es endet in ein Chaos! Auch eine Art „KI“ Abwehrmethode.
Menschen wissen aber auch nur, was ein Strich ist, weil sie es bei anderen Menschen gesehen haben. Inwieweit sich die KI verselbstständigen kann, scheint mir noch nicht ganz klar.
Wenn das so wäre?
Dann müsste jedes Programm/Applikation/SPS Ablauf das ein Programmierer schreibt, somit eine so
genannte „KI“ Benennung bekommen. Auch primitive Programmabläufe haben ihr verliehene Intelligenz.
… Denn es werden Informationen auch komplexe nach Vorgaben und Fälle verarbeitet.
Scanne ich die (Ansicht) eines Tieres aus 3D wie Beispiel der Katze in vielen Tageslagen, Farben, Muster und
Haltungen; im Anschluss verlange ich von mein Programm Gemeinsamkeiten mit gefundenen Bildern im
Internet zu finden… Ist das bereits eben „Künstliche Intelligenz“?
Die Sorte KI (LLM + Zucker) verselbständigt sich nicht (in sich, von selbst).
Der Kritik zueigen ist etwa: Wir verstehen die Technologie nicht wirklich. Unsere Ingenieurskunst reicht nicht hin, um erkennen zu können, ab wann sich in was für einem System entsprechend ausbrechfähige Intelligenz bilden kann, oder auch nur ab wann welcher Schaden droht, z.B. gesellschaftlich.
Es gibt allerdings mehrere Theorien bzw. Ansätze, wie solches geschehen könnte.
1. Die Menschen machen es mit Hilfe dessen, was „die KI“ eben jetzt schon so kann.
2. Es werden mit Geldhaufen Systeme angefacht, die immer größer, kapabler, rückgekoppelter und vernetzter werden. Da könnte sich Intelligenz bilden, wenn auch 1. dabei immer immanent bleibt. Es reicht ja, dass Entscheider dumme Entscheidungen treffen, oder ein Lemmingevent auslösen.
Folgt man dem Hype und der Kritik, sehen wir dass Generatoren wie LLMs und Text-zu-Bild Schwächen behalten, z.T. ausgebügelt durch Spezialfallbehandlung, Trainingsdatenbügelung, u.ä., dass aber gleichzeitig theoretische Ergebnisse vorliegen, was passiert, wenn generierte Daten dorthin sickern, woher die Trainingsdaten auch bezogen werden, grob gesagt das Internet. Wir werden andere Sorten Systeme brauchen!
Der Artikel spricht ein zentrales Problem an: Unsere übertriebene Begeisterung für technologische Lösungen, ohne uns wirklich Gedanken darüber zu machen, was wir da verlieren könnten. KI in der Bildung, besonders Systeme wie ITS, wird oft als Wundermittel verkauft – als wäre das Problem einfach, dass wir nicht genug Technik haben. Aber Bildung ist ein zutiefst menschlicher Prozess. Klar, eine KI kann Fakten abfragen und wiederholen, aber was sie nicht kann, ist die menschliche Interaktion zu ersetzen, die so zentral für echtes Lernen ist.
Ich finde, wir müssen vorsichtig sein, dass wir die Menschlichkeit nicht aus der Bildung rausdrängen. Kinder brauchen Lehrer, die auf ihre persönlichen Bedürfnisse eingehen können, die ihnen nicht nur Fakten beibringen, sondern auch, wie man scheitert und wieder aufsteht, wie man reflektiert und seine eigene Meinung bildet. Das kriegt keine KI hin. Technologie kann ergänzen, aber sie darf nicht dominieren.
Wenn wir nur noch auf Effizienz setzen und dabei den Menschen aus dem Fokus verlieren, dann könnte der Schuss nach hinten losgehen. Bildung ist mehr als reine Wissensvermittlung – es ist auch eine Schule des Lebens, und das braucht menschliche Wärme, Geduld und vor allem: Verständnis.
Wenn das Ziel ist, Bildung für alle kaputtzumachen, dann wäre das allerdings ein konsequenter Schritt. In diesem Sinne verstehe ich auch jene Hoffnung. Die anderen gehen dann auf Privatschulen.
Was sind Didakt:innen? Evtl. Didaktiker:innen?
Danke für den Hinweis, ist im Text nun geändert.
Im Gegenteil, KI und Computer sinnvoll einzusetzen, trifft auf bereits bekannte Gegenanzeigen. Woher die Hoffnung kommt ist unklar.
“Das ist eine toxische Gaslighting-Strategie der Politik, die sich nicht mehr mit denen auseinandersetzt, die mit dem Mangel umgehen müssen“.
Das ist vor allem eine typische Gaslighting-Strategie der Politik, um von ihren Totalversagen abzulenken.
Seit Jahrzehnten wird ergebnislos von Verbesserungen geschwafelt und herumdilettiert (PISA², TIMSS³).
Dazu passt, dass die Anzahl der Schülerinnen, die das Schulsystem ohne Abschluss verlassen, seit Jahren auf hohem Niveau stagniert (> 5%⁴). In Bremen verlässt gar jede 10. Schülerin das Schulsystem ohne Abschluss.
Der Angriff K”I” wird Deutschlands abgehalftertes und unreformierbares Bildungssystem nicht retten.
Solch magisches Denken offenbart doch nur die Ahnungs-, Hilfs- und Planlosigkeit unserer Bildungspolitiker- und -verwalterinnen.
Evidenzbasiertes Handeln ist augenscheinlich eine bürgerliche Kategorie, die in Deutschland längst überwunden wurde.
Auch K”I” wird eher kurz- als mittelfristig auf den nackten Boden der Realität zurückgeholt werden und sich nahtlos in andere denkfaul antizipierte Hypes wie Autonomes Fahren, Blockchain, Cloud, E-Fuels, Flugtaxis, Grüner Wasserstoff, Smart Meter etc. pp. einreihen.
Die PISA–Verliererinnen von 2000 werden übrigens nächstes Jahr 40 und sind längst in die Amtsstuben, Parlamente und Schulen diffundiert, was die Abwärtsspirale in allen betroffenen Bereichen beschleunigen dürfte.
¹ https://de.m.wikipedia.org/wiki/Gaslighting
² https://de.m.wikipedia.org/wiki/PISA-Studien
³ https://de.m.wikipedia.org/wiki/Trends_in_International_Mathematics_and_Science_Study
⁴ Das sind mehr als 5 von 100 Schülerinnen.
Ergänzung zu Carsten: Ca. 5% verlassen die Schulen ohne Abschluss, weil sie es können!
Schulschwänzer müssen kaum Folgen befürchten. Da kommt mal eine Mahnung von der Schule, die stolz im Freundeskreis präsentiert wird. Dann evtl. (falls der Lehrer sich die Mehrarbeit macht und an den Schulträger meldet) ein Bußgeldbescheid, der sich nach der Einkommenshöhe der Eltern richtet. Wo kein Einkommen ist, ist nichts einzufordern. Also auch keine Verhaltensänderung (z.B. Kind unterstützen) bei den Eltern. Und alle wissen: nach der Schule gibt es Maßnahmen, da gibt es sogar noch Geld für den Schulbesuch mit Bewerbungstraining (z.B. ZAB). Und danach gibt es EQJ, Scheinverträge mit dem Arbeitsamt, welches Betrieben Geld zahlt, dass Maßnahmen-„Lehrlinge“ für ein Jahr genommen werden. Häufigster Satz der Schulabbrecher-Familien: „Sie müssen aber…!“ und „Mir steht aber… zu!“
Und warum kriegen die kids nichts auf die Reihe? WEIL sie bereits KI nutzen und das Denken verlernen. Hausaufgaben mit KI machen. Prima. Und wem gebe ich die Note? Dem KI-Programm oder wem? Die Schüler lernen keine Handlungs- und Problemlösungsstrategien. Und Sozialverhalten auch nicht. Und Eigenverantwortung auch nicht. Nein, die KI hat „Scheiß gebaut“. Die kommen nichtmal drauf, dass sie selbst Blödsinn eingegeben haben. Weil sie nichtmal das können (sinnvolle Begriffe eingeben, damit von ChatGPT was Sinnvolles ausgespuckt wird).
Jugendliche in soclhen „Maßnahmen“ werden NICHT in der Jugendarbeitslosen-Statistik geführt).
Die Politiker hypen KI, weil hier ein weiteres Sparpotenzial gewittert wird. Wie schon bei der desaströsen Zusammenlegung von Haupt- und Realschulen in RLP. Und ja, vermutlich sitzen hier schon die PISA-Verlierer an den Schaltstellen, anders kann man diese absurden „Reform“-Versuche kaum erklären.
Kinder und Jugendliche mit Förderbedarf gibt es aber schon bedeutend länger, als ChatGPT und Co. In diesen Fällen ist die Förderung durch die Arbeitsagentur auch notwendig, um diese jungen Menschen selbständig werden zu lassen, d.h. in die Lage zu versetzen, eigenes Geld zu verdienen und sich etwas aufzubauen.
Das können übrigens, wie auch ihre Familie, ganz nette und umgängliche Menschen sein.
Da viele noch Jahre nach der Schule und dem Studium Angstträume von vergessenen Hausaufgaben und Prüfungsgremien haben, also faktisch mit Post-traumatische-Störungen in die Welt entlassen werden, wäre es nur logisch die Pädagogen durch neutrale Lern- und Prüfautomaten zu ersetzen.
Keine Lieblinsschüler mehr, kein Sexismus, keine persönlichen Vorlieben von Lehrkräften, die ihr Weltbild und ihre soziale Inkompetenz mit dem Lehrstoff vermischen. Kurz, spielerisch lernen, und dabei jeder in der Sprache die er versteht. Keine Schulbuchverlage mehr, die veraltete Rollenbilder über Aufgabenbeschreibungen verbreiten. Keine Kultusminister mehr, die das Schulsystem ihres Bundeslandes den bedürfnissen der Wirtschaft unterordnen. Ich kann das gemeinsame lernen mit LLMs nur empfehlen, nur leider unterstellt man diesen einen breiten Bias – als ob Pädagogen selbst davon frei wären … lächerlich!
Ja, Schule kann auch traumatisierend wirken. Aber würde eine Zukunft mit „Lern- und Prüfautomaten“ frei von schädlichen Wirkungen sein, oder stattdessen andere Traumata hinterlassen?
Sie führen den Einwand von Biases bei LLMs selbst an, und wischen diesen als „lächerlich“ einfach weg. Hier versagen sie als ein sich selbst bezeichnender „Mitdenker“. Wann würde ein lernendes Kind bemerken, dass sein LLM ihm z.B. die erwünschte Weltsicht neoliberaler Narzissten vermittelt hat, welche „Lern- und Prüfautomaten“ strategisch als Wirkmittel einsetzen?
Wie dumm und verantwortungslos müssten Eltern geworden sein, dass sie ihren Nachwuchs kalten „Lern- und Prüfautomaten“ zur Sozialisation und Bildung überlassen?
Ja, das Schulsystem war schon immer kritikwürdig. Aber in aller Schlichtheit beim Denken unkritisch „Lern- und Prüfautomaten“ fordern, das finde ich … lächerlich!