Korrekturhilfe für LehrkräfteKI-Magie gegen die Bildungskrise

Deutschlandweit mangelt es an Lehrkräften. Statt aber für mehr Personal zu sorgen, setzen viele Landeschulbehörden auf sogenannte Künstliche Intelligenz. Wie hohl die Versprechen der Anbieter solcher Lösungen sind, demonstrierten Rainer Mühlhoff und Marte Hennigsen beim diesjährigen Chaos Communication Congress.

Zwei Redner:innen stehen auf der Bühne vor dunkler Leinwand
Die KI:Philosoph:innen Marte Hennigsen und Rainer Mühlhoff entzaubern den Mythos, KI würde Lehrkräfte entlasten. – Screenshot vom Recording des Vortrags

Marode Schulen, überfüllte Klassen, erschöpfte Lehrkräfte – Deutschland steckt in der Bildungskrise. Laut dem jährlich erscheinenden Schulbarometer der Robert Bosch Stiftung wissen Lehrkräfte recht genau, was sie brauchen, um einen besseren Unterricht zu machen. Kleinere Klassen oder sanierte Schulgebäude etwa. Ganz oben auf der Liste steht jedoch: mehr Personal.

Statt aber in Lehrkräfte und die Pädagog:innen-Ausbildung zu investieren, setzen einige Länder vermehrt auf sogenannte Künstliche Intelligenz. Die Hersteller von KI-Tools versprechen schnelle Lösungen. Die Programme sollen Lehrer:innen im Arbeitsalltag entlasten, etwa durch Korrekturhilfen oder bei der Bewertung von Schüler:innenleistungen.

So erklärte die Landesschulbehörde Rheinland-Pfalz auf Anfrage der KI-Philosoph:innen Marte Hennigsen und Rainer Mühlhoff, für Lizenzen des KI-Herstellers fobizz bisher pro Jahr 1,75 Millionen Euro auszugeben. Zugleich knappste das Land im Sommer beim dringend benötigten Lehrer:innenachwuchs: In den Ferien bekamen die Referendar:innen kein Geld.

Mit ihren Angeboten rennen deutsche KI-Hersteller wie fobizz, fiete.ai und myTAI offene Türen ein. Denn die Begeisterung für entsprechende Tools ist bei Entscheider:innen im Bildungsbereich sehr groß. Anfang des Jahres verkündete Christine Hauck vom Schulbuchverlag Cornelsen auf der Bildungsmesse didacta: KI könne Lehrkräfte entlasten und die Bildung verbessern.

Dass sich die öffentliche Debatte um den Bildungsnotstand dem Allheilmittel KI zuwendet, hat einen hohen Preis. Denn statt in effektive Maßnahmen zu investieren, verlassen sich Länder und Bildungseinrichtungen auf Tools, die nicht so funktionieren, wie KI-Hersteller es versprechen.

So lautet das ernüchternde Fazit von Mühlhoff von der Universität Osnabrück und Marte Hennigsen von der Universität Maastricht. In ihrem Talk „Chatbots im Schulunterricht!?“ auf dem 38. Chaos Communication Congress in Hamburg nahmen sie die Korrekturhilfe für Lehrer:innen des Unternehmens fobizz unter die Lupe. Aus ihrer Sicht erbringen die KI-Werkzeuge nicht einmal ansatzweise die angepriesene Arbeitserleichterung. Vielmehr müssten Lehrkräfte einen zusätzlichen Aufwand betreiben, wenn sie diese sinnvoll im Unterricht einsetzen wollen.

Korrekturhilfe mit Hilfe von OpenAI

Die Korrekturhilfe ist eines von vielen KI-Produkten, welches das Hamburger IT-Unternehmen auf einer Plattform für Weiterbildungen und KI anbietet. Es wirbt damit, das Angebot speziell von Lehrkräften für Lehrkräfte zu entwickeln. Hinter dem Nutzer:innen-Interface steckt ChatGPT4, das beliebte Chatbot-System des US-amerikanischen Unternehmens OpenAI.

Lehrer:inen können die von Schüler:innen eingereichten Hausaufgaben auf der Plattform hochladen. Sie erhalten dann eine Bewertung des Aufsatzes im PDF-Format, inklusive Feedback in Stichpunkten und einer Benotung.

Mühlhoff und Hennigsen wollten wissen, ob sich das Produkt tatsächlich dafür eignet, Hausaufgaben zu bewerten und damit Lehrkräften Arbeit abzunehmen. Für ihren Test gingen sie niedrigschwellig vor. Sie simulierten zehn Hausaufgaben von Schüler:innen und ließen diese je fünf Mal vom Programm bewerten.

Dabei kamen erschütternde Ergebnisse zutage. Das Programm vergab für mehrere Texte bei jeder Bewertung eine andere Note – in einem Fall für ein und dieselbe Aufgabe die Noten ungenügend, befriedigend und sehr gut. Nur in zwei Fällen blieb sich das Programm in der Benotung treu. Am besten bewertete es die fingierten Hausaufgaben, die Hennigsen und Mühlhoff mit ChatGPT erstellt hatten. Darüber hinaus versagte die Korrekturhilfe in puncto inhaltliche Richtigkeit, sie erkannte Falschbehauptungen nicht. Und die KI merkte in den Texten dort Fehler an, wo tatsächlich keine waren.

Vom Aberglauben der Neutralität

Fobizz inszeniere sich als Start-up und verkenne dabei seine gesellschaftliche Rolle, kritisieren Hennigsen und Mühlhoff. Denn das Unternehmen pflegt nicht nur Geschäftsbeziehungen mit Rheinland-Pfalz, sondern auch mit Bremen, Sachsen, Mecklenburg-Vorpommern und Saarland. Laut Hennigsens Berechnungen kaufe jede vierte Schule in Deutschland KI-Systeme bei fobizz ein.

Damit sei fobizz längst über den Start-up-Status hinaus. Kund:innen verlassen sich auf das Versprechen, wonach die KI die Leistungen von Schüler:innen objektiv bewerte. Gerade jüngere Lehrkräfte würden sich viel von der KI erhoffen, wissen Hennigsen und Mühlhoff aus Gesprächen. Denn der KI fehle es weder an Kondition noch an Motivation.

Der sogenannte automation bias verschärft die Gefahr, dass KI breit genutzt wird, obwohl sie unausgereift ist und Ergebnisse liefert, die hinter den Erwartungen zurückbleibt. Der Begriff beschreibt die Tendenz von Personen, technologischen Lösungen mehr zu vertrauen als menschlichen Fähigkeiten. KI sei letztlich nicht mehr als ein Werkzeug, Symptome zu bekämpfen und auch dafür nur unzureichend geeignet, so Hennigsen und Mühlhoff.

Obendrein geraten Schulen zunehmend in die Abhängigkeit von Tech-Konzernen wie OpenAI. Denn KI-Unternehmen wie fobizz geben hochsensible Daten von Schüler:innen und Lehrkräfte an diese weiter.

7 Ergänzungen

  1. „Lehrer:inen können die von Schüler:innen eingereichten Hausaufgaben auf der Plattform hochladen. Sie erhalten dann eine Bewertung des Aufsatzes im PDF-Format, inklusive Feedback in Stichpunkten und einer Benotung.“

    Äääähhm… wie bitte?!?!

    Es sollte doch eigentlich jedem bekannt sein, dass die Modelle nach wie vor Fehler machen und man ihre Aussagen immer überprüfen sollte.
    Wenn man aber einen Aufsatz benoten muss, muss man sich trotzdem überlegen, warum der Schüler das geschrieben hat, was er geschrieben hat.
    In dem Fall müsste der Lehrer sich den beim Korrekturlesen also zwangsläufig ohnehin mit dem geschriebenen Aufsatz auseinandersetzen. Zusätzlich müsste er noch überprüfen, ob ChatGPT hier richtig liegt oder vollkommenen Stuss erzählt.

    Was für eine Entlastung soll denn das am Ende des Tages sein?
    Gleiches gilt für alle Aufgaben, wo individuelle Denkweisen / Meinungen gefragt sind

    Vor allem wenn ich lese „Statt aber in Lehrkräfte und die Pädagog:innen-Ausbildung zu investieren, setzen einige Länder vermehrt auf sogenannte Künstliche Intelligenz.“, frage ich mich, ob die Leute, die das entschieden haben
    a) ansatzweise verstehen, wie die Modelle funktionieren
    b) die Modelle selbst mal bei solchen Dingen genutzt haben

    Ich tippe mal bei beidem auf nein.

    1. Richtig. Und es ist ihnen auch egal, denn ihre Klientel kann sich gute Betreuung leisten.

      Das gilt praktisch überall, wo „KI“ ohne Rücksicht auf Qualitätsverlust propagiert oder eingesetzt wird: der Qualitätsverlust ist Teil des Ziels.

  2. Naja, das wird vielleicht wie mit den Gameshows.

    „Bleiben Sie bei Note 2 stehen, oder wechseln zur nächsten Tür?“
    Wenn nicht der Zonk dahinter steht, hat man die Chance, sich abzuheben!

    ***

    Hat mal jemand überlegt, welchen Unterschide Geschriebenes zu Gelebtem macht? Von wegen wenn wir von Intelligenz sprechen, und mit Internet trainieren… Da könnte es noch einige lustige (potentiell tödliche) Fehlerkategorien geben. Schon mal von der Sonne geblendet worden?

  3. Das Bildungswesen steht vor der Aufgabe, nicht nur den Einsatz von KI-Tools zu bewerten und anzuleiten, sondern auch eine entscheidende Rolle in der Entwicklung zukunftsrelevanter Kompetenzen zu spielen. Der Einsatz von KI in der Bildung darf nicht nur als technologische Unterstützung gesehen werden, sondern muss stets im Kontext der Förderung von kritischem Denken und Future Skills betrachtet werden.

    *Kritisches Denken im Umgang mit KI fördern*
    Reflexion statt blinder Nutzung: Lehrkräfte und Lernende müssen dazu befähigt werden, die Ergebnisse von KI-Systemen kritisch zu hinterfragen. KI generiert Lösungen, die nicht immer fehlerfrei oder ethisch vertretbar sind. Diese Fähigkeit, zwischen Nutzen und Risiko abzuwägen, ist essenziell.
    Bewusstsein für Bias: KI-Systeme sind nur so gut wie die Daten, mit denen sie trainiert werden. Schulen und Bildungsinstitutionen sollten Lernende darauf vorbereiten, mögliche Verzerrungen in den Ergebnissen von KI zu erkennen und deren Konsequenzen zu verstehen.
    Ethik in der Technologie: Die Integration von KI in den Unterricht sollte immer mit ethischen Diskussionen einhergehen, um die gesellschaftlichen Auswirkungen von Technologie zu beleuchten.

    *Future Skills entwickeln*
    Digitale Kompetenzen: Lernende müssen verstehen, wie KI funktioniert, wie sie eingesetzt wird und welche Grenzen sie hat. Das schließt grundlegende Programmierkenntnisse und das Wissen über Datensicherheit mit ein.
    Problemlösungs- und Innovationsfähigkeit: KI kann repetitive Aufgaben übernehmen, aber kreative und innovative Lösungen entstehen durch Menschen. Das Bildungswesen muss Lernräume schaffen, in denen diese Fähigkeiten gezielt gefördert werden.
    Kooperationsfähigkeit in Mensch-KI-Teams: In der Arbeitswelt der Zukunft werden Menschen zunehmend mit KI-Systemen zusammenarbeiten. Lernende sollten darauf vorbereitet sein, KI als Werkzeug effektiv einzusetzen, ohne ihre eigene Entscheidungskompetenz zu verlieren.

    1. Das wäre der einzig richtige Ansatz. Nur müsste dafür in Bildung, Pädagogik und die Infrastruktur der Schulen auch endlich mal investiert werden.
      Aber offenbar hofft man sich auch dieses gesellschaftliche Problem durch das Allheilswundermittel KI lösen zu können.

      Ein weiteres vorprogrammiertes Scheitern.

      1. „Aber offenbar hofft man sich auch dieses gesellschaftliche Problem durch das Allheilswundermittel KI lösen zu können.“

        Nein, man will maximalen Profit und maximale Macht erreichen, und „KI“ ist dafür hilfreich, auch gerade weil Bildung der Massen dabei stört.

        „Ein weiteres vorprogrammiertes Scheitern.“

        Die sind leider erfolgreich. Die haben nur andere Ziele als Sie.

        Siehe USA: Bildung ist eine sehr teure Ware, qualifiziertes Personal wird importiert, das ist billiger und erpressbarer, führt zB Musk bei X vor.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.