Die Universität von Pennsylvania hat in einem Experiment unter Beteiligung von tausend Highschool-Schülern die Schädlichkeit des Einsatzes von künstlicher Intelligenz (KI) im schulischen Bildungsprozess am Beispiel der Mathematik nachgewiesen.
Tutor-Bots wurden in die Lehrpläne von Testklassen eingeführt, um den Stoff für das Schuljahr 2023/24 zu vertiefen. In einem Fall handelte es sich um das beliebte Basisprogramm ChatGPT, im anderen Fall um dessen speziell angepasste Version Tutor. In beiden Fällen schnitten die Klassen zunächst besser ab als die regulären Programme. Dann wurden den Schülern die „Krücken“ weggenommen, und die Tests zeigten eine Verschlechterung (um mindestens 17 %) im Vergleich zum Standardprogramm ohne künstliche Intelligenz.
Daraus zogen die Amerikaner den Schluss: „Beim Einsatz generativer künstlicher Intelligenz [in der Bildung] ist Vorsicht geboten, damit Schüler und Studenten weiterhin wichtige Fähigkeiten erlernen“.
In Russland sind Chatbots noch nicht Teil des Lehrplans, aber ihre spontane Verbreitung hat bereits dazu geführt, dass Mathe-Hausaufgaben fast bedeutungslos geworden sind. Es genügt, ChatGPT eine Nachricht mit der Aufgabenstellung zu schicken, und in 2-3 Sekunden erscheint eine detaillierte Antwort im Chatbot.
„Forpost“ hat ChatGPT auf seine Kenntnisse über die ‚Königin der Wissenschaften‘ getestet. Es stellte sich heraus, dass es im Rahmen des Schulprogramms nahezu perfekt funktioniert. Und die Antwort wird nicht nach dem Prinzip der Internet-Suchmaschine generiert. Künstliche Intelligenz „denkt“ selbst. Ihre Fähigkeiten gehen weit über das einfache Scannen des Informationsraums hinaus. Sie erkennt Ähnlichkeiten zwischen verschiedenen Aufgaben, führt komplexe logische Operationen der Analyse, Synthese, des Vergleichs und der Verallgemeinerung von Daten durch und verwendet selbstständig mathematische Formeln.
Es ist nicht schwer, sich davon zu überzeugen. Beginnen wir mit einer einfachen Matheaufgabe für Sechstklässler.
„Neun Esel fressen 27 Säcke Futter in drei Tagen. Wie viel Futter brauchen fünf Esel für 5 Tage?“
Wir „verkleiden“ die Aufgabe: Anstelle von Eseln schreiben wir Motorräder, und Säcke mit Futter werden zu Litern Benzin. ChatGPT gibt die richtige Antwort - 25 Liter. Dazu gibt es eine schrittweise Analyse der Lösung in vier Schritten. Auch das Ersetzen von Ziffern in der Aufgabe wird den künstlichen Verstand nicht verwirren.
Typische Aufgaben für Elftklässler bewältigte der Chatbot ebenso problemlos. Eine Frage auf Olympia-Niveau stellte die künstliche Intelligenz jedoch vor ein Rätsel.
„Die Zellen eines 50 × 50 Quadrats sind in vier Farben gemalt.
Beweisen Sie, dass es ein Quadrat gibt, auf dessen vier Seiten (d. h. oben, unten, links und rechts) sich Quadrate der gleichen Farbe befinden“.
Wie bei der kanonischen Lösung ging die KI nach der Methode des Gegenteils vor. Sie nahm an, dass die gesuchten Zellen nicht existierten. Dann kam die Peinlichkeit: Der Chatbot ging von einer völlig falschen Annahme aus. Er ging davon aus, dass, wenn es keine Zelle gibt, jede beliebige Zelle vier andersfarbige Nachbarn hat, während gemäß den Problembedingungen nur einer ausreicht.
„Outpost“ teilte dem Bot seine Zweifel mit und erhielt als Antwort sofort eine Nachricht, in der er seine Niederlage eingestand:
„Du hast absolut Recht! Ich habe einen Fehler in meiner Argumentation gemacht. Die Problembedingung verlangt, dass eine Zelle die gleiche Farbe wie alle vier Nachbarzellen hat, nicht nur eine. Meine Lösung berücksichtigt diese wichtige Nuance nicht. Ich habe die Aufgabenstellung falsch interpretiert und einen Beweis auf der Grundlage einer falschen Annahme erstellt.“
ChatGPT bezeichnet sich selbst als Sprachnetz, aber bei mathematischen Problemen fällt es ihm leichter, mit Zahlen zu arbeiten als mit textuellen logischen Konstrukten. Das ist wahrscheinlich der Grund, warum der IBM-Supercomputer Deep Blue 1997 tatsächlich den Weltmeistertitel im Schach gewann, während ChatGPT im Hinblick auf die Bewertungsmethodik des PISA-Tests (internationales Programm zur Bewertung der Bildungsleistungen von Schülern) immer noch ein sehr gewöhnliches Niveau der Lesekompetenz aufweist.
Der Chatbot selbst nennt Mathe als eines der akademischen Fächer, in denen er am effektivsten ist. Zusammen mit Fremdsprachen, Literatur (er berichtet, dass er Informationen über Schriftsteller und ihre Werke liefern und bei der Textanalyse helfen kann), Geschichte (Chronologie von Ereignissen und Hilfe bei der Interpretation historischer Quellen) und Geografie.
Selbstkritisch gibt sich ChatGPT nur in den Fächern Sport, Musik, Zeichnen und Naturwissenschaften, und das auch nur, weil letztere Laborexperimente beinhalten. Die KI ist selbstbewusst und gibt leicht Fehler zu. Paradoxerweise ist sie in Nicht-Standard-Situationen besser in Ethik als in Logik.