Forscher warnen vor Gefahren und fordern eine Pause bei der Einführung von KI in Schulen

In K-12-Schulen im ganzen Land ist eine Art neuer Goldrausch im Gange: Klassenzimmer im ganzen Land wetteifern darum, die neuesten Tools für künstliche Intelligenz, wie zum Beispiel Plattformen, die auf dem Chat-Bot ChatGPT basieren, in die Klassenzimmer zu bringen.

Alex Molnar, Direktor des National Education Policy Center (NEPC) an der CU Boulder, sieht in dieser Eile, KI in Schulen einzuführen, eine Gefahr. Diese Plattformen, sagte er, verwenden undurchsichtige und meist proprietäre Algorithmen, was ihr Innenleben für Pädagogen, Eltern und Schüler gleichermaßen rätselhaft macht.

„Was Sie haben, ist eine Tasche voller Versprechen, die die KI wie versprochen halten wird“, sagte Molnar, ein Forschungsprofessor an der School of Education. „Das Problem ist, dass es derzeit keine Möglichkeit gibt, die erhobenen Ansprüche unabhängig zu bewerten.“

In einem neuen Bericht beleuchten Molnar und seine Kollegen die potenziellen Fallstricke von KI im Bildungs- und Bildungswesen Ruf nach einer unbestimmten „Pause“ bei der Integration von KI in das K-12-Lernen. Zu den Co-Autoren gehörten Ben Williamson von der University of Edinburgh im Vereinigten Königreich und Faith Boninger, Assistenzprofessorin für Pädagogik an der CU Boulder.

Molnar erläutert, warum KI ein riskantes Spiel für die Bildung ist – und was besorgte Eltern und andere tun können, um sich zu engagieren.

Stellt die neue Technologie Risiken für die K-12-Bildung dar?

Bereits vor der weit verbreiteten Einführung künstlicher Intelligenz gab es im Zusammenhang mit der Nutzung digitaler Plattformen in Schulen vielfältige Probleme.

Daten von Studierenden sind oft nicht ausreichend geschützt. Es gab beispielsweise alle möglichen Leaks von Drittanbietern, und es gibt weder ein Gesetz noch eine wirksame Richtlinie, die sie zur Verantwortung zieht. Außerdem werden in den Schulen sehr viele Betatests durchgeführt. Marketingaussagen klingen gut, doch digitale Plattformen liefern oft nicht die versprochenen Ergebnisse und sind voller technischer Probleme.

Digitale Technologien haben es schwierig oder unmöglich gemacht, grundlegende Fragen zu beantworten, wie zum Beispiel: Wer entscheidet über die Lehrplaninhalte, die in diese Plattformen integriert werden? Wer bewertet ihre Arbeit?

Könnte KI diese Probleme verschlimmern?

Alle Probleme im Zusammenhang mit digitalen Technologien werden tendenziell durch künstliche Intelligenz verstärkt.

Die sogenannte KI nutzt Algorithmen und enorme Rechenleistung, um auf der Grundlage unzähliger Wahrscheinlichkeitsberechnungen Ergebnisse zu erzielen. Wie groß ist beispielsweise die Wahrscheinlichkeit, dass das nächste Wort in einer Sequenz „Saft“ ist? Diese Berechnungen ergeben weder „Wahrheit“ noch notwendigerweise Genauigkeit. Sie erzeugen eine probabilistische Ausgabe.

Derzeit liegen die Konstruktion und der Betrieb von KI-Algorithmen weitgehend außerhalb der Öffentlichkeit und unterliegen keiner öffentlichen Rechenschaftspflicht. Nichtsdestotrotz werden Schulleute sowohl von Marketingfachleuten als auch von staatlichen Stellen dazu gedrängt, als Vorreiter dieser angeblichen digitalen Revolution wahrgenommen zu werden, indem sie immer mehr Schulprozesse an Technologen überlassen, die kaum oder gar keine Kenntnisse über Pädagogik oder Schullehrpläne haben.

Viele Leute nennen KI-Tools eine „Black Box“. Was bedeutet das?

Um eine altmodische Erklärung zu verwenden: Stellen Sie sich vor, Sie sagten: „Ich würde gerne das Geographielehrbuch meines Kindes sehen.“ Sie könnten sagen: „Ich habe hier einige Probleme.“ Sie könnten mit jemandem darüber sprechen, mit jemandem, der diese Probleme möglicherweise erklären könnte. Aber mit KI ist das nicht möglich.

Sie können nicht hineingehen und zum Beispiel sagen: „Wie hat die Bewertung hier funktioniert?“ Die Antwort wäre: „Nun, wir wissen es nicht.“ „Woher wissen wir, dass dieser Inhalt korrekt ist?“ „Nun, das wissen wir auch nicht.“

Besteht also die Sorge, dass KI anstelle von Erziehern oder Eltern Entscheidungen treffen könnte?

Mithilfe von KI können Sie feststellen, ob ein Kind betrogen hat. Sie verwenden es, um zu bestimmen, ob ein Kind an diesem oder jenem Programm teilnehmen soll oder nicht. Sie können die KI nutzen, um über alle möglichen Dinge über ein Kind zu entscheiden, und das Kind wird mit wenig oder gar keinen Rückgriffsmöglichkeiten eingesperrt.

Eltern können sich beschweren, so viel sie wollen. Sie können immer noch nicht die Informationen über die Entscheidungsgrundlagen erhalten, die von der KI getroffen werden, weil sie dem Auftraggeber nicht vorliegen. Der Lehrer hat es nicht. Der Superintendent hat es nicht. Es wird von einem privaten Anbieter hinter einem proprietären Vorhang versteckt.

Sie plädieren für eine „Pause“ beim Einsatz von KI in Schulen. Wie würde das aussehen?

Die Lösung bestünde darin, dass die gesetzgebenden Körperschaften der Bundesstaaten per Gesetz im Wesentlichen sagen: Öffentliche Schulen in diesem Bundesstaat dürfen keine Programme für künstliche Intelligenz einführen, es sei denn und bis diese Programme von dieser staatlichen Stelle zertifiziert werden – sie müssten die Stelle gründen. Sie hat diese Programme überprüft. Darin heißt es, dass die Verwendung sicher sei, und es definiert, welche Verwendungszwecke das Programm für wen geeignet ist.

Mit anderen Worten: In den Schulen geht nichts, bis wir über den gesetzlichen und regulatorischen Rahmen und die institutionellen Kapazitäten verfügen, um KI-Plattformen, die für den Schulgebrauch vorgeschlagen werden, unabhängig zu bewerten.

Was können Eltern oder andere Personen, die über dieses Problem besorgt sind, tun?

Fordern Sie, dass Ihre Vertreter diese Probleme ernst nehmen – zunächst einmal, indem sie gesetzlich eine Pause bei der Einführung von KI in Schulen verhängen. Zeitraum. Dann können sie ihre Vertreter bitten, eine staatliche Einrichtung zu schaffen, die den Einsatz von KI in Schulen regeln soll.

Das ist ein politisches Problem. Dies ist kein technisches Problem.

Wir haben eine lange Geschichte von Technologieunternehmen, die sich nicht an ihre eigenen Regeln halten, die selbst lächerlich unzureichend sind. Für jeden, der ernsthaft darüber nachdenkt, wie man KI in der Bildung verantwortungsvoll einsetzen kann: Wenn er nicht über politisches Handeln spricht, dann redet er nicht wirklich. Die Technologen werden uns nicht retten.

Mehr Informationen:
Williamson, B., Molnar, A. & Boninger, F. (2024). Zeit für eine Pause: Ohne wirksame öffentliche Aufsicht wird KI in Schulen mehr schaden als nützen. Boulder, CO: Nationales Zentrum für Bildungspolitik. nepc.colorado.edu/publication/ai

Zur Verfügung gestellt von der University of Colorado in Boulder

ph-tech