KI-Tutoren könnten in Zukunft in die Klassenzimmer kommen – aber wer hat den Tutor unterrichtet und kann man ihm vertrauen?

Die Regierung hat kürzlich angekündigt, den Einsatz künstlicher Intelligenz (KI) in Neuseelands Klassenzimmern auszuweiten. Da sich die Technologie jedoch schnell ändert, ist unklar, wie dies funktionieren soll oder was es für Lehrer und Schüler bedeuten wird.

Die Vision von Wissenschaftsministerin Judith Collins ist, dass jeder Schüler seinen eigenen KI-Tutor hat. Wie Collins in einem aktuelles Interview„Anstatt also reich genug zu sein, um einen Nachhilfelehrer zu engagieren, der den Kindern bei Mathe- oder Naturwissenschaftsfragen oder etwas anderem hilft, wovon die Eltern vielleicht nicht viel wissen, sollte man dem Kind ermöglichen, seine eigene [AI] Tutor.“

Aber wie die KI selbst ist auch das Konzept eines KI-Tutors noch in der Entwicklung. Die Idee, einen „Lehrmaschine“ gibt es seit etwa 100 Jahren, und „intelligente Nachhilfesysteme“ gibt es seit den 1980er Jahren mit begrenzten Ergebnissen.

Die jüngsten Fortschritte der KI haben die trügerischen Versprechen dieser Systeme wiederbelebt. Doch während sich die Technologie weiterentwickelt hat, ist das Grundkonzept, dass eine Maschine einen Teil der Aufgaben des Lehrers übernimmt, gleich geblieben.

Das Risiko, menschliche Tutoren zu ersetzen

Ein KI-Tutor ist ein Stellvertreter für einen menschlichen Tutor – er unterstützt und „stützt“ den Lernprozess eines Schülers. Stützt den Lernprozess zwischen dem, was ein Lernender ohne Hilfe tun kann, und dem, was er als Nächstes mit der Unterstützung einer Person lernen kann, die mehr weiß.

Theoretisch kann ein KI-Tutor diese Rolle übernehmen. Doch damit sind auch Gefahren verbunden. Was, wenn Ihr sachkundigerer Tutor in Wirklichkeit gar nicht mehr weiß, sondern sich Dinge ausdenkt? Oder voreingenommen ist? Oder unkritisches, oberflächliches Material zuverlässigeren Quellen vorzieht?

Die Funktionen, die geben Generative KI Ihre Fähigkeit, mit Benutzern zu interagieren, schafft auch ihre Schwächen. KI ist auf die Daten angewiesen, mit denen sie trainiert wird. Dies Daten können falsch seinund die KI validiert weder, was in sie hineingeht, noch was herauskommt.

Dieses Problem wurde Bedenken hinsichtlich der Fairness geäußert. Da KI-Tools große Mengen ungefilterter Daten verarbeiten, besteht die Gefahr, dass sie bestehende Vorurteile in diesen Daten, wodurch Geschlechterstereotype und andere negative Folgen aufrechterhalten werden.

Für Menschen aus indigenen Kulturen, darunter Māori und pazifische Völker, bietet KI sowohl Chancen als auch Bedrohungen.

Wenn KI-Systeme mit verzerrten Daten oder ohne Berücksichtigung unterschiedlicher Perspektiven trainiert werden, ist die Wahrscheinlichkeit hoch, dass die auf diesen Systemen basierenden Entscheidungen eine Gruppe gegenüber anderen bevorzugen, Stereotypen verstärken und unterschiedliche Lebens- und Denkweisen ignorieren oder unterbewerten.

Die Sorge gilt nicht nur dem Einfluss, den KI auf uns haben kann, sondern auch der Art und Weise, wie KI Daten konsumiert und verarbeitet. KI-Systeme werden anhand riesiger Datenmengen trainiert, oft ohne die Quellen richtig anzugeben oder die Urheberrechte der Urheber zu respektieren.

Für indigene Völker kann dies eine Verletzung ihrer Datenhoheitsrechte und eine Ausbeutung ihres kulturellen und Wissenserbes darstellen. Diese Ausbeutung kann Ungleichheit verewigen und die Rechte und Beiträge indigener Gemeinschaften untergraben.

Ein „Walled Garden“-Ansatz

Eine häufig vorgeschlagene Antwort auf dieses Problem besteht darin, KI-Systeme zu trainieren auf sorgfältig kuratierte Daten.

Der Buchverlag Pearson beispielsweise hat vor kurzem integrierte KI in 50 ihrer Lehrbücher. Dadurch können die Schüler KI-Chatbots nutzen, um sich mit den Texten auseinanderzusetzen.

Laut Pearson werden diese Tools mithilfe eines „ummauerter Garten„-Ansatz. Die KI wird nur anhand der Inhalte dieser Bücher trainiert. Dies, so Pearson, reduziere das Risiko von Ungenauigkeiten.

Der Walled-Garden-Ansatz hat jedoch auch erhebliche Nachteile, da er die Inhalte auf die vom Anbieter ausgewählten und freigegebenen beschränkt. Was bedeutet das für kulturelles Wissen und Rechte? Kritische Perspektiven? Innovation beim Lernen?

Pearson wurde beispielsweise für den Inhalt einiger seiner Bücher kritisiert. Im Jahr 2017 Unternehmen entschuldigte sich für ein medizinisches Lehrbuch, das als „rassistisch“ gilt.

Wenn ein neuseeländischer KI-Tutor aus lokalen Daten erstellt werden sollte, wie könnten wir sicherstellen, tikanga Māori Protokolle geschützt sind? Wie der Māori-Gelehrte Te Hurinui Clarke hervorhebt, gibt es große Herausforderungen rund um den respektvollen und ethischen Umgang mit dem Wissen der Māori.

Wissen schützen

Wenn es um KI-Tutoren geht, müssen sich politische Entscheidungsträger fragen, wer die Hüter dieser Daten sein sollen, wessen Wissen genutzt werden soll und wer Zugriffsrechte hat.

Wenn es gut gemacht wird, könnte ein Walled-Garden-Ansatz einen umfassenden, integrativen und kulturell nachhaltigen Weg zu besserem Lernen bieten. Angesichts der Herausforderungen eines solchen Unterfangens (ganz zu schweigen von den Kosten) sind die Erfolgsaussichten in der Praxis jedoch äußerst gering.

In der Zwischenzeit können wir nicht einfach auf KI-Tutoren warten. KI ist in den Schulen Realität und wir müssen die Schüler auf das vorbereiten, was sie jetzt und in Zukunft erwartet. Spezifische Tools sind wichtig, aber unser Fokus sollte auf der Entwicklung von KI-Kompetenzen im gesamten Bildungssektor liegen.

Deshalb sind wir recherchieren was es bedeutet, über KI-Kenntnisse zu verfügen und wie dies eine kritische Bewertung und ethische Nutzung ermöglichen kann, um sicherzustellen, dass KI die menschliche Lehre ergänzt und nicht ersetzt.

Wir sehen die Entwicklung der KI-Kompetenz, unterstützt durch geeignete Rahmenbedingungenals Priorität, etwas, das alle Schüler, unabhängig von ihrem Alter, haben müssen. Nur so können wir die Vorteile der KI nutzen und gleichzeitig die Grundwerte der Bildung bewahren.

Zur Verfügung gestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lesen Sie die originaler Artikel.

ph-tech