OpenAI zielt darauf ab, ChatGPT in Klassenzimmern mit speziellen Aufforderungen für Lehrer einzuführen

OpenAI möchte seinen Konversations-KI-Agenten ChatGPT überall haben, auch in Klassenzimmern – trotz des dortigen immensen Potenzials für Missbrauch und Verwirrung. Das Unternehmen hat den Stier bei den Hörnern gepackt schlug einige Möglichkeiten für Lehrer vor, das System zu nutzen… außerhalb seiner üblichen Rolle als „wissenschaftlicher Mitarbeiter“ für zögernde Studierende.

Der Chatbot ist wegen des zweifelhaften Anwendungsfalls unbekannter Verbreitung umstritten: Plagiat. Lehrer auf der ganzen Welt haben Schüler dabei erwischt oder verdächtigt, dass sie ihre Aufsätze von ChatGPT schreiben ließen oder es für die Beantwortung von Quizfragen zum Mitnehmen nutzten. Abhängig von Ihrer Meinung zu den Unterrichtsmethoden kann dies als Betrug, Fairplay oder etwas dazwischen angesehen werden, aber es macht den Unterrichtsplänen auf der ganzen Welt definitiv einen Strich durch die Rechnung.

Offensichtlich möchte OpenAI das Image des Systems ein wenig aufpolieren, wenn es um Bildung geht, und bietet daher eine Auswahl an, ehrlich gesagt, ziemlich überzeugenden Möglichkeiten, es im Klassenzimmer einzusetzen.

ChatGPT kann beispielsweise verwendet werden, um Sprachenlernenden (insbesondere Englisch) dabei zu helfen, klar und korrekt zu übersetzen und zu schreiben. Das System trifft seine Fakten vielleicht nicht immer richtig, aber dank einer weitgehend korrekten Schreibweise ist es auch während der Halluzination grammatikalisch korrekt. Ich habe das schon einmal von Leuten gehört, die keine Englisch-Muttersprachler sind, und es gibt keinen Grund zu der Annahme, dass es für einen Fünftklässler nicht genauso nützlich wäre wie für einen Erwachsenen.

OpenAI wiederholt auch die Aussage von Experten (es ist sorgfältig, dies in den Kontext zu stellen, in dem Pädagogen diese Vorschläge selbst machen), dass es bei der Formulierung neuer Testfragen oder beim Rollenspiel als Vorstellungsgesprächspartner hilfreich sein könnte.

Der vielleicht relevanteste Vorschlag von Geetha Venugopal aus Chennai, Indien, besteht darin, Kindern beizubringen, dass sie nicht allem vertrauen sollten, was ein Computer ihnen ausspuckt:

In ihrem Unterricht rät sie den Schülern, sich daran zu erinnern, dass die Antworten, die ChatGPT gibt, möglicherweise nicht immer glaubwürdig und genau sind, und kritisch darüber nachzudenken, ob sie der Antwort vertrauen sollten, und die Informationen dann durch andere primäre Ressourcen zu bestätigen. Das Ziel besteht darin, ihnen zu helfen, „zu verstehen, wie wichtig es ist, ständig an ihrem ursprünglichen kritischen Denken, ihren Fähigkeiten zur Problemlösung und ihrer Kreativität zu arbeiten“.

Wenn diese Kinder das lernen können, werden sie das tun, was der halbe Planet nicht kann!

Bemerkenswert ist, dass sich in einer FAQ die erste (und sicherlich am häufigsten gestellte) Frage um Folgendes dreht Erkennen von KI-generierten Inhalten, die als eigene Arbeit des Schülers präsentiert werden.

Man muss OpenAI zugutehalten, dass wir kein Blatt vor den Mund nehmen:

Funktionieren KI-Detektoren?

Kurz gesagt, nein. Während einige (einschließlich OpenAI) Tools veröffentlicht haben, die vorgeben, KI-generierte Inhalte zu erkennen, hat keines davon nachweislich zuverlässig zwischen KI-generierten und von Menschen generierten Inhalten unterscheiden können.

Sie warnen davor, ChatGPT oder anderen Systemen Fragen zu stellen wie „Haben Sie das geschrieben?“ als völlige Fehlkonstruktion dessen, was das Modell tatsächlich tut. Und sie geben zu, dass „kleine Änderungen“ ausreichen, um einer Entdeckung zu entgehen. Als würde man den Teil „Als KI, ich…“ entfernen, den die faulsten Plagiatoren nicht bemerken.

OpenAI empfiehlt, dass Studierende ihre Arbeiten und Entwürfe zeigen, einschließlich Gesprächen mit KI-Modellen, und zeigen, dass sie nicht einfach nach Antworten fragen und ihnen blind vertrauen. (Wenn sie in der Klasse von M. Venugopal wären, würden sie das wissen.)

Das Unternehmen fügt hilfreicherweise auch einige ausführliche Hinweise hinzu, um ChatGPT in die Rolle eines Tutors oder Assistenten zu versetzen: „Sie sind ein freundlicher und hilfsbereiter Lehrcoach, der Lehrern bei der Planung einer Unterrichtsstunde hilft“ und so weiter. Auch wenn Pädagogen diese möglicherweise nicht sofort nutzen möchten, vermittelt das bloße Lesen einen Hinweis darauf, welche Art von Anleitung der Agent benötigt, um hilfreich zu sein, was jedoch nicht der Fall ist zu hilfreich.

Es ist sicher, dass KI-Agenten wie ChatGPT in Zukunft ein fester Bestandteil der Bildung sein werden, auch wenn leider große Missbrauchsmöglichkeiten bestehen. Aber wer kann schon sagen, dass er keine Spiele auf seinem Grafikrechner TI-83 installiert oder seinen Bericht über Napoleon im Großhandel von Encarta kopiert hat? Nun ja, wahrscheinlich eine ganze Menge junge Leute. Aber obwohl ich mit mir selbst ausgehe, sind die Parallelen klar. Schüler und Lehrer werden sich anpassen – aber nur, wenn sie die Werkzeuge annehmen und zu ihren eigenen machen.

tch-1-tech