Herzlich und freundlich oder kompetent und unkompliziert? Was Schüler von KI-Chatbots im Klassenzimmer erwarten

Künstliche Intelligenz (KI) verändert die Bildung rasant und Schulen und Universitäten experimentieren zunehmend damit KI-Chatbots zur Unterstützung von Studierenden beim selbstgesteuerten Lernen.

Diese digitalen Assistenten bieten sofortiges Feedback, beantworten Fragen und führen Studierende durch komplexe Inhalte. Für Lehrer können die Chatbots ihre Arbeitsbelastung reduzieren, indem sie ihnen helfen, den Schülern skalierbares und personalisiertes Feedback zu geben.

Aber was macht einen effektiven KI-Lehrassistenten aus? Soll es herzlich und freundlich oder professionell und kompetent sein? Was sind die potenziellen Fallstricke bei der Integration einer solchen Technologie in den Unterricht?

Unsere laufende Forschung untersucht die Präferenzen von Schülern und hebt die Vorteile und Herausforderungen des Einsatzes von KI-Chatbots im Bildungsbereich hervor.

Herzlich oder kompetent?

Wir haben zwei KI-Chatbots entwickelt – John und Jack. Beide Chatbots wurden entwickelt, um Universitätsstudenten bei selbstgesteuerten Lernaufgaben zu unterstützen, unterschieden sich jedoch in ihren Personas und Interaktionsstilen.

John, der „warmherzige“ Chatbot, hatte ein freundliches Gesicht und lässige Kleidung. Sein Kommunikationsstil war ermutigend und einfühlsam und er verwendete Phrasen wie „genau richtig!“ und „Tolle Fortschritte! Weiter so!“

Als Schüler auf Schwierigkeiten stießen, antwortete John unterstützend: „Es sieht so aus, als ob dieser Teil knifflig werden könnte. Ich bin hier, um zu helfen!“ Sein Auftreten zielte darauf ab, eine angenehme und zugängliche Lernumgebung zu schaffen.

Jack, der „kompetente“ Chatbot, hatte mit seiner formellen Geschäftskleidung einen verbindlichen Auftritt. Seine Antworten waren klar und direkt, wie zum Beispiel „richtig“ oder „gut! Das ist genau das, wonach ich gesucht habe.“

Als er Probleme identifizierte, war er direkt: „Ich sehe hier einige Probleme. Lassen Sie uns herausfinden, wo es verbessert werden kann.“ Jacks Persönlichkeit sollte Professionalität und Effizienz vermitteln.

Wir haben die Chatbots Universitätsstudenten während ihrer selbstgesteuerten Lernaktivitäten vorgestellt. Anschließend haben wir durch Umfragen und Interviews Daten über ihre Erfahrungen gesammelt.

Ausgeprägte Vorlieben

Wir stellten fest, dass es unter den Studierenden unterschiedliche Präferenzen gab. Diejenigen mit technischem Hintergrund neigten dazu, Jacks unkomplizierte und prägnante Herangehensweise zu bevorzugen. Ein Ingenieurstudent kommentierte:

Jack fühlte sich wie jemand, den ich ernster nehmen konnte. Er wies auch auf ein paar zusätzliche Dinge hin, die John nicht erwähnt hatte, als ihm dieselbe Frage gestellt wurde.

Dies deutet auf einen professionellen und effizienten Interaktionsstil hin, der bei Studierenden Anklang findet, die in ihrem Studium Wert auf Präzision und Direktheit legen.

Andere Studenten schätzten Johns freundliches Auftreten und seine ausführlichen Erklärungen. Sie fanden seinen zugänglichen Stil hilfreich, insbesondere bei der Auseinandersetzung mit komplexen Konzepten. Ein Student bemerkte:

„Johns ermutigendes Feedback hat mir das Gefühl gegeben, schwierige Themen besser zu erkunden.“

Interessanterweise wünschten sich einige Studenten eine Balance zwischen den beiden Stilen. Sie schätzten Johns Einfühlungsvermögen, schätzten aber auch Jacks Effizienz.

Die Schwächen von Jack und John

Während viele Studierende die KI-Chatbots hilfreich fanden, wurden mehrere Bedenken und potenzielle Schwächen hervorgehoben. Einige waren der Meinung, dass die Chatbots gelegentlich oberflächliche Antworten lieferten, denen es an Tiefe mangelte. Wie ein Student bemerkte:

„Manchmal wirkten die Antworten allgemein gehalten und gingen nicht vollständig auf meine Frage ein.“

Es besteht auch die Gefahr, dass Studierende zu sehr auf KI-Unterstützung angewiesen werden, was möglicherweise die Entwicklung von kritischem Denken und Problemlösungsfähigkeiten behindert. Ein Student hat zugelassen:

„Ich mache mir Sorgen, dass ich weniger geneigt bin, Dinge selbst herauszufinden, wenn ich immer sofort Antworten bekomme.“

Manchmal hatten die Chatbots auch Schwierigkeiten, den Kontext oder die Nuancen komplexer Fragen zu verstehen. Ein Student bemerkte:

„Als ich nach einer konkreten Fallstudie fragte, konnte der Chatbot die Feinheiten nicht erfassen und gab eine breite Antwort.“

Dies verdeutlichte die Herausforderungen der KI bei der Interpretation komplexer menschlicher Sprache und spezieller Inhalte.

Es wurden auch Bedenken hinsichtlich des Datenschutzes und der Datensicherheit geäußert. Einige Schüler waren besorgt über die während der Interaktionen gesammelten Daten.

Darüber hinaus gaben mögliche Verzerrungen bei den KI-Reaktionen Anlass zu großer Sorge. Da KI-Systeme aus vorhandenen Daten lernen, können sie unbeabsichtigt Vorurteile in ihrem Trainingsmaterial aufrechterhalten.

Entdecken Sie mit over das Neueste aus Wissenschaft, Technik und Raumfahrt 100.000 Abonnenten die sich für tägliche Einblicke auf Phys.org verlassen. Melden Sie sich für unsere an kostenloser Newsletter und erhalten Sie Updates zu Durchbrüchen, Innovationen und wichtigen Forschungsergebnissen –täglich oder wöchentlich.

Zukunftssichere Klassenzimmer

Die Ergebnisse unterstreichen die Notwendigkeit eines ausgewogenen Ansatzes bei der Integration von KI in die Bildung. Wenn man den Schülern die Möglichkeit bietet, die Persönlichkeit ihres KI-Assistenten individuell anzupassen, könnte dies auf unterschiedliche Vorlieben und Lernstile eingehen. Es ist auch wichtig, die Fähigkeit der KI zu verbessern, den Kontext zu verstehen und tiefergehende, differenziertere Antworten zu geben.

Die menschliche Aufsicht bleibt von entscheidender Bedeutung. Lehrer sollten weiterhin eine zentrale Rolle spielen, indem sie Schüler anleiten und Bereiche angehen, in denen KI unzureichend ist. KI sollte als Werkzeug gesehen werden, um menschliche Pädagogen zu unterstützen und nicht zu ersetzen. Durch die Zusammenarbeit mit KI können sich Pädagogen auf die Förderung von kritischem Denken und Kreativität konzentrieren, Fähigkeiten, die KI nicht reproduzieren kann.

Ein weiterer wichtiger Aspekt ist der Umgang mit Privatsphäre und Voreingenommenheit. Institutionen müssen strenge Datenschutzrichtlinien umsetzen und KI-Systeme regelmäßig überprüfen, um Vorurteile zu minimieren und eine ethische Nutzung sicherzustellen.

Eine transparente Kommunikation darüber, wie Daten verwendet und geschützt werden, kann die Bedenken der Studierenden zerstreuen.

Die Nuancen der KI im Klassenzimmer

Unsere Studie ist noch nicht abgeschlossen und wir planen, sie auszuweiten, um mehr Studierende aus verschiedenen Kursen und Bildungsniveaus einzubeziehen. Dieser breitere Anwendungsbereich wird uns helfen, die Nuancen der Interaktionen zwischen Schülern und KI-Lehrassistenten besser zu verstehen.

Indem wir sowohl die Stärken als auch die Schwächen von KI-Chatbots anerkennen, wollen wir die Entwicklung von Tools unterstützen, die die Lernergebnisse verbessern und gleichzeitig potenzielle Herausforderungen angehen.

Die Erkenntnisse aus dieser Forschung könnten erheblichen Einfluss darauf haben, wie Universitäten künftig KI-Lehrassistenten entwerfen und implementieren.

Durch die Anpassung von KI-Tools an die unterschiedlichen Bedürfnisse der Schüler und die Lösung der identifizierten Probleme können Bildungseinrichtungen KI nutzen, um personalisiertere und effektivere Lernerfahrungen zu schaffen.

Bereitgestellt von The Conversation

Dieser Artikel wurde erneut veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.

ph-tech