Chaleureux et convivial ou compétent et simple ? Ce que les étudiants attendent des chatbots IA en classe

L’intelligence artificielle (IA) transforme rapidement l’éducation, les écoles et les universités expérimentant de plus en plus Des chatbots IA pour aider les étudiants dans l’apprentissage autodirigé.

Ces assistants numériques offrent un retour immédiat, répondent aux questions et guident les étudiants à travers du matériel complexe. Pour les enseignants, les chatbots peuvent réduire leur charge de travail en les aidant à fournir des commentaires évolutifs et personnalisés aux étudiants.

Mais qu’est-ce qui fait un assistant pédagogique en IA efficace ? Doit-il être chaleureux et amical ou professionnel et compétent ? Quels sont les pièges potentiels liés à l’intégration d’une telle technologie en classe ?

Nos recherches en cours explorent les préférences des étudiants, mettant en évidence les avantages et les défis de l’utilisation des chatbots IA dans l’éducation.

Chaleureux ou compétent ?

Nous avons développé deux chatbots IA : John et Jack. Les deux chatbots ont été conçus pour aider les étudiants universitaires dans des tâches d’apprentissage autonomes, mais différaient par leurs personnalités et leurs styles d’interaction.

John, le chatbot « chaleureux », présentait un visage amical et une tenue décontractée. Son style de communication était encourageant et empathique, utilisant des expressions telles que « parfait ! » et « de grands progrès ! Continuez comme ça ! ».

Lorsque les élèves rencontraient des difficultés, John répondait avec soutien : « On dirait que cette partie pourrait être délicate. Je suis là pour vous aider ! Son attitude visait à créer un environnement d’apprentissage confortable et accessible.

Jack, le chatbot « compétent », avait une apparence autoritaire avec une tenue professionnelle formelle. Ses réponses étaient claires et directes, comme « correct » ou « bien ! C’est exactement ce que je cherchais ».

Lorsqu’il a identifié les problèmes, il a été direct : « Je vois ici quelques problèmes. Identifions les domaines où cela peut être amélioré. » Le personnage de Jack était destiné à transmettre professionnalisme et efficacité.

Nous avons présenté les chatbots aux étudiants universitaires lors de leurs activités d’apprentissage autodirigées. Nous avons ensuite collecté des données au moyen d’enquêtes et d’entretiens sur leurs expériences.

Préférences distinctes

Nous avons constaté des préférences distinctes parmi les étudiants. Les personnes issues de l’ingénierie avaient tendance à préférer l’approche directe et concise de Jack. Un étudiant en ingénierie a commenté :

Jack se sentait comme quelqu’un que je pouvais prendre plus au sérieux. Il a également souligné quelques éléments supplémentaires que John n’avait pas mentionnés lorsqu’on lui a posé la même question.

Cela suggère un style d’interaction professionnel et efficace qui trouve un écho auprès des étudiants qui apprécient la précision et la franchise dans leurs études.

D’autres étudiants ont apprécié l’attitude amicale et les explications approfondies de John. Ils ont trouvé son style accessible utile, en particulier lorsqu’ils étaient aux prises avec des concepts complexes. Un étudiant a noté :

« Les commentaires encourageants de John m’ont permis d’explorer plus à l’aise des sujets difficiles. »

Il est intéressant de noter que certains étudiants souhaitaient un équilibre entre les deux styles. Ils appréciaient l’empathie de John mais appréciaient également l’efficacité de Jack.

Les faiblesses de Jack et John

Bien que de nombreux étudiants aient trouvé les chatbots IA utiles, plusieurs préoccupations et faiblesses potentielles ont été soulignées. Certains ont estimé que les chatbots fournissaient parfois des réponses superficielles et manquant de profondeur. Comme l’a fait remarquer un étudiant :

« Parfois, les réponses semblaient génériques et ne répondaient pas pleinement à ma question. »

Il existe également un risque que les étudiants deviennent trop dépendants de l’aide de l’IA, ce qui pourrait entraver le développement de la pensée critique et des compétences en résolution de problèmes. Un étudiant a admis :

« Je crains que le fait d’avoir toujours des réponses instantanées me rende moins enclin à comprendre les choses par moi-même. »

Les chatbots ont également parfois eu du mal à comprendre le contexte ou les nuances de questions complexes. Un étudiant a noté :

« Lorsque j’ai posé des questions sur une étude de cas spécifique, le chatbot n’a pas pu en saisir les subtilités et a donné une réponse large. »

Cela a mis en évidence les défis de l’IA dans l’interprétation d’un langage humain complexe et de contenus spécialisés.

Des préoccupations en matière de confidentialité et de sécurité des données ont également été soulevées. Certains étudiants étaient inquiets des données collectées lors des interactions.

De plus, les biais potentiels dans les réponses de l’IA constituaient une préoccupation majeure. Étant donné que les systèmes d’IA apprennent à partir des données existantes, ils peuvent perpétuer par inadvertance les préjugés présents dans leur matériel de formation.

Découvrez les dernières nouveautés en matière de science, de technologie et d’espace avec plus de 100 000 abonnés qui comptent sur Phys.org pour des informations quotidiennes. Inscrivez-vous à notre bulletin d’information gratuit et obtenez des mises à jour sur les percées, les innovations et les recherches qui comptent :quotidiennement ou hebdomadairement.

Des salles de classe pérennes

Les résultats soulignent la nécessité d’une approche équilibrée pour intégrer l’IA dans l’éducation. Offrir aux étudiants des options pour personnaliser le personnage de leur assistant IA pourrait répondre à diverses préférences et styles d’apprentissage. Il est également essentiel d’améliorer la capacité de l’IA à comprendre le contexte et à fournir des réponses plus approfondies et plus nuancées.

La surveillance humaine reste cruciale. Les enseignants doivent continuer à jouer un rôle central, en guidant les élèves et en s’attaquant aux domaines dans lesquels l’IA fait défaut. L’IA doit être considérée comme un outil destiné à augmenter, et non à remplacer, les éducateurs humains. En collaborant avec l’IA, les enseignants peuvent se concentrer sur la promotion de la pensée critique et de la créativité, compétences que l’IA ne peut pas reproduire.

Un autre aspect essentiel concerne la protection de la vie privée et les préjugés. Les institutions doivent mettre en œuvre des politiques solides en matière de confidentialité des données et auditer régulièrement les systèmes d’IA pour minimiser les préjugés et garantir une utilisation éthique.

Une communication transparente sur la manière dont les données sont utilisées et protégées peut apaiser les inquiétudes des étudiants.

Les nuances de l’IA dans les salles de classe

Notre étude est en cours et nous prévoyons de l’étendre pour inclure davantage d’étudiants de différents cours et niveaux d’enseignement. Cette portée plus large nous aidera à mieux comprendre les nuances des interactions des étudiants avec les assistants pédagogiques en IA.

En reconnaissant à la fois les forces et les faiblesses des chatbots IA, nous visons à éclairer le développement d’outils qui améliorent les résultats d’apprentissage tout en répondant aux défis potentiels.

Les enseignements de cette recherche pourraient avoir un impact significatif sur la façon dont les universités conçoivent et mettent en œuvre des assistants pédagogiques en IA à l’avenir.

En adaptant les outils d’IA pour répondre aux divers besoins des étudiants et en abordant les problèmes identifiés, les établissements d’enseignement peuvent tirer parti de l’IA pour créer des expériences d’apprentissage plus personnalisées et plus efficaces.

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lire le article original.

ph-tech