71 % du personnel universitaire australien utilise l’IA. À quoi servent-ils ? Et ceux qui ne le sont pas ?

par Stephen Hay, Abby Cathcart, Alicia Feldman et Paula McDonald,

Depuis la sortie de ChatGPT fin 2022, de nombreuses spéculations ont eu lieu sur l’impact réel et potentiel de l’IA générative sur les universités.

Certaines études se sont concentrées sur l’utilisation de l’IA par les étudiants. Des recherches ont également été menées sur ce que cela signifie pour enseignement et évaluation.

Mais aucune recherche à grande échelle n’a été menée sur la manière dont le personnel universitaire australien utilise l’IA dans son travail.

Notre nouvelle étude a interrogé plus de 3 000 membres du personnel universitaire et professionnel des universités australiennes sur la manière dont ils utilisent l’IA générative.

Notre étude

Notre enquête a porté sur 3 421 membres du personnel universitaire, provenant pour la plupart de 17 universités d’Australie.

Il comprenait des universitaires, des universitaires de session (qui sont employés session par session) et du personnel professionnel. Il comprenait également du personnel auxiliaire (postes universitaires honoraires) et des cadres supérieurs occupant des postes de direction.

Le personnel universitaire représentait un large éventail de disciplines, notamment la santé, l’éducation, les sciences naturelles et physiques, ainsi que la société et la culture. Le personnel professionnel a occupé des postes tels que le soutien à la recherche, les services aux étudiants et le marketing.

L’âge moyen des répondants était de 44,8 ans et plus de la moitié de l’échantillon était des femmes (60,5 %).

L’enquête a été ouverte en ligne pendant environ huit semaines en 2024.

La plupart du personnel universitaire utilise l’IA

Dans l’ensemble, 71 % des personnes interrogées ont déclaré avoir utilisé l’IA générative pour leurs travaux universitaires.

Le personnel académique était plus susceptible d’utiliser l’IA (75 %) que le personnel professionnel (69 %) ou le personnel de session (62 %). Les cadres supérieurs étaient les plus susceptibles d’utiliser l’IA (81 %).

Parmi le personnel universitaire, ceux des technologies de l’information, de l’ingénierie, de la gestion et du commerce étaient les plus susceptibles d’utiliser l’IA. Ceux qui étudient l’agriculture et l’environnement, ainsi que les sciences naturelles et physiques, sont les moins susceptibles de l’utiliser.

Le personnel professionnel du développement des affaires et du soutien à l’apprentissage et à l’enseignement était le plus susceptible de déclarer utiliser l’IA. Ceux qui travaillent dans les domaines de la finance et des achats, ainsi que dans les domaines juridique et de la conformité, sont les moins susceptibles d’utiliser l’IA.

Compte tenu de l’ampleur de la publicité et des débats autour de l’IA au cours des deux dernières années, le fait que près de 30 % du personnel universitaire n’ait pas utilisé l’IA suggère que son adoption en est encore à ses débuts.

Quels outils le personnel utilise-t-il ?

Il a été demandé aux répondants à l’enquête quels outils d’IA ils avaient utilisés au cours de l’année précédente. Ils ont déclaré avoir utilisé 216 outils d’IA différents, soit bien plus que prévu.

Environ un tiers de ceux qui utilisent l’IA n’ont utilisé qu’un seul outil, et un autre quart en ont utilisé deux. Un petit nombre d’employés (environ 4 %) avaient utilisé dix outils ou plus.

Les outils d’IA généraux étaient de loin les plus fréquemment cités. Par exemple, ChatGPT a été utilisé par 88 % des utilisateurs d’IA et Microsoft Copilot par 37 %.

Le personnel universitaire utilise également couramment des outils d’IA à des fins spécifiques telles que la création d’images, le codage et le développement de logiciels, ainsi que la recherche documentaire.

Nous avons également demandé aux répondants à quelle fréquence ils utilisaient l’IA pour diverses tâches universitaires. La recherche documentaire, la rédaction et la synthèse d’informations étaient les activités les plus courantes, suivies par l’élaboration de cours, les méthodes d’enseignement et l’évaluation.

Pourquoi certains collaborateurs n’utilisent-ils pas l’IA ?

Nous avons demandé aux employés qui n’avaient pas encore utilisé l’IA dans leur travail d’expliquer leur réflexion. La raison la plus souvent invoquée était que l’IA n’était pas utile ou pertinente pour leur travail. Par exemple, un membre du personnel professionnel a déclaré : « Même si j’ai exploré quelques outils de chat (Chat GPT et CoPilot) avec des questions liées au travail, je n’ai pas encore vraiment eu besoin d’appliquer ces outils à mon travail. […] ».

D’autres ont déclaré qu’ils n’étaient pas familiers avec la technologie, qu’ils étaient incertains quant à son utilisation ou qu’ils n’avaient pas le temps de s’y intéresser. Comme nous l’a dit clairement un universitaire : « Je ne me sens pas encore assez en confiance ».

Objections éthiques à l’IA

D’autres ont soulevé des objections éthiques ou ont considéré la technologie comme peu fiable et peu fiable. Comme nous l’a dit un universitaire : « Je considère l’IA générative comme un outil de plagiat. Les utilisations à ce jour, notamment dans les industries créatives […] ont impliqué un apprentissage automatique qui utilise les œuvres créatives d’autrui sans autorisation.

Ils ont également évoqué le fait que l’IA porte atteinte aux activités humaines telles que l’écriture, la pensée critique et la créativité, qu’ils considèrent comme essentielles à leur identité professionnelle. Comme l’a dit un universitaire : « Je veux réfléchir aux choses par moi-même plutôt que d’essayer de laisser un ordinateur penser à ma place. […] ».

Un autre universitaire a fait écho : « Je crois que l’écriture et la réflexion sont fondamentales pour le travail que nous effectuons. Si nous ne le faisons pas, alors […] pourquoi avons-nous besoin d’exister en tant qu’universitaires ? »

Comment les universités devraient-elles réagir ?

Les universités se trouvent à un tournant crucial en matière d’IA générative. Ils sont confrontés à une adoption inégale de la technologie par le personnel occupant différents rôles et à des opinions partagées sur la manière dont les universités devraient réagir.

Ces différents points de vue suggèrent que les universités doivent avoir une réponse équilibrée à l’IA qui réponde à la fois aux avantages et aux préoccupations liées à cette technologie.

Malgré des opinions divergentes dans notre enquête, les répondants s’accordent toujours sur le fait que les universités doivent élaborer des politiques et des lignes directrices claires et cohérentes pour aider le personnel à utiliser l’IA. Le personnel a également déclaré qu’il était crucial que les universités accordent la priorité à la formation du personnel et investissent dans des outils d’IA sécurisés.

Fourni par La conversation

Cet article est republié à partir de La conversation sous licence Creative Commons. Lire le article original.

ph-tech