L’intelligence artificielle aspire à révolutionner le monde. Des outils de conversation comme ChatGPT d’OpenAI et Bard de Google ont apporté cette technologie au grand public. Cependant, son utilisation s’étend à des secteurs aussi larges que la santé ou la défense, d’où l’urgence de réglementer ces outils. L’Espagne participe également à cette révolution, soit par le biais de projets nationaux, soit en occupant des postes à responsabilité dans des géants multinationaux, comme le cas de Pilar Manchón, une sévillane qui dirige le domaine de la stratégie de recherche en intelligence artificielle chez Google.
Attiré il y a des années par la linguistique computationnelle, le domaine qui étudie et développe les modèles de langage naturel qui ont donné vie aux chatbots et aux assistants virtuels, est aujourd’hui l’un des grands promoteurs de l’intelligence artificielle pour le géant de l’Internet. « J’ai toujours pensé que l’intelligence artificielle avait besoin d’une approche multidisciplinaire qui nous permette d’avancer technologiquement, mais sans oublier de protéger l’essence de la nature humaine et d’en tirer des enseignements en même temps », a-t-il expliqué à EL ESPAÑOL-Omicrono.
Il y a 10 ans, Manchón a déménagé aux États-Unis, où il a été surpris de voir le faible nombre de femmes occupant des postes à responsabilité. Une sous-représentation dont souffre également la communauté hispanique, bien qu’elle soit l’une des plus importantes parmi la population du pays. « Petit à petit, nous avançons, mais il reste encore beaucoup à faire », dit-il.
En 1999, il est venu à l’Université de Stanford grâce à une bourse Fullbright. Il a fini par fonder sa propre entreprise, qu’il a vendue des années plus tard à Intel, où il a passé cinq ans à travailler. Avant de rejoindre Google, son CV comprenait également des entreprises comme Amazon ou Roku, toujours axées sur la création d’intelligence artificielle.
Forte de cette vaste expérience dans la Silicon Valley, cette Espagnole est claire sur le fait qu’en Espagne « nous péchons par excès d’humilité et pensons à l’impact local et à la croissance linéaire », même si elle lui exporterait la qualité de vie et les relations familiales avec les amis de notre pays. environnement actuel : « Il me semble qu’ils jouent un rôle plus important dans notre philosophie de vie. »
Au début de votre carrière dans ce domaine, imaginiez-vous le saut que les modèles de langage naturel ont fait jusqu’à présent ?
La vérité est que tous les chercheurs ont été pris par surprise par l’accélération de ces derniers mois. Mais, il y a quelques années, je me souviens d’avoir utilisé une analogie avec le principe du levier d’Archimède dans certains discours pour lancer la prédiction suivante : « Avec suffisamment de données et suffisamment de puissance de calcul, nous déplacerons le monde. »
Je pense que nous avons encore beaucoup à faire et à découvrir. Nous ne voyons que les premiers aperçus d’une explosion de connaissances et d’avancées technologiques comme nous n’en avons jamais connu auparavant. L’IA est un stimulant de la créativité et des capacités humaines. Au fur et à mesure que nous apprendrons à optimiser son utilisation, son impact augmentera considérablement.
L’IA est un stimulant de la créativité et des capacités humaines. Au fur et à mesure que nous apprendrons à optimiser son utilisation, son impact augmentera considérablement.
Quels objectifs l’industrie technologique doit-elle se fixer lorsqu’elle développe l’intelligence artificielle ?
Le plus important, à mon avis, est de se concentrer sur les développements à impact social et scientifique qui nous aident à évoluer vers une société plus humaine et plus sûre pour tous. Nous avons de grands défis devant nous tels que le changement climatique, la guérison des maladies ou l’accès à l’information et aux services de base dans de nombreuses régions du monde.
L’IA, plus qu’un outil, est une solution potentielle à nombre de nos problèmes. Il ne faut cependant pas oublier que tant de potentiel comporte aussi un certain niveau de risque, il est donc essentiel d’être prudent pour avancer en toute sécurité.
Les chatbots basés sur les nouveaux modèles de langage naturel ont été les principaux protagonistes cette année, notamment en raison de leur arrivée sur les grands moteurs de recherche Internet. Comment utilisez-vous Bard by Google au quotidien ?
L’idée de Bard est de vous aider à explorer des curiosités ou à mettre vos idées en action. L’autre jour, par exemple, je cherchais un nouvel endroit pour promener mes chiens, et Bard m’a donné des idées de parcs et de sentiers adaptés aux chiens près de chez moi. Il m’a même donné des détails sur les endroits pour une promenade plus longue, avec de l’espace pour courir et se fatiguer, des itinéraires plus difficiles…
Ces IA génératives continuent de faire des erreurs dans les données ou les informations qu’elles fournissent. Verrons-nous un jour une IA conversationnelle sans hallucinations ?
Je crois fermement que nous allons voir comment ces modèles vont progressivement s’améliorer en qualité et les hallucinations vont diminuer. Il est irréaliste de penser que ces technologies vont être parfaites, mais elles atteignent des niveaux de fiabilité suffisants pour être de plus en plus utiles et fonctionnelles.
Actuellement, de nombreuses équipes de recherche, tant dans l’industrie que dans le milieu universitaire, étudient diverses approches pour prévenir les hallucinations. Dans certains cas, il est préconisé de vérifier les sources originales ou la véracité des informations, dans d’autres, il s’engage à recycler les modèles avec de nouvelles données, ou des données synthétiques, l’apprentissage par renforcement avec rétroaction humaine (RLHF), l’intégration avec des sources d’informations fiables ou la combinaison de diverses techniques.
Son utilisation à grande échelle a accéléré le débat sur la nécessité de contrôler et de légiférer sur cette technologie. Quels aspects de l’IA sont les plus urgents à réglementer ?
À mon avis, le plus important est de réglementer les applications spécifiques qui présentent le plus grand risque pour la vie et l’intégrité physique, les dommages matériels, l’accès aux services essentiels ou l’impact sur les droits fondamentaux, et non la technologie elle-même. Par exemple, l’IA utilisée pour détecter le cancer du sein dans les mammographies a probablement besoin d’une approche différente de celle de l’IA qui aide les gens à trouver un chemin plus vert pour rentrer chez eux.
Il est également important de réglementer ceux dont le risque est incertain à moyen ou long terme. Et cela est plus complexe, car ce n’est pas évident, et les bénéfices sociaux et économiques à court terme peuvent biaiser notre capacité d’analyse. Je préconise une enquête plus approfondie sur l’impact de l’IA sur nos capacités cognitives individuelles et sur différents groupes sociaux en fonction de l’utilisation qu’ils font de ces outils.
Le langage naturel est notre système d’exploitation et l’impact des technologies qui peuvent le gérer, dans certains cas mieux que nous, reste un mystère que nous devons résoudre.
Le plus important est de réglementer les applications spécifiques qui comportent le plus grand risque pour la vie et l’intégrité physique, les dommages aux biens, l’accès aux services essentiels ou l’impact sur les droits fondamentaux.
Comment Google gère-t-il ces défis ?
L’objectif principal des développements de Google est d’avoir un impact social bénéfique de manière sûre et transparente pour les personnes, et d’empêcher les utilisations inappropriées. Début juillet, par exemple, nous avons annoncé un partenariat entre Anthropic, Google, Microsoft et OpenAI pour promouvoir une IA responsable.
L’un des principes éthiques fondamentaux faisant l’objet d’un large consensus est la nécessité d’être transparent dans l’utilisation de l’IA. Tout produit ou service généré artificiellement doit être identifié comme tel. Par exemple, l’IA générative a rendu plus facile que jamais la création de nouveaux contenus, ce qui peut également poser problème lors de la création, par exemple, d’images à des fins de désinformation.
Chez Google, nous avons annoncé un outil appelé « À propos de cette image » pour aider les gens à vérifier si une image est digne de confiance. Au fur et à mesure que nous commençons à mettre en œuvre des fonctionnalités d’image générative, ces images auront un balisage dans le fichier d’origine pour lui donner un contexte même en dehors de nos plateformes.
Avant de mettre nos produits et services à la disposition du public, la priorité a toujours été de les sécuriser au maximum, d’éviter les erreurs ou les effets secondaires indésirables et d’anticiper les besoins des personnes. Il est également essentiel de protéger les données de chaque client et de garantir que leurs informations et leur valeur différentielle ne quitteront jamais leur contrôle.
Quelle est votre opinion sur la loi que l’Union européenne est en train d’élaborer ?
Il est difficile de prédire ce que sera la version finale car elle est encore en phase de brouillon. La proposition de la Commission européenne est, en général, proportionnée. Il y a des aspects qui me paraissent très raisonnables et d’autres qui nécessitent, à mon avis, une évaluation plus exhaustive. Des normes et une plus grande précision dans les cas d’utilisation, les scénarios et les règles d’application, par exemple, sont importantes pour que la loi ait non seulement de bonnes intentions mais aussi une application pratique.
Le programme « bac à sable » qui est lancé va être décisif. Il est également essentiel de veiller à ce que l’IA soit appliquée de manière sûre et fiable, tout en soutenant l’innovation axée sur l’IA par les entreprises et le progrès scientifique par les universités. L’objectif devrait être de maintenir la capacité de l’UE à optimiser l’application de l’IA dans les secteurs critiques.
La peur de l’intelligence artificielle supérieure aux humains est-elle logique ? Pourrions-nous être face à un système avec une conscience comme l’ont souligné certains experts du secteur ?
L’intelligence et la conscience sont des concepts faciles à comprendre dans un contexte humain. Cependant, sa définition du point de vue artificiel ou abstrait est plus complexe. L’intelligence artificielle est déjà supérieure à l’humain dans de nombreux aspects, mais pas dans ceux que nous considérons nous-mêmes comme fondamentaux du point de vue d’une personne sans formation spécifique en la matière. Quand on parle, par exemple, de « bon sens », de « libre arbitre » ou d' »expérience subjective de l’être » comme parties fondamentales de l’intelligence et de la conscience humaines, on en est encore très loin.
Tu pourrais aussi aimer…
Suivez les sujets qui vous intéressent