SAN FRANCISCO – Google a récemment mis un ingénieur en congé payé après avoir nié son affirmation selon laquelle son intelligence artificielle était sensible, faisant encore plus fureur sur la technologie la plus avancée de l’entreprise.
Blake Lemoine, ingénieur logiciel senior chez Responsible AI Organization de Google, a déclaré dans une interview qu’il avait obtenu un congé lundi. Le service des ressources humaines de l’entreprise a déclaré qu’il avait violé la politique de confidentialité de Google. La veille de sa suspension, M. Lemoine a déclaré avoir remis des documents au bureau d’un sénateur américain affirmant qu’ils fournissaient des preuves que Google et sa technologie étaient impliqués dans la discrimination religieuse.
Google a déclaré que ses systèmes imitaient les échanges conversationnels et pouvaient traiter divers sujets mais n’en avaient aucune conscience. « Notre équipe – comprenant des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations », a déclaré Brian Gabriel, porte-parole de Google, dans un communiqué. « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela ne sert à rien de le faire en humanisant les modèles conversationnels d’aujourd’hui qui ne sont pas sensibles. » Le Washington Post a d’abord rendu compte de la suspension de M. Lemoine.
Pendant des mois, M. Lemoine s’est battu avec les gestionnaires, les cadres et les ressources humaines de Google au sujet de son affirmation surprenante selon laquelle le modèle de langage d’application conversationnel (LaMDA) de l’entreprise avait une conscience et une âme. Google affirme que des centaines de ses chercheurs et ingénieurs ont consulté LaMDA, un outil interne, et sont arrivés à une conclusion différente de celle de M. Lemoine. La plupart des experts en IA estiment que l’industrie est encore très loin du calcul des sensations.
Certains chercheurs en intelligence artificielle affirment depuis longtemps avec optimisme que ces technologies atteindront bientôt la conscience, mais beaucoup d’autres rejettent très rapidement ces affirmations. « Si vous utilisiez ces systèmes, vous ne diriez jamais des choses comme ça », a déclaré Emaad Khwaja, chercheur à l’UC Berkeley et à l’UC San Francisco qui étudie des technologies similaires.
En savoir plus sur l’intelligence artificielle
Dans la chasse à l’avant-garde de l’IA, l’organisation de recherche de Google a été embourbée dans le scandale et la controverse ces dernières années. Les scientifiques et autres membres du personnel du département se sont régulièrement querellés sur des questions de technologie et de personnel dans des épisodes qui ont souvent été divulgués au public. En mars, Google a licencié un chercheur qui avait publiquement tenté de contredire les travaux publiés de deux de ses collègues. Et les licenciements de deux chercheurs en éthique de l’IA, Timnit Gebru et Margaret Mitchell, après avoir critiqué les modèles linguistiques de Google continuent de jeter une ombre sur le groupe.
M. Lemoine, un vétéran militaire qui se décrit comme un prêtre, un ancien détenu et un chercheur en intelligence artificielle, a déclaré à des dirigeants de Google aussi hauts placés que Kent Walker, le président des affaires mondiales, qu’il pensait que LaMDA était un enfant de 7 ou 8 ans. . Il voulait que l’entreprise obtienne l’approbation du programme informatique avant de l’expérimenter. Ses affirmations étaient fondées sur ses convictions religieuses, qui, selon lui, étaient discriminées par le service des ressources humaines de l’entreprise.
« Vous avez à plusieurs reprises remis en question ma santé mentale », a déclaré M. Lemoine. « Ils ont dit: ‘Avez-vous été vu par un psychiatre récemment?' » Dans les mois qui ont précédé sa mise en congé administratif, l’entreprise lui avait suggéré de prendre un congé psychiatrique.
Yann LeCun, responsable de la recherche sur l’IA chez Meta et figure clé de l’essor des réseaux de neurones, a déclaré dans une interview cette semaine que ces types de systèmes ne sont pas assez puissants pour atteindre une véritable intelligence.
La technologie de Google est ce que les scientifiques appellent un réseau de neurones, un système mathématique qui acquiert des compétences en analysant de grandes quantités de données. Par exemple, en trouvant des motifs dans des milliers de photos de chats, il peut apprendre à reconnaître un chat.
Ces dernières années, Google et d’autres grandes entreprises ont développé des réseaux de neurones qui ont appris de grandes quantités de prose, y compris des livres non publiés et des articles de Wikipédia par milliers. Ces « grands modèles de langage » peuvent être appliqués à de nombreuses tâches. Vous pouvez résumer des articles, répondre à des questions, générer des tweets et même rédiger des articles de blog.
Mais ils sont extrêmement imparfaits. Parfois, ils produisent une prose parfaite. Parfois, ils génèrent des bêtises. Les systèmes sont très bons pour reproduire les modèles qu’ils ont vus dans le passé, mais ils ne peuvent pas raisonner comme un humain.
L’ingénieur post Google Sidelines affirmant que son IA est sensible est apparu en premier sur Germanic News.