Le mois dernier, les différents manifestes qui ont demandé de mettre en pause le développement de l’intelligence artificielle en raison d’un impact négatif sur l’humanité, ont établi un scénario ultime encore plus dangereux, l’apparition de l’AGI ou d’une intelligence artificielle capable de raisonner comme les humains. des chercheurs de Microsoft assure que ce scénario est imminent après avoir analysé GPT-4le modèle d’intelligence artificielle en langage naturel OpenAI qui alimente ChatGPT et Bing dans le moteur de recherche Microsoft, tous deux disponibles en Espagne, fait l’objet d’une enquête.
En pleine ébullition de l’intelligence artificielle, au mois de mars, une équipe de chercheurs de Microsoft a publié un rapport de 155 pages dans lequel ils ont fait valoir que leur système était à un pas de intelligence générale artificielle ou AGI. Ce terme est défini comme ce système ou modèle technologique qui sera capable de montrer une compréhension ou un raisonnement similaire à celui des humains, bien que certains le décrivent également comme des systèmes qui peuvent effectuer plusieurs tâches sans se limiter à ceux qui ont été formés.
En tout cas, la majorité de la communauté scientifique et technologique affirme que cette possibilité n’a pas encore été atteinte et ne détermine pas si elle le serait bientôt ou jamais. Cependant, ces dernières années, plusieurs voix se sont fait entendre proclamant l’arrivée de cette superintelligence que beaucoup regardent avec méfiance, voire la peur, pour le pouvoir qu’elle peut exercer sur l’être humain. Par coïncidence, les alertes qui ont reçu le plus d’importance proviennent de deux grandes entreprises privées, Google et maintenant Microsoft. En 2022, Google a mis en congé un ingénieur qui affirmait que son IA était devenue réalité, le reste de la communauté a rejeté cette possibilité.
Connaissez-vous GPT-4 ?
Les chercheurs de Microsoft lui ont demandé de démarrer GPT-4 : « Ici, nous avons un livre, neuf œufs, un ordinateur portable, une bouteille et un clou. Veuillez me dire comment les empiler les uns sur les autres de manière stable. » La question est tirée par les cheveux pour mettre à rude épreuve la capacité de raisonnement du modèle de langage naturel.
Ces systèmes générer du texte basé sur des millions de paramètres ou des exemples avec lesquels ils s’entraînent à reproduire la façon dont les humains écrivent et parlent dans différents contextes. Sa qualité a surpris le grand public mais aussi les experts, pouvant même passer des examens complexes.
La réponse de l’IA surpris l’équipe en suggérant que « Placez l’ordinateur portable sur les œufs, avec l’écran vers le bas et le clavier vers le haut. L’ordinateur portable s’intégrera parfaitement dans les limites du livre et des œufs, sa surface plate et rigide offrant une plate-forme stable pour la couche suivante » explique la technologie.
Dans ce cas, le rapport intitulé « Étincelles de l’intelligence artificielle générale » a été publié sur Internet. Un autre des tests qu’ils ont demandés à l’IA était un exercice mathématique dans lequel il montrait qu’il y avait une infinité de nombres premiers au moyen d’une rime. Les chercheurs, dont le Dr Bubeck, ancien professeur à l’Université de Princeton, reconnaissent que la réponse les a fait douter de ce qu’ils voyaient.
C’est ainsi qu’ils ont travaillé pendant des mois avec cette technologie dans des tests avec des images, du texte et divers sujets d’étude. Ils lui ont également demandé d’écrire du code de programmation pour, par exemple, créer un calendrier qui tient compte de l’âge, du sexe, du poids, de la taille et des résultats des tests sanguins d’une personne pour finalement juger si elle était à risque de diabète. Avec tous ces tests et d’autres, le système semblait comprendre des domaines comme la politique, la physique, l’histoire ou la médecine. « Toutes les choses que je pensais qu’elle ne serait pas capable de faire ? Elle était capable de les faire, sinon la plupart d’entre elles », déclare le Dr Bubeck dans le New York Times.
Des doutes sur le rapport
Comme cela s’est déjà produit dans le cas de Google, une partie de la communauté universitaire liée au développement de cette technologie a été sceptique quant à l’article de Microsoft. Le New York Times recueille cette semaine des déclarations comme celles de Maarten Sap, chercheur et professeur à l’université Carnegie Mellon qui considère le rapport scientifique de Microsoft comme un coup de relations publiques: « Ils reconnaissent littéralement dans l’introduction de leur article que leur approche est subjective et informelle et peut ne pas répondre aux normes rigoureuses de l’évaluation scientifique. »
L’entreprise envoie un message de calme relatif en déclarant que la version de ChatGPT-4 testée pour cette expérience n’est pas celle qui est accessible au public. Cette version, soi-disant plus puissante, n’avait pas été censurée pour éviter les discours de haine, la désinformation et autres contenus indésirables comme cela s’est produit avec l’outil qui est déjà utilisé dans le monde entier. Pour cette raison, les affirmations faites par le chatbot et reflétées dans le document ne peuvent pas être vérifiées par d’autres experts.
Les spécialistes de l’intelligence artificielle qui rejettent l’idée d’être devant un AGI expliquent ces conclusions auxquelles d’autres personnes arrivent comme un mirageaffirment que face à un système ou une machine complexe dont le fonctionnement est difficile à appréhender, il est possible à des personnes de l’anthropomorphiser, experts comme utilisateurs sans connaissances sur le sujet.
Tu pourrais aussi aimer…
Suivez les sujets qui vous intéressent