« Éteignez l’IA ou nous mourrons tous », prévient l’un des plus grands experts du domaine

Eteignez lIA ou nous mourrons tous previent lun

L’explosion créative qu’a connue l’intelligence artificielle, plus particulièrement les systèmes d’apprentissage en profondeur tels que ChatGPT, a créé une grande division parmi ses principaux experts, également en Espagne. Face aux voix qui voient le moment que nous vivons comme une révolution, il y en a d’autres qui demandent à prendre ces nouveaux outils avec prudence. Des voix se font même entendre qui prennent une position beaucoup plus drastique, avertissant : « nous allons tous mourir, y compris les enfants Ils n’ont pas choisi cela et ils n’ont rien fait de mal. »

Les avantages importants qu’apporte cette technologie et toutes ses avancées contrastent avec les différents dangers qui se manifestent et qui ont poussé des universitaires et des personnalités comme Elon Musk ou Steve Wozniak à signer un manifeste dans lequel ils demandent un moratoire, une pause dans le développement de ces IA. Arrêtez quelques mois pour réguler et analyser l’impact négatif possible qui nous attend.

Tout le monde au sein de la communauté des experts en technologie n’est pas d’accord avec cette lettre publiée il y a quelques jours. Il y a ceux qui la jugent exagérée, mais aussi ceux qui considèrent qu’ils sont en deçà. C’est le cas d’Eliezer Yudkowsky, expert en la matière, qui affirme que Il ne l’a pas signé parce qu’il n’avertit pas du danger réel et c’est la création d’une IA plus intelligente que les gens.

ChatGPT Mojahid Mottaki | Unsplash Omicrono

Yudkowsky est responsable de la Institut de recherche sur l’intelligence artificielle et étudie l’intelligence artificielle générale depuis 2001, qui surpassera l’esprit humain à l’avenir. Ce chercheur est considéré comme l’un des fondateurs de ce domaine de recherche et exprime sa plus grande crainte dans une récente colonne dans le temps en réponse au manifeste du Future of Life Institute signé par 1 400 personnalités et scientifiques du monde entier.

Cet expert n’a pas peur des prochains progrès que OpenAI (le créateur de ChatGPT) ou d’autres entreprises peuvent faire avec leurs modèles actuels d’apprentissage automatique, dont les principaux risques sont une mauvaise utilisation par les utilisateurs. créer de fausses nouvelles ou des cyberattaques, par exemple. Yudkowsky parle d’un saut plus important : « Les progrès dans les capacités de l’IA sont énormes, bien en avance sur les progrès dans l’alignement de l’IA ou même sur les progrès dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. »

Représentation machine et humaine prise par l’IA. Générateur d’images Bing

L’alignement de l’IA fait référence au fait que le système poursuit les objectifs fixés par ses développeurs et pas les autres. Sam Altman lui-même, PDG d’OpenAI, a marqué cela comme l’un de ses objectifs de sécurité, pour poursuivre la capacité technique à « aligner une super intelligence » et la coordination entre la majorité des agents de l’industrie pour créer mesures de protection de l’humanité.

« Nous ne pouvons pas calculer à l’avance ce qui se passera et quandet il semble actuellement possible d’imaginer qu’un laboratoire de recherche puisse franchir des lignes critiques sans le savoir », déclare Yudkowsky. A ce moment-là, il estime que l’humanité n’a rien à faire et compare cela « comme si le 11e siècle tentait de combattre le 21e siècle. » .

[Así es Bard, la respuesta de Google a ChatGPT que revolucionará su buscador]

Pour cette raison, il ne demande pas de suspendre les travaux sur l’IA pendant quelques mois, mais d’arrêter complètement son évolution indéfiniment et dans le monde entier. D’autres experts rappellent que cette technologie est utilisée pour créer de nouveaux médicaments, étudier des maladies, protéger les gens des effets du changement climatique, entre autres. avantages qui seraient perdus si vous arrêtiez de travailler dans ce domaine.

Tu pourrais aussi aimer…

Suivez les sujets qui vous intéressent

fr-02