OpenAI a découvert une percée qui menaçait l’humanité avant de renvoyer Sam Altman

OpenAI a decouvert une percee qui menacait lhumanite avant de

OpenAI a joué dans l’un des derniers feuilletons du monde de la technologie lorsque vendredi soir dernier, le 17 novembre, en Espagne, la nouvelle a été annoncée selon laquelle l’entreprise licenciait Sam Altman, le « père » de ChatGPT. Après l’agitation générée et les menaces des travailleurs, quelques jours plus tard, l’entreprise a finalement fait marche arrière et a réintégré le directeur. Mais l’histoire ne s’arrête pas là puisqu’il apparaît désormais que certains chercheurs ont découvert une avancée qui menaçait l’humanité avant toute cette polémique.

Pour le moment, la raison officielle pour laquelle Altman a été renvoyé d’OpenAI reste inconnue, bien qu’il existe différentes théories sur les réseaux sociaux. Cependant, de nouvelles données donnent lieu à une autre possibilité, à savoir que certains chercheurs du personnel de l’entreprise ont envoyé au conseil d’administration, peu après le départ du « père » de ChatGPT, une lettre dans laquelle ils mettaient en garde contre une puissante découverte de l’intelligence artificielle (IA) cela pourrait menacer l’humanité, selon des médias tels que Reuters et The Information.

On ne sait pas avec certitude quel rôle cette lettre a joué dans le licenciement d’Altman. en tant que PDG d’OpenAI, et il ne semble pas que cela soit connu. Certaines sources assurent à The Verge qu’il n’a jamais atteint le conseil d’administration et que cela n’a rien à voir avec tous les événements vécus dans l’entreprise. Cependant, d’autres pointent directement du doigt cette situation et la découverte du nouvel algorithme d’intelligence artificielle comme l’une des principales raisons.

Tous les nouveaux modèles DS incluent désormais l’application ChatGPT.

Au conseil d’administration, il y avait un certain inquiétude quant à la tendance à commercialiser ces avancées sans comprendre quelles seraient ses conséquences potentielles. En fait, OpenAI a confirmé dans un message interne adressé au personnel l’existence d’un projet appelé « Q* » et qu’une lettre avait été écrite pour avertir de ses implications. En outre, l’un des médias rapporte que l’un des architectes du licenciement a dirigé ce procès : Ilya Sutskever, scientifique en chef chez OpenAI.

Le contenu de la lettre n’a pas été rendu public – et il ne semble pas qu’il le sera – mais il pourrait être l’un des facteurs d’une longue liste de griefs qui ont conduit au licenciement d’Altman. Comme on le sait, il s’agissait simplement d’une mise en garde contre une avancée qui représentait un danger potentiel pour l’humanité, mais A aucun moment les risques n’ont été expliqués ou détaillés.

[ChatGPT predice cuál será el ‘Gordo’ de la Lotería de Navidad 2023: ya se ha agotado en esta ciudad]

Les responsables de la lettre envoyée au conseil d’administration d’OpenAI ont également parlé des travaux développés par un autre groupe de recherche en intelligence artificielle qui finit par explorer comment optimiser les modèles d’IA existants pour améliorer leur raisonnement et finissent par accomplir des tâches scientifiques.

Tu pourrais aussi aimer…

Suivez les sujets qui vous intéressent

fr-02