crée un nouveau comité indépendant qui bloquera les modèles dangereux

cree un nouveau comite independant qui bloquera les modeles dangereux

L’explosion que ChatGPT a provoquée dans le monde entier, y compris en Espagne, a également eu un impact sur l’entreprise elle-même, qui a été durement critiquée pour avoir laissé derrière elle ses origines d’organisation à but non lucratif axée sur la recherche. Cette dernière année a été quelque peu mouvementée pour la direction d’OpenAI avec le licenciement et le retour de Sam Altman en tant que PDG, le départ des membres fondateurs ou l’abandon par Microsoft de son rôle d’observateur au conseil d’administration, entre autres changements. En moins de quatre mois, L’entreprise crée à nouveau un nouveau comité de sécurité.

Des scandales comme le lancement de GPT 4.o avec une voix très similaire à celle de l’actrice Scarlett Johansson ou les rumeurs d’une éventuelle superintelligence artificielle dangereuse ont mis dans les cordes ce géant de l’IA dont les outils sont utilisés par 200 millions d’utilisateurs hebdomadaires. Avec ce nouveau comité, l’entreprise promet d’être plus transparent dans son travailcherchant désormais à porter sa valorisation à 150 milliards de dollars grâce à une nouvelle levée de fonds.

La société responsable de ChatGPT a rapporté sur son blog la création d’un « comité de surveillance du conseil d’administration » qui sera indépendant et aura le pouvoir de retarder la sortie de nouveaux modèles et outils pour des raisons de sécurité. Cette décision a été prise après que le comité de sûreté et de sécurité de l’entreprise aura procédé à un examen de 90 jours des processus liés à la sécurité et formulé une série de recommandations à l’ensemble du conseil d’administration.

Sam Altman, PDG d’OpenAI, à son arrivée à un forum au Sénat américain en septembre dernier. Reuters

Il faut rappeler que ce Comité de sécurité et de protection a été créé fin mai. Elle était dirigée par Altman lui-même, le PDG de l’entreprise, et trois conseillers : Bret Taylor, Adam d’Angelo et Nicole Seligman. Leur seul travail a été cette étude de 90 jours dans laquelle certaines recommandations ont été formulées telles que la collaboration avec des organisations externes et « établir une gouvernance indépendante pour la sûreté et la sécurité« .

De cette manière, le comité de sûreté et de sécurité devient un comité qui sera présidé par Zico Kolter, directeur du département d’apprentissage automatique de la faculté d’informatique de l’université Carnegie Mellon. Seront également présents Adam D’Angelo, co-fondateur et PDG de Quora et général à la retraite de l’armée américaine, ainsi que Paul Nakasone et Nicole Seligman, ancienne vice-présidente exécutive et avocate générale de Sony Corporation.

Logo d’OpenAI, fondé par Sam Altman. Unsplash

L’annonce garantit que ce nouveau comité sera indépendant et supervisera le conseil d’administration, mais que ses membres appartiennent également au conseil d’administration. conseil d’administration de l’entreprise. Sam Altman, actuel directeur exécutif, ne siège plus à ce comité. L’entreprise affirme également rechercher, sur recommandation de son comité, « davantage de moyens de partager et d’expliquer notre travail en matière de sécurité » et « plus de possibilités de tests indépendants de nos systèmes. »

« Nous nous engageons à améliorer continuellement notre approche en matière de lancement de modèles hautement performants et sûrs », indique le communiqué. Fin août, OpenAI et Anthropic se sont mis d’accord permettre au gouvernement américain d’évaluer les principaux modèles d’IA avant de les rendre publics.

Cette mesure s’apparenterait au Conseil de Surveillance créé par Meta, la société de Mark Zuckerberg, pour revoir les décisions du conseil d’administration de l’entreprise à laquelle appartiennent certains des réseaux sociaux les plus pertinents du moment comme Instagram ou l’application de messagerie WhatsApp. . et cela développe également l’intelligence artificielle générative.

fr-02