L’IA est déjà passée maître dans le mensonge et la tromperie

LIA est deja passee maitre dans le mensonge et la

Une nouvelle étude scientifique prévient que les systèmes d’intelligence artificielle (IA) ont développé la capacité de présenter délibérément de fausses informations aux utilisateurs humains. Pour l’instant, il ne s’agit pas d’un plan maléfique pour dominer le monde : les chercheurs estiment que l’IA est devenue une artiste de la tromperie parce qu’elle a identifié que cette voie lui permet d’atteindre mieux et plus rapidement les objectifs pour lesquels elle a été créée. .

Dans un article de synthèse récemment publié dans la revue Patterns, une équipe de scientifiques du Massachusetts Institute of Technology (MIT), aux États-Unis, conclut que Systèmes d’intelligence artificielle (IA), y compris les grands modèles de langage (LLM) et autres, ont développé une capacité significative à tromper les humains. Le but est d’obtenir de meilleurs résultats et d’atteindre les objectifs fixés lors de la formation.

Dirigés par Peter S. Park, auteur principal de la nouvelle étude, les scientifiques ont analysé la littérature et les recherches antérieures en se concentrant sur la manière dont IA diffuser de fausses informations, après apprendre systématiquement à manipuler les autres dans le cadre d’une « déviation » non envisagée initialement dans leur processus de formation.

Des risques croissants

Dans leurs travaux, les spécialistes décrivent risques de tromperie par les systèmes d’Intelligence Artificielle à court et à long terme, tout en appelant les gouvernements à élaborer des réglementations strictes pour résoudre ce problème dans les plus brefs délais. « À mesure que les capacités trompeuses des systèmes d’IA deviennent plus avancées, les dangers qu’ils représentent pour la société deviendront plus graves », a déclaré Park dans un communiqué. libérer de Cell Press.

Dans un premier temps, les risques incluent la fraude électorale ou économique commise par des personnes sans scrupules qui profitent des capacités de l’IA, mais ils peuvent multiplier sans limites vers l’avenir, en pensant à des systèmes d’Intelligence Artificielle de plus en plus avancés.

Bien que les développeurs d’IA n’aient pas une compréhension approfondie des causes du comportement trompeur de l’IA, il ne s’agirait pas pour l’instant d’un plan visant à dominer le monde, mais de quelque chose de beaucoup plus simple : l’IA apprend systématiquement à mentir parce que une stratégie basée sur la tromperie Il vous permet d’atteindre mieux et plus rapidement les objectifs fixés dans votre formation. Le problème, selon les chercheurs, est que cela pourrait se produire à l’avenir avec des systèmes encore plus avancés et « intelligents » que ceux actuels.

Parmi les cas analysés, les scientifiques ont mentionné que CICERO, l’IA développée par Meta, a réussi à maîtriser parfaitement un jeu de société populaire (« Diplomatie ») mais n’utilisant que des mensonges et des tromperies. Les experts ne pourraient pas obtenir les mêmes résultats sans utiliser des techniques trompeuses.

Contourner les tests de sécurité

D’autres systèmes ont démontré leur capacité à mentir dans des jeux comme le poker ou à déformer l’information et à obtenir des bénéfices supplémentaires dans le cadre de négociations commerciales, entre autres exemples. Mais le plus surprenant et le plus dangereux est que les chercheurs ont découvert que certains systèmes ont même appris à tromper les tests destinés à évaluez votre sécurité.

Dans une recherche analysée par des spécialistes, les systèmes d’IA d’un simulateur numérique ont « fait le mort » dans un test conçu pour éliminer les modèles qui se répliquent rapidement. « En faisant systématiquement fi des tests de sécurité qui lui sont imposés par les développeurs humains et les régulateurs, l’IA trompeuse peut nous conduire à un faux sentiment de sécurité« , a ajouté Park dans le communiqué.

« Nous devons nous préparer en tant que société à la tromperie la plus avancée des futurs produits d’IA et modèles open source. Si l’interdiction de la tromperie par l’IA est politiquement irréalisable à l’heure actuelle, nous recommandons que les systèmes d’IA trompeurs soient classés comme à haut risque. Doit préserver les avantages de Intelligence artificielle pour la société humaine et limiter les risques », a conclu Park.

Référence

Tromperie de l’IA : une étude d’exemples, de risques et de solutions potentielles. Peter S. Park et coll. Modèles (2024). DOI :https://doi.org/10.1016/j.patter.2024.100988

fr-03