« Quand une entreprise se fait voler ses tokens, elle perd ses données »

Quand une entreprise se fait voler ses tokens elle perd

« Si vous entraînez un modèle LLM avec les données de votre entreprise et qu’ils volent vos jetons, ils prennent toutes vos données. C’est comme s’ils avaient volé le cœur de votre entreprise, alors soyez prudent. » Pour ceux qui ne savent pas ce qu’est un token, ce sont des actifs d’investissement, des jetons de vote, de l’art numérique ou des monnaies utilitaires pour une plateforme, tandis que les LLM sont de grands modèles de langage, des réseaux de neurones capables de lire, traduire et résumer des textes, pouvant ainsi créez des phrases et prédisez des mots apparaissant comme si un humain écrivait ou parlait. L’un des plus éminents experts en cybersécurité au monde, Chema Alonso, a parlé hier de ce danger au IIe Forum européen sur l’intelligence artificielle, en offrant une autre des conférences principales de la journée, une dissertation d’une demi-heure sur les dix principaux problèmes que l’IA les spécialistes ont détecté des modèles linguistiques LLM en réponse aux questions du président d’Encuentros Now, Manuel Bonilla.

C’est le cas de la découverte et de l’information sensible, avec l’utilisation de données médicales ou juridiques pour former cette intelligence. « Je suis venu vous parler des choses qui ne sont pas si bonnes avec la GenAI (intelligence artificielle générative). L’IA est entrée dans nos vies et elle est phénoménale. Il y a des choses fantastiques mais aussi des défis que nous devons surmonter », a déclaré le également CDO (Chief Digital Officer) de Telefónica.

Ainsi, il a déclaré qu’en 2015 il avait lancé une course brutale pour développer l’IA​​des interfaces humaines pour la technologie, la reconnaissance d’images, la reconnaissance de texte… « Une course pour les chercheurs lorsqu’il s’agit de mettre le drapeau sur le dépassement de l’humain parité que « Il dit que lorsqu’une intelligence artificielle a un taux d’erreur inférieur à celui des êtres humains, la parité humaine est dépassée. »

L’expert a précisé qu’en 2020, nous avions déjà trouvé des brevets dont le propriétaire est une IA. « Aujourd’hui, cela commence à rendre les gens un peu mal à l’aise, comme le désordre à Hollywood à cause des doublages, des scripts et des figurants créés avec des modèles IA. » Ainsi, il a décrit que les figurants de certains films sont déjà des humains synthétiques générés par l’intelligence artificielle ; cette technologie est également utilisée pour le doublage ; et que les voix ne sont pas celles des acteurs mais générées par l’IA, qui crée aussi déjà des scripts, « c’est le monde dans lequel nous entrons ».

Alonso, connu comme « le bon hacker » depuis son apparition il y a des années dans une émission de télévision populaire, a souligné les principaux problèmes de sécurité que les spécialistes de la science des données ont identifiés dans les applications qui utilisent des modèles de langage LLM. Ainsi, il a parlé d’« injection rapide ». « Nous donnons les données à l’algorithme, puis nous lui disons ce qu’il ne peut pas dire, ce qui rend le piratage d’un système aussi simple que de discuter avec lui. Autrement dit, toutes les données que vous avez fournies au système finiront par sortir parce qu’il « Il n’existe aucun système de sécurité interne qui filtre ces données. »

Il a également parlé de ce qu’on appelle « l’empoisonnement des données de formation ». « Si vous entraînez votre algorithme avec tout ce qui se trouve sur Internet, il peut paraître nazi ou sexiste. Si ces modèles ont été entraînés avec des codes de programmation, ils sont très utiles, mais les codes qu’ils vont vous donner seront pleins de bugs. (erreurs logicielles), c’est comme avoir un mauvais programmeur.

« Un autre problème est que vous comptez sur des modèles pré-entraînés provenant d’autres personnes et que vous hériterez de toutes les erreurs dont ils disposent, comme les « injections rapides » universelles. »

L’expert a également souligné que, par défaut, dans les modèles de langage LLM qui ont été formés avec des données personnelles telles que les paies ou les rapports, « il est très possible que ces données finissent par apparaître. Et si l’on considère aussi bien ce que font les algorithmes « L’IA aime ChatGPT et vous la laissez prendre des décisions, vous allez avoir un problème assez sérieux. »

Ces modèles de langage numérique « posent également des problèmes s’ils disposent d’autorisations ou de fonctionnalités excessives, car ils peuvent avoir des conséquences imprévisibles », a-t-il déclaré. A titre d’exemple, il a rappelé que Google avait fait une démonstration de son LLM « et que Bard avait eu des hallucinations, ce qui arrive habituellement avec ces modèles. Ils lui ont posé des questions sur les projets de la NASA, il s’est trompé et les actions de Google ont chuté de 100 milliards ». Bard est un chatbot d’intelligence artificielle développé par Google.

Alonso a également parlé des préjugés sexistes et professionnels de Google Translate et de Microsoft Bing. Il a lui-même promu une campagne de collecte de signatures sur la plateforme Internet Change.Org, qui en compte déjà environ 35 000, afin de modifier ces préjugés.

En résumé, l’expert en cybersécurité en ligne souligne que ce monde de l’intelligence artificielle est « fantastique car il nous permet de résoudre des problèmes dans des domaines qui affectent la vie des gens, mais nous devons continuer à travailler et le prendre très au sérieux. sans savoir comment cela fonctionne, nous allons avoir un sérieux problème.

fr-03