L’utilisation de l’IA générative, telle que ChatGPT, inquiète d’éventuelles fuites de données et pertes économiques

Lutilisation de lIA generative telle que ChatGPT inquiete deventuelles fuites

L’utilisation de systèmes Intelligence artificielle (IA générative), comme ChatGPTinquiète les dirigeants des entreprises en raison des risques que cela comporte, notamment en raison de la perte possible d’informations confidentielles et de contrôle commercialet ce malgré les plans de mise en œuvre et les salariés qui l’utilisent déjà dans un contexte où il n’y a pas toujours de réglementation en la matière.

L’IA générative est devenue un outil utile pour les entreprises, permettant d’automatiser des processus et de réaliser un large éventail de tâches, mais la direction se méfie de ses effets. les risques de sécurité que peuvent impliquer pour l’entreprise.

Cela se reflète dans un rapport de Kaspersky réalisé auprès de managers espagnols, qui indique que sur le nombre total de personnes interrogées, seuls 19 % ont débattu de l’imposition de règles pour contrôler l’utilisation de l’IA générative.

96 % estiment que leurs employés utilisent régulièrement ce type de systèmes, ce qui les oblige (95 %) à savoir comment les employés utilisent l’IA générative pour se protéger contre les risques de sécurité critiques ou les fuites de données. 64 pour cent craignent même des pertes économiques dans les organisations.

Une autre étude de Kaspersky auprès des utilisateurs professionnels de l’IA générative en Espagne révèle que 25 % de ceux qui utilisent Chat GPT au travail, le « chatbot » le plus populaire basé sur cette technologie, ne savent pas ce qu’il advient des données qu’ils saisissent sur l’outil.

Ces données reflètent l’importance d’un sensibilisation et réglementation par entreprises pour protéger vos informations, puisque, comme le rappelle la société de cybersécurité, ChatGPT peut stocker des informations telles que l’adresse IP, le type de navigateur et les paramètres de l’utilisateur, ainsi que des données sur les fonctions les plus utilisées.

Or, selon les salariés interrogés, près de la moitié (45,5%) des entreprises ne disposent d’aucune réglementation interne concernant l’utilisation du Chat GPT. Parmi ceux qui l’ont mis en œuvre, 19 pour cent disent qu’elles ne sont pas assez claires, 7 pour cent disent que les règles sont claires, mais ne sont pas respectées, et seulement 27 pour cent disent qu’elles sont claires et qu’elles sont respectées.

Ces données contrastent avec l’intention des managers espagnols, puisque selon l’étude, la moitié envisagent d’utiliser l’IA générative et d’automatiser les tâches avec elle à l’avenir. 46 pour cent ont indiqué leur intention d’intégrer cette technologie dans leurs propres routines pour améliorer la productivité, ainsi que celles des employés (43 %).

Malgré tout ça, 16 pour cent des Espagnols qui utilisent ChatGPT au travail, il considère qu’il n’est pas important de préserver sa vie privée dans les questions qu’ils posent au chatbot, et 31 % considèrent qu’il est important de ne pas partager de données privées, mais ils le font quand même.

Les risques de ChatGPT

ChatGPT garantit qu’il ne partage pas les informations fournies par l’utilisateur avec des tiers. Il ne le garde que pour améliorer la plateforme et apporter des réponses les plus précises possiblesen utilisant les données collectées pour améliorer le modèle linguistique et affiner autant que possible l’expérience utilisateur.

« Cependant, il faut tenir compte du fait que la politique de confidentialité de ChatGPT se réfère uniquement à l’utilisation des données des utilisateurs enregistrés sur ladite plateforme, mais ne précise rien sur l’utilisation des données personnelles que l’IA peut faire à partir d’autres sources. , comme celles-ci. il utilise pour générer les textes qu’il renvoie », explique Marc Rivero, chercheur principal en sécurité chez Kaspersky.

D’autre part, les cyber-escrocs utilisent déjà l’outil pour générer du code malveillant ou des escroqueries par phishing » aussi crédible que possible. Pour cette raison, les experts de Kaspersky conseillent d’éviter de saisir des informations sensibles et des données confidentielles, tant personnelles que professionnelles, qui pourraient être susceptibles de tomber entre les mains de cybercriminels.

Dans le cas des entreprises, ils considèrent qu’il est important que les entreprises créent des règles internes qui réglementent l’utilisation de ChatGPT et sensibilisent les employés à l’importance de ne pas partager certaines données, en sensibilisant les employés à la cybersécurité.

Ils soulignent également la nécessité d’être prudent lorsque vous recevez des liens provenant de sites Web inconnus, car ils peuvent contenir programmes malveillants ou rediriger les victimes vers des sites de phishing‘.

Kaspersky insiste également pour que vous utilisiez un programme de sécurité fiable qui offre une protection contre les virus et surveille les fuites de données en temps réel, comme le fait la solution Kaspersky Premium. Et gérez les clés et les mots de passe avec un outil spécifique comme Kaspersky Password Manager.

fr-03