IA générative : un risque pour la sécurité des données sensibles

Des applications d’IA générative telles que ChatGPT et Google Bard sont de plus en plus utilisées par les collaborateurs, mais cela soulève des préoccupations quant à la sécurité des données sensibles partagées. Des enquêtes révèlent que le code source est la donnée la plus souvent partagée, avec des risques potentiels pour les informations financières et médicales. Malgré cela, bloquer l’accès à ces applications pourrait limiter les avantages pour l’innovation et la productivité, ce qui incite les entreprises à mettre en place des contrôles tels que la prévention des pertes de données.

Cropped Favicon Economi Matin.jpg
Par Rédaction Publié le 18 août 2023 à 19h15
IA
Les applications d'IA générative suscitent des risques pour la sécurité des données sensibles en entreprise - © Economie Matin

Une utilisation croissante des applications d'IA générative en entreprise

Au moins 10 000 collaborateurs utilisent en moyenne cinq applications d'IA par jour, selon une étude de Netskope. ChatGPT est l'application d'IA qui compte le plus d'utilisateurs quotidiens actifs. Elle est huit fois plus utilisée que toute autre application. Cependant, cette utilisation massive des applications d'IA générative expose les entreprises à des risques en matière de sécurité des données.

Des données sensibles sont partagées avec ces applications chaque heure dans une journée de travail dans les grandes entreprises. Le code source est la catégorie de données sensibles la plus couramment partagée sur ChatGPT, avec un taux mensuel de 158 incidents pour 10 000 utilisateurs. De plus, des données confidentielles réglementées, telles que des données financières ou médicales, sont également partagées sur ces applications.

Des risques à prendre en compte avec l'IA

Même si l'utilisation des applications d'IA générative est en croissance dans l'entreprise, il y a des risques à prendre en compte. En effet, une étude de Netskope montre que des personnes malveillantes exploitent l'IA à des fins malveillantes. Netskope surveille les proxies de ChatGPT ainsi que plus d'un millier d'adresses URL et de domaines malveillants associés à des cybercriminels.

Dans les secteurs fortement réglementés tels que les services financiers ou la santé, près d'une entreprise sur cinq interdit à ses employés d'utiliser ChatGPT. Cette solution de blocage est une solution à court terme mais elle limite également les avantages potentiels de ces applications pour l'innovation et la productivité. Les entreprises doivent donc mettre en place des contrôles, tels que la prévention des pertes de données (DLP) et l'encadrement des utilisateurs, pour utiliser les applications d'IA en toute sécurité et éviter les fuites de données sensibles.

Une utilisation encore hasardeuse 

L'utilisation des applications d'IA générative est un sujet qui préoccupe de plus en plus les entreprises. Bien que leur utilisation permette une plus grande innovation et productivité, cela peut exposer l'entreprise à des risques importants en matière de sécurité des données. Les entreprises doivent mettre en place des mesures de contrôle pour protéger leurs données sensibles et éviter les fuites de données. Il est donc essentiel d'encadrer les utilisateurs et de surveiller l'utilisation de ces applications afin de minimiser les risques de sécurité des données.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Aucun commentaire à «IA générative : un risque pour la sécurité des données sensibles»

Laisser un commentaire

* Champs requis