Alors que 2025 commence, l’IA générative s’impose de plus en plus comme un élément clé de la sécurité des entreprises, apportant des bénéfices concrets malgré des discussions récurrentes autour des risques qu’elle pourrait engendrer.
L’IA générative s’impose comme le nouvel allié de la sécurité des entreprises
Cependant, à date, on évoque peu encore les applications réelles et bénéfiques déjà mises en œuvre aujourd’hui. Pourtant, l’un des principaux atouts de l’IA réside dans sa capacité à résumer des incidents à un niveau stratégique. À mesure que ces outils d’IA deviendront plus polyvalents et précis, ils s’imposeront comme des assistants essentiels dans les centres opérationnels de sécurité (SOC), contribuant à combler la pénurie chronique de main-d'œuvre.
Cela dit, ces opportunités d’exploitation de l’IA générative doivent être envisagées dans un cadre et un contexte très précis. Il est crucial que ces outils d’IA soient formés en fonction des politiques, normes et certifications spécifiques à chaque organisation. Lorsqu’ils sont configurés de manière appropriée, ils peuvent s’avérer extrêmement efficaces pour aider les équipes de sécurité à gérer des tâches de routine. Si ce n’est pas encore une priorité pour certaines entreprises, sans aucun doute, leurs équipes de sécurité ne tarderont pas à la mettre en avant, cherchant à alléger la charge de travail de services souvent en sous-effectif.
L’IA générative s’impose ainsi comme l’expert personnel en sécurité des entreprises. Une tendance majeure à surveiller en 2025 qui va redéfinir la manière dont les entreprises utilisent l’intelligence artificielle en toute sécurité.
L’IA générative s’impose comme un acteur clé de la sécurité pour les entreprises.
Si les risques potentiels liés à la sécurité de l’IA générative suscitent de nombreuses discussions, et à juste titre, il existe déjà des applications concrètes et bénéfiques qui passent souvent inaperçues. À mesure que les outils d’intelligence artificielle gagnent en polyvalence et en précision, les assistants en sécurité joueront un rôle essentiel dans les centres opérationnels de sécurité (SOC), contribuant à atténuer la pénurie chronique de main-d’œuvre. Plutôt que de générer des alertes nécessitant des analystes de parcourir de multiples journaux pour relier les points, l’IA permettra de fournir des résumés clairs, compréhensibles pour les humains, exploitables et axés sur les priorités.
Il est évident que ces opportunités doivent être exploitées dans un cadre et un contexte strictement définis. Il est impératif de veiller à ce que ces outils d’intelligence artificielle soient entraînés et formés conformément aux politiques, normes et certifications propres à chaque organisation. Lorsqu’ils sont déployés de manière appropriée, ils peuvent se révéler très efficaces pour soutenir les équipes de sécurité dans leurs tâches routinières. Si les organisations n’ont pas encore pleinement pris conscience de cette possibilité, leurs équipes de sécurité ne tarderont pas à le souligner, cherchant à alléger la charge de travail de départements souvent en sous-effectif.
Les modèles d’IA eux-mêmes deviennent une nouvelle cible privilégiée des attaques centrées sur l’intelligence artificielle.
L’an dernier, les cyberattaques se concentraient principalement sur la couche des conteneurs, étant les espaces de travail les moins sécurisés pour les développeurs. Aujourd’hui, les attaquants ciblent une couche supérieure : celle des infrastructures d’apprentissage automatique. On peut prévoir l’émergence de scénarios où des acteurs malveillants s’infiltrent à différents points de la chaîne afin de manipuler les modèles d’intelligence artificielle pour qu’ils génèrent des réponses erronées ou, pire encore, divulguent les données et informations utilisées sur lesquelles ils ont été entraînés. Ces préoccupations sont particulièrement vives face au risque que des grands modèles de langage soient intentionnellement corrompus avec des vulnérabilités exploitables à terme.
Même si l’intelligence artificielle ouvre la voie à de nouveaux vecteurs d’attaque et techniques de défense, le domaine de la cybersécurité saura relever le défi, comme il l’a toujours fait. Les organisations doivent adopter une approche rigoureuse et formelle pour l’opérationnalisation de l’IA avancée. Bien que la technologie soit récente, les préoccupations fondamentales telles que la perte de données, les risques pour la réputation et la responsabilité juridique, sont bien connues, et les risques seront traités.
Les préoccupations autour de l’exposition des données via l’IA sont souvent exagérées.
Transmettre des données propriétaires à des modèles de langage pour répondre à des questions ou rédiger un e-mail ne présente pas plus de risque que d’effectuer une recherche sur Google ou remplir un formulaire d’assistance. Du point de vue de la perte de données, l’utilisation de l’IA ne représente pas forcément une menace nouvelle ou distincte. En réalité, il s’agit avant tout d’un risque créé par les utilisateurs humains eux-mêmes lorsqu’ils transmettent des données non destinées à une consommation publique, à des outils publics.
Cela ne signifie pas pour autant que les organisations ne devraient pas être vigilantes. Cette problématique devient de plus en plus une question de Shadow IT, obligeant les entreprises à renforcer leur surveillance des usages non autorisés des technologies d’IA générative pour se prémunir contre les fuites potentielles.