Un article de TechCrunch publié lundi 24 avril 2023 indique que Google a annoncé un nouveau produit, Cloud Security AI Workbench, une suite de cybersécurité alimentée par un modèle de langage d’IA spécialisé dans la « sécurité » appelé Sec-PaLM, lors de la RSA Conference 2023.
L’IA générative au service de la cybersécurité : peut-il remplacer l’humain ?
Issu du modèle PaLM de Google, Sec-PaLM est "affiné pour les cas d'utilisation en matière de sécurité", explique Google, et intègre des informations de sécurité telles que des recherches sur les vulnérabilités logicielles, les logiciels malveillants, les indicateurs de menace et les profils comportementaux des acteurs de la menace.
Cloud Security AI Workbench englobe une gamme de nouveaux outils alimentés par l'IA, comme Threat Intelligence AI de Mandiant, qui s'appuiera sur Sec-PaLM pour trouver, identifier et agir sur les menaces de sécurité. VirusTotal, autre propriété de Google, utilisera Sec-PaLM pour aider les abonnés à analyser et à expliquer le comportement des scripts malveillants.
Par ailleurs, Sec-PaLM aidera les clients de Chronicle, le service de cybersécurité Cloud de Google, à rechercher des événements de sécurité et à interagir "de manière conservatrice" avec les résultats. Les utilisateurs du Security Command Center AI de Google obtiendront quant à eux des explications "lisibles par l'homme" sur l'exposition aux attaques grâce à Sec-PaLM, y compris les actifs touchés, les mesures d'atténuation recommandées et les résumés des risques pour les conclusions relatives à la sécurité, à la conformité et à la confidentialité.
Il ne fait aucun doute que l'IA/ML joue un rôle essentiel dans la gestion des défis quotidiens en matière de cybersécurité. Nous l'utilisons depuis plus de 20 ans. Avec la puissance de calcul actuelle et les progrès réalisés dans la compréhension et l'intégration de l'IA et du ML dans pratiquement tous les domaines technologiques, il est tout à fait naturel que ces modèles permettent des traitements en un temps record. Il ne faut cependant pas oublier que toutes les données d'entraînement et les algorithmes qui en résultent sont réactifs et s’appuient sur ce qui a été vu auparavant. L'IA "prédictive" est certainement une technologie prometteuse, mais elle peut potentiellement conduire à un grand nombre de faux positifs, ce qui aboutirait à l’effet inverse de l'objectif initial. Nous devons continuer à compter sur une supervision humaine qualifié en matière de cybersécurité pour vérifier les résultats de l'IA et valider ses actions. Comme dans tous les domaines de pointe, l’IA apporte une aide indispensable, mais sa mise en œuvre et son pilotage nécessite des compétences multiples et nouvelles, à la fois en IA et dans la discipline à laquelle elle est appliquée. Notre secteur est en tension, les ressources humaines sont rares, le défi repose sur l’attractivité et la formation.