L’utilisation de l’intelligence artificielle (IA) dans les attaques frauduleuses visant les institutions financières ne cesse de croître, avec plus d’un tiers des tentatives de fraude exploitant désormais cette technologie.
Cybersécurité : la montée en puissance de l’IA dans les fraudes financières
Une menace en croissance
Selon un rapport récent de Signicat, leader européen des solutions d'identité numérique et de prévention de la fraude, réalisé en partenariat avec le cabinet de conseil Consult Hyperion, les fraudeurs utilisent de plus en plus l'IA pour mener leurs attaques. Il y a trois ans, l'IA était principalement utilisée pour créer des identités synthétiques et des documents falsifiés. Aujourd'hui, elle est utilisée à une échelle plus large pour les deepfakes et les attaques d'ingénierie sociale.
Un tiers des fraudes reposant sur l'intelligence artificielle parviennent à s'introduire chez les victimes, avec 42,5 % des tentatives détectées faisant appel à cette technologie et 29 % d'entre elles étant réussies. Les victimes rapportent que dans son organisation, 70 % des tentatives de fraude impliquaient l'intelligence artificielle. Environ 38 % des pertes de revenus liées à la fraude sont imputables à des attaques utilisant l'IA.
Le secteur B2B : une cible privilégiée
La prise de contrôle de comptes, autrefois considérée comme un problème touchant principalement les consommateurs, est désormais le type de fraude le plus courant dans les organisations B2B. Les attaques par prise de contrôle de compte utilisent souvent des mots de passe faibles ou réutilisés et les deepfakes pour usurper l'identité du titulaire d'un compte plutôt que de créer une nouvelle identité. Cela représente désormais une tentative de fraude sur quinze.
Un combat compliqué conte l'IA
Malgré une compréhension claire de la menace que représente l'intelligence artificielle, les organisations ne sont pas préparées à y faire face. Les décideurs en matière de fraude admettent que l'intelligence artificielle facilitera la quasi-totalité des fraudes d'identité à l'avenir et qu'elle rendra la fraude plus accessible et à une plus grande échelle. Cependant, les entreprises manquent souvent de ressources pour se défendre adéquatement. Moins d'un quart d'entre elles ont commencé à mettre en œuvre des mesures pour contrer cette menace, et la plupart des plans de défense sont encore en phase de planification pour les douze mois à venir.
« La fraude a toujours été l'une des plus grandes préoccupations de nos clients, et la fraude pilotée par l'IA devient maintenant une nouvelle menace pour eux. Elle représente désormais le même nombre de tentatives réussies que la fraude en général, et elle est plus fructueuse si l'on considère la perte de revenus », a déclaré Asger Hattel, PDG de Signicat. « L'IA va devenir de plus en plus sophistiquée. Si notre étude montre que les décideurs en matière de prévention de la fraude comprennent la menace, ils ont besoin de l'expertise et des ressources nécessaires pour éviter qu'elle ne devienne une menace majeure. »
David Birch, directeur chez Consult Hyperion, ajoute : « Il est essentiel que les entreprises financières disposent d'une stratégie solide pour lutter contre la fraude à l'identité induite par l'IA. L'identité est la première ligne de défense. Les systèmes d'identité doivent être capables de résister et de s'adapter à des tactiques de fraude en constante évolution, afin de protéger les clients légitimes et d'assurer la réputation du service. »