L’Homme et l’IA, un binôme au service de la cybersécurité

Cropped Favicon Economi Matin.jpg
Par Péter Gyöngyösi Publié le 7 octobre 2017 à 5h00
Intelligence Artificielle Securite Informatique Donnees
@shutter - © Economie Matin
46 milliards $En 2020, le marché mondial de l'intelligence artificielle pèsera 46 milliards de dollars.

Cela ne vous aura pas échappé, voilà plusieurs mois que l’Intelligence Artificielle déchaîne les passions.

Véritable sujet de R&D ou simple levier marketing, c’est encore plus vrai depuis que les non moins célèbres Elon Musk, Bill Gates et Stephen Hawking l’ont qualifiée comme l’une des pires menaces que pourrait connaître l’humanité, jusqu’à œuvrer pour y mettre un coup d’arrêt. La levée de bouclier contre les robots lors de la campagne présidentielle en France n’a pas fini d’exacerber également le sujet.

Mythes et réalités autour de l’IA

Pas toujours très bien définie et circonscrite, voire mal mise en perspective, l’IA, qui plus est dans un contexte économique encore fragile, sacralise certaines peurs. Ces dernières sont surtout au nombre de trois. La première est que les machines intelligentes pourraient supplanter le cerveau humain, le dépasser et qu’elles fassent des Hommes ni plus ni moins des esclaves à leur service. La deuxième concentre l’aspect le plus économique : la destruction d’emplois. Enfin, la dernière tient en l’idée que l’Homme serait en quête d’utilité dans la société puisque les machines occuperaient toute l’espace. Ces peurs sont-elles fondées ? N’existerait-il pas d’autres hypothèses de cohabitation entre l’Homme et la machine ?

Force est de constater que le procès intenté à l’Intelligence Artificielle a mêlé fantasmes, futurologie de très long terme et science-fiction, en en oubliant même les définitions de base. Pour en reprendre une qui fait foi, celle de Marvin Lee Minsky, l’IA est décrite comme « une construction de programmes informatiques qui s’adonnent à des tâches qui sont pour l’instant, accomplies de façon plus satisfaisantes par des êtres humains car elles demandent des processus mentaux de haut niveau tel que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Du Trading Haute Fréquence à la voiture autonome en passant par les solutions d’analyse comportementale ou de threat Intelligence usant d’IA, il existe bel et bien des concrétisations d’IA.

Si on peut avaliser que l’IA, dans ces cas précis, détient une capacité de stocker de l’information, de reconnaître des mécanismes et des processus, de les intégrer et du coup d’enrichir sa base d’informations, en somme d’apprendre, pour affiner toujours davantage la réponse donnée, y voir en revanche un asservissement davantage que du service technologique, reste à démontrer. Nous ne le pensons pas.

On peut à ce titre se demander dans quelle proportion le sujet du transhumanisme, à savoir l’idée selon laquelle l’usage des sciences et des techniques peut contribuer à améliorer les caractéristiques physiques et mentales de l’être humain, n’a pas dévié celui de l’IA. En effet, les idées selon lesquelles l’Homme va emprunter au robot pour être plus fort, et le robot emprunter à l’Homme pour « ressentir », ont pour effet de porter la machine et l’Homme au même niveau et d’en faire ainsi des concurrents, des ennemis qui peuvent s’affronter. Bien des films se sont d’ailleurs inspirés de telles hypothèses…

L’Homme et l’IA, un binôme au service de la cybersécurité

Notre époque, où tout va très vite et où le numérique se perfectionne, ne gagnerait-elle pas à allier homme et machine ? Par exemple pour innover, a fortiori en cybersécurité où l'intuition humaine ne suffit plus pour lutter contre les méthodes sophistiquées des cybercriminels, et où l’IA seule ne suffit pas à détecter les attaques les plus avancées…

Cela fait écho aux dires du Professeur Lee Hadlington, cyber psychologue de l'Université de Montfort au Royaume-Uni. Il explique que nous aurons toujours besoin d’un élément humain dans tout système automatisé, surtout lors de la prise de décision. Le problème majeur est que les humains voient d’un mauvais œil leur dépossession par les machines des aspects les plus critiques d’une prise de décision. Ce n’est pas forcément que les humains sont meilleurs que les machines, c’est surtout que les humains ne font pas encore vraiment confiance aux machines, ajoute-t-il.

La gestion des risques implique de connaître plusieurs paramètres. Le plus délicat aujourd’hui est celui de la menace. Pour identifier et évaluer la menace, il est nécessaire de disposer de renseignements. Ceux-ci prennent différentes formes comme des faits connus, des indicateurs de compromission ou encore des vecteurs d’attaques connus. Malheureusement, les cybercriminels ont souvent un temps d’avance et les défenseurs naviguent de plus en plus en eaux troubles, soient qu’ils ne disposent pas de données brutes ou qu’il y a au contraire bien trop de bruit pour en tirer quelque chose. C’est là que l’IA et plus particulièrement le machine learning permet d’apporter de la valeur ajoutée et d’y voir clair dans la masse informationnelle. Compte tenu de la puissance de calcul et d’algorithmie, l’IA peut identifier des modèles inconnus ou des modèles de comportement, en somme d’identifier l’ « anormal » au milieu des référentiels normaux avec lesquels elle a été initialement nourrie.

L’IA n’a en revanche aujourd’hui aucun moyen d’injecter dans la gestion du risque les attributs du chemin criminel, à l’instar de l’intention, du mobile ou encore de la motivation. Le cerveau humain analyse moins d’informations en quantité, mais davantage d’informations de natures différentes ce qui lui permet de résoudre un problème de manière appropriée et non pas forcément logique. C’est bel et bien le binôme entre raisonnement critique humain avec tout ce qu’il embarque comme irrationnel, avec la puissance de la machine qui peut aboutir à identifier des menaces inconnues.

Opérationnellement, la tendance est souvent de vouloir améliorer ses faiblesses plus que de renforcer ses points forts. Et pourtant. Dans une situation critique, piloter une décision liée à la sécurité d’un environnement critique pourrait amener à penser que la machine est capable de mieux faire, de ne rien omettre. C’est au contraire fortement risqué. La décision finale revient au cerveau humain car c’est le seul à pouvoir pousser une réponse qui ne prend pas en charge le seul événement, mais également la nécessité d’apprendre de l’événement. Former les équipes, améliorer les processus, les SI. Les machines sont quant à elles - un gain d’effectivité réel - quand elles sont dans une logique d’automatisation et d’apprentissage logique et routinier. Cela permet indéniablement de laisser les analystes se concentrer sur ce qui fait leur véritable valeur ajoutée.

Quant à penser qu’à force de laisser les machines gérer ces tâches, l’être humain risque d’y perdre sa propre intelligence, pourquoi ne pas laisser sa chance à l’idée que l’évolution neuronale suit le même cycle que notre évolution physiologique… Pourquoi ne pas penser que laisser de l’espace à notre cerveau pour des réflexions plus pointues ne l’aiderait pas à améliorer son intelligence naturelle ?

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Cropped Favicon Economi Matin.jpg

Péter Gyöngyösi, Responsable Stratégie et Développement Privileged Account Analytics chez Balabit

Aucun commentaire à «L’Homme et l’IA, un binôme au service de la cybersécurité»

Laisser un commentaire

* Champs requis