La sécurité très artificielle de l’intelligence artificielle

Cropped Favicon Economi Matin.jpg
Par Fortunato Guarino Publié le 2 mai 2017 à 5h00
Intelligence Artificielle Securite Risques
@shutter - © Economie Matin
20 %L'intelligence artificielle pourrait générer une augmentation de la productivité de 20 % en France.

Le moteur de recherche de Google, est-il une intelligence artificielle, ou pas ? Le logiciel Siri de Apple ou bien encore Pepper, le petit robot français, sont-ils des IA, ou pas ? Et le programme Autopilot de Tesla, est-il de l’IA, ou pas ? Toutes ces inventions sont-elles risquées ?

Depuis l’école primaire, on nous apprend que pour traiter d’une problématique, faut-il encore en définir les termes. Définir l’intelligence artificielle pour en apprécier son risque, c’est bien là tout l’enjeu qui nous occupe. Qu’est-elle et que n’est-elle pas ? Quels en sont les contours ? Quelles en sont les applications ? La technologie conduit-elle les usages, ou est-ce l’inverse ? Quels en sont donc les risques ? Quelle place devrait-elle occuper dans nos sociétés, et pour quelle éthique ?

Super intelligence ou clone de l’intelligence humaine, l’intelligence artificielle est multiple

Bien qu’elle soit l’objet de toutes les attentions des médias et du monde de l’innovation depuis peu, l’intelligence artificielle n’est pas une discipline nouvelle mais plutôt d’après-guerre. Pour autant, ces multiples déclinaisons aujourd’hui dans la vie quotidienne en font un champ exploratoire en construction et en devenir.

En s’extrayant des images de science-fiction qui nous viennent naturellement à l’esprit quand on parle d’IA, il faut bien y voir une discipline scientifique dont la vocation est de répondre à des problématiques plutôt « complexes ». Il s’agit de développer des méthodes pour doter des machines de fonctions proches des fonctions cognitives de l’être humain. Il s’agit de la capacité à la compréhension, à l’apprentissage, au langage, à la mémoire, au raisonnement ou encore à la décision. Pour cela, la machine doit être dotée d’outils de rationalisation, de raisonnement et de perception. Si la science-fiction a davantage traiter du développement d’une conscience par l’IA, c’est allé, à ce jour, un peu vite en besogne. L’IA d’aujourd’hui est une affaire d’ingénierie et d’algorithmie de haute volée beaucoup plus que de conscience.

L’essence des IA développées à ce jour est de nous supplanter dans la pratique de certaines tâches. Le développement de la robotisation et de l’automatisation surtout dans le monde industriel permet d’absorber des tâches pénibles ou à risque. Certaines IA permettent aussi de faire plusieurs opérations complexes en parallèle, comme c’est le cas avec un véhicule connecté. Ces IA développent en somme une autonomie d’action. Elles combinent non seulement la capacité à percevoir et à analyser des grandes quantités de données desquelles se traduise un problème à résoudre, à la capacité de les traiter pour en apporter une solution. Comment ? Parce que les développeurs la dotent d’une puissance algorithmique complexe combinée à une immense puissance de calcul. Cela marque d’ailleurs le retour en grâce de la loi de Moore sur la puissance de calcul, et l’infinie importance des processeurs. La machine intègre et rationnalise des boucles décisionnelles venant de raisonnements humains. Agrégateur de modèles décisionnels tant qualitativement que quantitativement, l’IA va donc être en capacité d’imiter le comportement humain. Sa fonction d’apprentissage, ce qu’on appelle le Machine learning et également le Deep learning, est un peu la cerise sur le gâteau puisque la machine in situ, mise en situation, va se voir valider ou invalider ces réactions par ses développeurs, ce qui in fine, va affiner son « intelligence » et enrichir sa palette de solutions pour s’adapter au mieux aux situations. C’est ce qui marque réellement sa différence avec un autre ordinateur et c’est en cela qu’on est clairement dans du cognitif.

Mais contrairement à un cerveau humain auquel on ne peut greffer de neurones supplémentaires ni créer de nouvelles connexions neuronales, ça l’est pour une machine. C’est un point de bascule, en ce qu’elle devient une Super Intelligence, bien plus que ne le sera jamais un être humain. L’application la plus impressionnante en est l’analyse prédictive. C’est le cas d’une solution comme PredPol, le fameux logiciel capable de « prévoir » les crimes. D’autre solutions reposant sur de l’analyse attitudinale, c’est-à-dire capables de prévoir des comportements psychologiques, sont utilisées dans le secteur bancaire ou de l’assurance, pour savoir quel produit vous vendre. L’autopilot de Tesla a aussi démontré qu’il était en capacité d’éviter un carambolage et stopper sans danger, le véhicule dans lequel il est embarqué et ainsi protéger ses passagers. La perception de données factuelles, associée à sa puissance et à sa vitesse de calcul lui a en effet permis de comprendre que se préparait un accident originel, source de carambolage.

A côté de ces développements, il existe bel et bien des recherches sur une l’IA dite « forte » reposant cette fois sur les fonctions cognitives supérieures, comme le jugement moral, la perception du beau, les sentiments. Néanmoins, le chemin est encore loin avant qu’une machine puisse cumuler performance cognitive, intelligence émotionnelle, et surface de connaissances et d’expériences aussi large que l’Homme. Un des freins à cela est que l’IA est hyperspécialisée dans un domaine, ce qui rend sa capacité de jugement par définition limitée.

Entre mythes SF et réalités économiques et éthiques

Défini et donc dépassionné, le débat sur l’IA n’en reste pas moins essentiel car les risques qu’elles comportent n’ont rien à envier à la Science-fiction. Depuis 2015 surtout, la Presse s’est fait l’écho des craintes formulées par Elon Musk, Bill Gates ou encore Stephen Hawking sur les risques et dérives possibles de l’IA. Si le physicien redoute la fin de la race humaine, Bill Gates et Elon Musk craignent la perte brutale de nombreux emplois, ayant d’ailleurs donné lieu à la proposition de taxation des robots, mais également des problèmes éthiques, des chocs de ruptures sociétales et la perte de contrôle de pans entiers de la vie économique. À y regarder de plus près, cela ne s’arrête pas là et n’est pas si nouveau.

Même si un rapport de 2012 a exonéré de responsabilité ce qu’on appelle le Trading à Haute Fréquence, pratique boursière consistant à passer des ordres automatisés à des vitesses toujours plus rapides grâce à des programmes informatiques très sophistiqués, rappelons-nous du mini Krach boursier du 6 mail 2010, à Wall Street. S’il y a bel et bien un secteur qui utilise de l’IA depuis longtemps c’est bien le monde de la finance. Si le marché était certes instable ce 6 mai et que c’est la cause première du krach, le rapport démontre bien que l’IA a bel et bien facilité et encouragé le krach. Peu importe les répercussions et le moment, une IA boursière est conçue pour battre une IA boursière concurrente et gagner de l’argent, et il n’est pas question de la stopper.

Qu’on se le dise, la perte de contrôle a déjà commencé sans que l’on en soit très conscient et la maîtrise des marchés n’est pas anodine. Le nombre et la vitesse de calculs sont tels sur les marchés que les traders seraient bien dans l’incapacité aujourd’hui de reprendre la main sur les processus boursiers, sans que les bouleversements soient fortement impactant.

Les risques soulevés ont également concerné l’éthique. Des études planchent par exemple sur les choix cornéliens posés aux véhicules intelligents, comme celui d’un accident inévitable qui conduit soit à renverser une personne ou à se précipiter dans un ravin, ou encore à « choisir » entre renverser un adulte ou un enfant. Le véhicule autonome étant doté de la capacité d’apprendre, c’est bien qu’il ne sait pas tout de manière native. Ce n’est donc que par la masse des boucles décisionnelles que l’IA intègre, qu’il adapte son comportement et l’affine. Il est donc impossible d’envisager tous les cas de figure, mais on peut imaginer qu’à terme, certaines IA intégreraient un socle de grands principes moraux partagés par tous.

Mais que se passe-t-il quand une même situation peut donner lieu à deux réponses différentes, suivant le code moral, propre au propriétaire du véhicule ? Comment prendre en compte les croyances des uns et des autres, la spiritualité ou le rapport aux risques des uns et des autres ? Que peut faire l’IA face aux problématiques de personnalisation ? De la même façon, l’IA comprend -elle la force majeure ? Pour illustrer le propos, prenons le cas d’un véhicule autonome dont l’objectif est d’assurer la sécurité, qui estimerait que rouler sur un batracien traversant une nationale est moins dangereux pour les occupants, que de faire une embardée, alors même que le propriétaire du véhicule est un défenseur avéré de la cause animale ?

Et pour dérouler le sujet jusqu’au bout, quelle serait l’issue d’une plainte de ce même conducteur qui estimerait que le comportement de son véhicule a violé ses croyances ? Un comportement non habituel ne signifie pas qu’il soit illégitime. Si le véhicule a estimé que rouler sur la grenouille constituait un risque de 3%, contre une embardée à 10%, comment également apprécier le rapport aux risques propre à chacun ? Le conducteur aurait-il gain de cause en estimant que la prise de risques à 10% valait bien la vie de la grenouille ? Et qui serait responsable ? Le dirigeant ? Le développeur ? Le RSSI ?

Toutes ces questions laissent entrevoir les nœuds de problèmes que nous promet l’IA. Est-ce à dire que nous nous dirigeons vers des conditions générales d’achat longues comme le bras, accumulant les exceptions de responsabilité pour l’achat d’une simple voiture ?

Le risque oublié : la sécurité de l’IA

Si nous venons de voir que là où l’Homme peut adapter en permanence son objectif à la situation, celui d’une IA est limité et ancré et peut rendre son comportement certes logique mais en inadéquation totale avec une situation donnée et donc dangereuse. Pour certaines applications, les résultats peuvent en être dramatiques. Une réponse inadaptée d’une IA sur des points sensibles d’une chaîne de production ou de l’IA sur des systèmes mêmes de sécurité informatique peut faire craindre le pire, et l’inverse de tout ce pour quoi ces IA sont conçues.

Mais si ici, c’est la réponse de l’IA qui en cause par manque d’apprentissage, il est un autre risque dont on parle peu. Quid en effet de la cybersécurité de l’intelligence artificielle ? Alors que la cybercriminalité est en tête de liste des menaces, les IA sont-elles aujourd’hui conçues de façon sécurisée, non seulement à travers les lignes de codes qui les constituent, mais également dans les environnements dans lesquels elles évoluent ? Si l’IA est développée par les mêmes communautés que celles des objets connectés, on peut craindre la formation à la sécurité soit particulièrement insuffisante.

Si l’image d’une IA prenant conscience d’elle-même et faisant ses propres choix, à la mode HAL9000 dans l’Odyssée de l’espace de Stanley Kubrick est encore du ressort de l’imaginaire, il n’est nullement fantaisiste de redouter que des personnes malveillantes peuvent prendre le contrôle de telles puissances pour en détourner leur fonction originelle. La prise de contrôle à distance d’un véhicule autonome pour commettre un assassinat est un exemple extrême, mais bien plausible.

Comme en son temps où la bioéthique a permis de canaliser les champs du possible de la biologie, l’IA doit pouvoir évoluer dans un cadre réglementé et contrôlé. Si le GDPR va baliser l’exploitation des données personnelles, on peut espérer que les travaux lancés par le Gouvernement le 20 janvier dernier pour aboutir à une Stratégie Nationale en Intelligence Artificielle en sera l’occasion. Le groupe de travail, qui ne compte malheureusement aucun expert en cybersécurité, doit contribuer à définir les grandes orientations de la France en matière d’intelligence artificielle et répondre aux inquiétudes qu’elle suscite. Affaire à suivre…

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Cropped Favicon Economi Matin.jpg

Fortunato Guarino est Consultant cybercriminalité et protection des données, pour la région EMEA, au sein de la société Guidance Software depuis 2016. Avant de rejoindre Guidance, Fortunato a travaillé pendant plus de 18 ans dans le milieu de l’informatique, occupant plusieurs rôles, Responsable de la Sécurité des Systèmes d’Information (RSSI), Responsable division cybersécurité, Consultant eDiscovery et expert IT auprès de Cours de justice. Fortunato est titulaire d’un Master IT de l’Université de Jussieu, d’un master en politique de l’Université Sorbonne ainsi que d’un Master en économie également obtenu à La Sorbonne.

Aucun commentaire à «La sécurité très artificielle de l’intelligence artificielle»

Laisser un commentaire

* Champs requis