Intelligence artificielle : comment réglementer sans freiner l’innovation ?

C’est la question fondamentale de tout progrès technique. Mais compte tenu des développements ultra-rapides autour de l’IA et des risques associés, elle s’impose tout aussi vite aux entreprises qu’aux autorités gouvernementales. Un compromis entre liberté d’entreprendre et régulation est-il possible, surtout à l’échelle mondiale ?

Eva Jaidan
Par Eva Jaidan Publié le 31 juillet 2024 à 5h00
intelligence artificielle, prompt, conseils, écrire, ia
intelligence artificielle, prompt, conseils, écrire, ia - © Economie Matin
75%75 % des dirigeants utilisent l'IA chaque semaine

Intelligence artificielle : les prémices d’une nouvelle révolution digitale

Avec l’accélération de l’intelligence artificielle, la révolution digitale prend un nouveau virage. Celle que l’on peut aujourd’hui nommer la « première révolution numérique » a principalement concerné les usages. Dans les grandes lignes, les processus physiques ont été progressivement remplacés par des outils numériques. L’intelligence artificielle semble quant à elle préfigurer ce qui pourrait s’apparenter à la « seconde » révolution numérique : celle de l’optimisation et l’automatisation (partielle) des outils et des usages. En conséquence, l'intelligence artificielle ne se contente pas de changer la façon dont nous utilisons la technologie, elle redéfinit les contours mêmes de notre interaction avec le monde numérique.

À ce titre, tous les secteurs sont concernés par l’impact de l’IA. Parmi les plus emblématiques et les plus en pointe figurent la santé et l’industrie pharmaceutique. Par exemple, l'IA permet de réduire considérablement les délais et les coûts de mise sur le marché de nouveaux médicaments. Cela est possible grâce à des algorithmes capables d'analyser rapidement des millions de composés chimiques et de prédire leur efficacité. L'IA facilite aussi la réaffectation de médicaments existants pour traiter d'autres pathologies, comme ce fut le cas avec certains médicaments réaffectés pour traiter la COVID-19. Les gains sont réels et significatifs, mais il est crucial de rester vigilant face aux risques de résultats biaisés ou erronés, ainsi qu'à une confiance excessive dans les résultats de l'IA. De plus, il faut veiller à la protection des données personnelles des patients et à leur sécurité.

En 2023, les progrès ont été tout aussi spectaculaires dans la finance : transactions et accès au crédit simplifiés, amélioration de la détection de fraudes, rationalisation des opérations financières, développement de services orientés clients, etc. Dans le même temps, l’industrie a également profité d’innovations grâce à l’IA générative : optimisation des processus industriels, réduction des arrêts de production et l’amélioration de la qualité des produits. Les enjeux environnementaux et sanitaires d’importance mondiale bénéficient aussi de cette révolution, tels que l’adaptation climatique et la sécurité sanitaire, démontrant le potentiel vaste et diversifié de l'IA pour répondre aux défis globaux.

Les prémices réglementaires de l’IA : identifier pour mieux juguler les risques

Si les progrès technologiques sont spectaculaires, la prise de conscience des enjeux et des risques l’est tout autant. Il est même rare que des innovations technologiques soient si rapidement suivis d’un besoin d’encadrement et donnent lieu à de premières réglementations. C’est le cas en particulier en Europe avec l’adoption de « l’AI Act ». Ce règlement européen, adopté en 2024, classe les risques liés à l'IA en quatre catégories : risque minimal (jeux ou utilitaires mineurs tels que les filtres anti-spam), risque limité (chatbots qui ne contrôlent pas de systèmes), risque élevé (outils utilisés dans les infrastructures ou pour prendre des décisions importantes, et ceux capables d'assurer la qualité des données, la documentation et une surveillance humaine), et risque inacceptable (pour les humains). Les IA présentant un risque inacceptable, comme les outils de surveillance biométrique (reconnaissance faciale par exemple), le scoring social et la police prédictive, sont totalement interdits.

Outre l’identification commune des risques, l’objectif de l’AI Act est d’harmoniser les règles en matière d’intelligence artificielle et d’en encadrer les pratiques : obligation d’indiquer l’origine artificielle d’un contenu généré par IA, mise en place de mécanismes de transparence et de responsabilité pour les développeurs et utilisateurs de systèmes d’IA. En d’autres termes, le plus grand impact sur l’infrastructure IT des entreprises viendra des applications IA dites à « haut risque ». Une cartographie et une supervision exhaustives sont alors nécessaires pour savoir où et comment est utilisée l’intelligence artificielle générative au sein d’un système d’information en général, et du stack technologique en particulier.

Architectes d'entreprise et IA : un rôle réactif face aux réglementations

La législation n'impactera pas directement l'architecture d'entreprise, sauf pour les projets IA développés en interne. Cependant, l'utilisation d'outils IA à "risque élevé" pourrait entraîner le retrait ou la limitation de produits par certains fournisseurs. Les architectes d'entreprise doivent donc être prêts à remplacer ou abandonner des outils non conformes, ce qui pourrait entraîner des conséquences majeures pour le paysage IT.

L’Europe n'est pas seule à alerter sur les risques de l'IA. L’OMS a publié une note soulignant la nécessité de sécuriser les systèmes et de favoriser le dialogue entre les parties prenantes en matière de santé. Sam Altman, PDG d'OpenAI, a appelé à une réglementation mondiale de l'IA, critiquant le projet européen d’AI Act comme trop restrictif, notamment en ce qui concerne l'obligation de citer les sources des documents protégés par le droit d'auteur utilisés pour entraîner les IA génératives. Aux États-Unis, un décret de 2023 signé par le président Joe Biden se concentre sur la sécurité des systèmes et la protection de la vie privée, sans imposer de contraintes sur les sources utilisées.

La législation européenne privilégie la transparence des données et la responsabilité des acteurs. Pour les architectes d'entreprise, il sera crucial de trouver un équilibre entre conformité et flexibilité pour favoriser l'innovation tout en assurant sécurité et éthique.

Quels « garde-fous » pour sécuriser l’émergence de l’IA ?

Des règles et outils de surveillance pour le développement et l’utilisation de l’IA sont essentiels pour garantir innovation et protection des utilisateurs face aux risques. Ces mesures incluent :

  • Un programme de gestion des risques documenté et maintenu.

  • Une gouvernance avancée des données pour l'entraînement, la validation et les tests.

  • Une documentation technique précise avant la mise sur le marché.

  • Des registres et journaux complets de toutes les opérations.

  • Une documentation transparente et compréhensible pour les utilisateurs.

  • Une supervision humaine du fonctionnement.

  • Un niveau approprié de précision, robustesse et cybersécurité.

En respectant ces règles, l'IA pourra évoluer de manière responsable, éthique et durable, tout en minimisant les risques. Cependant, il est crucial d'équilibrer régulation et innovation, en guidant les investissements vers des domaines prometteurs de l'IA tout en préservant un cadre réglementaire adéquat.

Réglementer pour flécher les investissements : le bon compromis ?

Si les doctrines sont différentes d’un pays ou d’un continent à l’autre, les autorités publiques s’attellent à encadrer dès aujourd’hui les usages de l’intelligence artificielle. Mais elles ne sont pas les seules : les organisations elles-mêmes, qu’elles soient publiques ou privées, sont nombreuses à définir des règles d’usage internes strictes quant aux IA. L’objectif est d’éviter les risques de fuites de données ou de divulgation de secrets industriels, ou encore de limiter le manque de transparence et les biais des solutions.

Qu’il s’agisse de réglementation publique ou d’encadrement interne, la question à se poser est toujours la même : un cadre a priori ne risque-t-il pas de freiner l’innovation ? Et un cadre a posteriori permettrait-il de réfréner les mauvaises pratiques ou abus qui pourraient rapidement apparaître ? Une question qui vaut d’ailleurs pour tout type d’innovation.

Et si le compromis résidait dans une approche incitative plutôt que coercitive ? On pourrait envisager des mesures pour orienter la R&D en IA vers des thématiques spécifiques, tout en insistant sur la sensibilisation et la formation des utilisateurs. Comme pour la cybersécurité, l'utilisateur reste le premier rempart, ou potentiel maillon faible.

Un utilisateur bien informé pourra repérer les abus et adopter une attitude réfléchie face aux informations. Ainsi, le rôle des entreprises dans la sensibilisation, l'éducation et la promotion des bonnes pratiques en IA est crucial. De même, l'éducation des jeunes élèves à l'école est essentielle pour développer leur esprit critique face à l'augmentation du volume d'informations.

Une régulation mondiale nécessaire

Dans tous les cas, et compte tenu de l’aspect transnational des réseaux numériques, la régulation de l’IA devra s’entendre au niveau mondial. Bien qu'elle puisse nécessiter des compromis, une telle approche garantira son efficacité. En effet, comment pourrait-on imposer une réglementation stricte, telle que celle adoptée en Europe, à des systèmes d'IA dont les infrastructures sont situées sur d'autres continents ?

Cette démarche s'avère non seulement irréaliste, mais aussi contre-productive, risquant à terme de ralentir l'Europe dans la course à l'intelligence artificielle. Une régulation mondiale, cohérente et harmonisée, maximiserait les bénéfices de l'IA tout en minimisant ses risques. Cela assurait un développement durable et éthique de cette technologie révolutionnaire.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Eva Jaidan

Eva Jaidan est Directrice Intelligence artificielle chez MEGA International. Titulaire d'un doctorat en Intelligence artificielle (IA) industrielle et d'une formation en mathématiques appliquées, elle a plus de 8 ans d'expérience dans l'application de l'IA et le développement de produits basés sur la science des données. En tant que directrice de la stratégie d'IA chez MEGA International, elle travaille sur la mise en place de solutions innovantes utilisant l’intelligence artificielle afin d’accompagner les organisations dans leur transformation et l’atteinte de leurs objectifs.

Aucun commentaire à «Intelligence artificielle : comment réglementer sans freiner l’innovation ?»

Laisser un commentaire

* Champs requis