L’urgence fondamentale qui motive les politiques d’Intelligence Artificielle (IA) responsable est enracinée dans des thèmes tels que la vie privée, la sécurité, l’équité et la transparence. De nombreuses discussions sur le machine learning, les algorithmes adaptatifs, l’apprentissage profond, ou encore de l’IA générative – à l’origine de l’essor actuel de l’IA – brouillent les concepts d’IA. Les gens s’inquiètent de l’utilisation abusive de leurs données, de la déformation de leurs mots et de la dénaturation de leur travail, ce qui crée un climat d’incertitude et de doute.
Comment définir et mettre en œuvre une ‘IA responsable’ ?

Comment s’assurer que l'IA ne trompe pas, ne désinforme pas et ne porte pas préjudice aux humains ? Comment fournir à l'IA le niveau nécessaire d'autosuffisance et d'autonomie tout en protégeant les consommateurs et les entreprises ?
Telles sont les questions auxquelles de nombreux ingénieurs en IA, universitaires, experts juridiques, décideurs politiques et chefs d'entreprise s'efforcent de répondre, alors que de nouvelles réglementations tentent d'établir un équilibre entre IA responsable et innovation. Mais avant d'aborder la manière dont les entreprises peuvent mettre en pratique l'IA responsable, nous devons d'abord nous pencher sur une autre question : Qu'est-ce que l'IA responsable ?
Peut-on définir l’‘IA responsable’ ?
L'Organisation internationale de normalisation (ISO) apporte une solide définition de base, indiquant que « L'IA responsable renvoie à une approche du développement et du déploiement de l'intelligence artificielle sous un angle éthique et juridique. L'objectif consiste à employer l'IA de manière sûre, fiable et éthique. Ainsi, son utilisation gagnerait en transparence et contribuerait à limiter les problèmes tels que les biais. »
Bien que l'intention de l'IA responsable soit assez simple, les parties prenantes peinent à trouver un consensus sur sa mise en pratique. Actuellement, il appartient aux entreprises et aux individus de développer des cadres qui permettent de se conformer aux normes éthiques de l'IA responsable et aux processus de supervision. Cependant, de nombreuses organisations de normalisation, agences publiques de réglementation et instances de régulation professionnelle tentent de fournir des cadres directeurs.
Par exemple, en juillet 2024, l'Union européenne a promulgué un texte législatif pionnier - le EU AI Act (ou loi européenne sur l'intelligence artificielle) - qui constitue le premier cadre juridique complet visant à réglementer le développement et l'utilisation de l'IA.
Mettre en pratique une définition sur le lieu de travail
Quelles mesures supplémentaires les entreprises doivent-elles prendre pour s'assurer de respecter des pratiques responsables en matière d'IA ? Bien qu’il soit difficile de répondre à cette question sans connaître le type d'IA exploité et son application, voici quelques bonnes pratiques générales :
-
Confirmer et vérifier la source du modèle ou de l'outil d'IA - comprendre les principes éthiques, les politiques et les pratiques du fournisseur de solutions technologiques et de toute autre partie impliquée dans sa formation ou sa supervision. Agissent-ils de manière responsable pendant le développement et la formation du modèle ? Quelles sont leurs intentions actuelles et à long terme vis-à-vis du modèle ?
-
Comprendre l’origine des données d’entraînement du modèle et leur mode de traitement - des contrôles sont-ils en place pour empêcher que des informations non publiques ou confidentielles soient partagées en dehors de l'instance ou de l'organisation du modèle ? Une entreprise peut-elle faire confiance à la source de données si le modèle utilise des données de tiers pour fournir des services.
-
Assurer une supervision humaine (Humans in the loop - HITL) - la supervision humaine des systèmes d'IA est essentielle. Le jugement et l'intervention humaine dans le processus décisionnel de l'IA peut s'avérer crucial pour améliorer la sécurité, la fiabilité et le respect de l'éthique.
-
Évaluer le risque d'hallucinations et établir des protocoles de vérification des résultats - les entreprises doivent confirmer l'exactitude des résultats de l'IA. Même les modèles bien entraînés et à faible risque peuvent fournir des résultats erronés (tout comme l’humain). La mise en œuvre d'une approche HITL pour aider à minimiser les risques d'hallucinations est généralement une bonne pratique.
-
Mettre en place des garde-fous pour s'assurer que les données ne sont pas introduites dans le modèle sans les autorisations nécessaires - les données peuvent comprendre des informations sur les clients, les partenaires, les fournisseurs ou la connaissance générale du marché, ainsi que des données opérationnelles et personnelles, parfois confidentielles, des documents protégés par des droits d'auteur, ainsi que d'autres données pour lesquelles une autorisation d'utilisation peut être requise.
-
Citer les sources utilisées pour générer les résultats - Il est essentiel que les entreprises reconnaissent l'origine du travail lorsqu'elles utilisent l'IA pour générer du contenu, quel que soit le format ou l'utilisation prévue. Les responsables de projet Gen AI comprennent les différences et les corrélations entre la « paternité » et la « propriété » du contenu. Préciser l’origine du contenu généré favorise la transparence des pratiques responsables en matière d'IA.
Les pratiques responsables en matière d'IA ne se limitent pas à la conformité. Elles concernent l'intégrité, le caractère et (plus largement) la culture d'une personne. Bien que des formations et des procédures complémentaires soient nécessaires pour comprendre les nuances de l'IA et de l’IA générative, les organisations doivent établir un solide ensemble de principes éthiques pour servir de filet de sécurité.