Qu’il s’agisse de ChatGPT ou d’une “photo” du pape dans un manteau à la mode, il est difficile d’ignorer l’intelligence artificielle de nos jours. Parmi un nombre croissant d’histoires positives, cette technologie attire également son lot de critiques. L’une des objections à l’IA serait, notamment, que la technologie n’est pas inclusive. Mais pourquoi ? Et que pouvons-nous faire à ce sujet ?
Pour une IA inclusive, il faut une société inclusive !
Tout d'abord, voici un exemple pour illustrer le manque d'inclusivité de l'IA : Si vous demandez à une IA de créer l'image d'une femme sur un cheval, il s'agira très probablement d'une femme blanche ou asiatique avec de longs cheveux. Ce qui n'est pas surprenant, car les images de femmes à cheval les plus courantes sur Internet ressemblent à cela.
Si ce manque d’inclusivité est relativement inoffensif, il arrive parfois que l’objectivité toute relative des intelligences artificielles puisse heurter la sensibilité du grand public. Rappelons qu’en 2015, l'algorithme de Google Photos avait catégorisé une utilisatrice de couleur comme étant un ‘gorille’, faisant exploser au grand jour les failles d’un système aussi complexe que délicat.
Plusieurs biais de ce type sont d’ailleurs observables selon les demandes faites aux IA, reflétant immanquablement les biais humains sur l’égalité homme/femme, le racisme, le handicap, etc.
Un autre exemple parlant : si l’IA montre une photo d'un poisson, la technologie ne reconnaîtra probablement pas le poisson en tant que tel, sauf si des doigts sont également visibles sur la photo. En effet, il existe de nombreuses photos en ligne de personnes tenant un poisson. Or, le monde en ligne est le seul cadre de référence dont dispose l'IA et, malheureusement, ce monde n'est pas aussi inclusif que nous le souhaiterions. Il en va de notre ressort à nous, humains à l’origine d’Internet, de faire de l’IA un outil inclusif. Pourquoi s'étonne-t-on que l’IA ne soit pas inclusive, lorsque l’on voit un manque d’inclusivité probant de notre société ?
L’IA est un enfant à qui il faut tout apprendre
Après tout, l'IA est comme un enfant : elle imite notre comportement et fait ce que nous lui disons de faire. Lorsqu'un petit enfant fait quelque chose qu’il n'est pas autorisé à faire, nous rejetons souvent la faute sur les parents, car ceux-cis n’auraient pas élevé leur enfant correctement. Comment est-il possible qu'avec l'IA, nous ne portions pas le blâme sur nous-même, mais sur la technologie ? Nous ne pouvons pas attendre de cette technologie qu'elle sache ce qu'elle fait simplement parce que nous la qualifions d'"intelligente". Il faut d’abord se regarder dans le miroir, car nous en sommes à l’origine.
La frontière entre la ressemblance homme/machine tendant à s’estomper, cela crée de fait un transfert presque immuable du mimétisme émotionnel de l’humain sur les réseaux informatiques, semblables aux réseaux neuronaux. L’IA est ainsi aux développeurs ce que Frankenstein était à son créateur : une entité autonome dotée de capacités calquées sur une base de données plus ou moins stables, programmée à reproduire les comportements de son modèle.
De cette façon et en nous appuyant sur les modes de pensées actuels ainsi que leurs conséquences sur l’univers physique qui nous entoure, nous comprenons plus aisément le manque de diversité/d’inclusion de ces IA, souvent pointé du doigt. La professeure Sasha Luccioni remarquait d’ailleurs la faible part de femmes parmi les développeurs à l’échelle globale, ce qui peut faciliter l’intégration de biais inconscients dans les algorithmes.
Commençons par apporter un peu de neutralité
Internet et l'actualité sont remplis d'extrêmes. Une opinion modérée est moins intéressante à lire. L'IA ne connaît donc que les extrêmes et n'a guère été initiée à la neutralité d'Internet. Notre tâche consiste donc à remplir le web d'informations nuancées, afin que l'IA apprenne également à connaître et reconnaître cette zone intermédiaire.
Cela signifie que nous devons recommencer de zéro et apprendre à avoir une vraie conversation avec les autres, à la fois hors ligne et en ligne. Ce n'est que de cette manière que les extrêmes peuvent être réunis dans une zone grise plus neutre, dont l'IA doit ensuite se nourrir. Après tout, ChatGPT est fait pour avoir des conversations et est basé sur les probabilités. Mais il est souvent utilisé comme un outil d'information, alors que la technologie ne possède pas les bonnes ressources pour cela, à ce jour. C’est bien sûr pour cela que nous avons besoin des mathématiques. Nous savons tous que 1 + 1 = 2 et que cette réponse est la seule réponse possible, quoi qu'en disent les autres.
La réalité est bien plus complexe, constituée de multiples dimensions d’interprétation et de consensus entre des entités ‘pensantes’, il y a désormais la nécessité d’introduire la notion de nuance au sein des algorithmes pour saisir tous les enjeux d’une requête.
Ne croyons pas tout ce que nous dit l’IA
Avant de demander des informations à l'IA, nous devons donc faire preuve d'esprit critique et réfléchir soigneusement aux informations que nous lui transmettons. En commençant par les informations que nous mettons en ligne, puis les questions que nous posons à la technologie. Après tout, l'IA n'est pas "la vérité sacrée" et donnera parfois des résultats incorrects, ou des résultats qui ne nous conviennent pas, simplement parce que notre propre pensée n'est pas confirmée.
Quelle que soit votre opinion sur l'IA et la manière dont vous l'abordez, il est toujours important de garder à l'esprit que la courbe d'apprentissage de l'IA prend beaucoup de temps. Après tout, une version plus inclusive de l'IA commence par une version plus inclusive de nous-même.
Depuis une dizaine d’années nous assistons à l’émergence fulgurante de ces intelligences artificielles, toujours plus performantes et innovantes pour développer les capacités de la sphère numérique. Cependant, l’arrivée de programmes comme ChatGPT sur un marché déjà très avancé n’est pas uniquement synonyme de prospérité. Découlent de ces inventions de nouveaux questionnements, de nouvelles angoisses, qui peuvent parfois trouver leurs sources dans des dérapages de ces systèmes. Dans un futur proche où ces IA vont devenir omniprésentes, il apparaît nécessaire de combler les failles observables pour perfectionner les modèles et amoindrir, entre autres, des erreurs délicates sur le plan éthique, miroir des comportements humains.