Réduire les biais de l’IA avec un recrutement plus diversifié : utopie ou réalité ?

Cropped Favicon Economi Matin.jpg
Par Raphael Savy Publié le 24 février 2022 à 6h07
Amazon Embauche Intelligence Artificielle 2
@shutter - © Economie Matin
62,5 MILLIARDS $Le marché de l'intelligence artificielle devrait atteindre 62,5 milliards de dollars en 2022.

Ce n'est un secret pour personne : une main-d'oeuvre diversifiée et inclusive aura un véritable impact positif sur les résultats commerciaux de l’entreprise. Un récent rapport de McKinsey a souligné que les entreprises dans lesquelles les femmes étaient bien représentées et occupaient des postes de direction étaient jusqu'à 50 % plus rentables que celles dans lesquelles la diversité n'était pas prise en compte.

Avec un lien aussi évident entre la diversité, l'équité et l'inclusion (DE&I) et le succès commercial, les entreprises se tournent vers la technologie pour aider à conduire le type de changement nécessaire pour créer des lieux de travail où chacun est le bienvenu et peut s'épanouir.

L’Intelligence Artificielle (IA) permet aux gens d’accomplir des choses qu’ils ne pourraient faire manuellement, notamment en matière d’utilisation des données. Cependant, ils doivent être correctement équipés pour éviter les dérives – d’autant plus important lorsqu’il s’agit d’une politique de diversité basée sur l’IA.
L'IA ne fonctionne pas seule, car les humains sont un élément clé du processus de construction et de formation de modèles performants. Afin de mettre en œuvre des algorithmes de machine learning et de deep learning, des biais dans les données historiques peuvent donner lieu à des modèles susceptibles d'inclure des décisions humaines pouvant entraîner une discrimination involontaire. Même lorsque de nombreux champs directement liés à des biais potentiels sont supprimés (comme le sexe ou la race), l'IA peut toujours reproduire les défis historiques grâce aux informations déduites. À titre d'exemple, Amazon a annulé un algorithme de recrutement d'IA qu'il testait à l'aide de CV anciens, car il présentait des préjugés sexistes à l'égard des femmes, la plupart des CV utilisés provenant d'hommes.

Utilisée correctement, l'IA a toutefois un potentiel de transformation en tant qu'outil de DE&I en fournissant les informations nécessaires basées sur les données. Néanmoins, si les fondations de base sont instables, le résultat final ne sera pas fiable. L'élément humain - et par extension les données involontairement biaisées dont ces projets d'IA peuvent être alimentés – peut entraver le véritable changement en ajoutant davantage de biais humains involontaires à l’équation.

Le paradoxe de la diversité

Avant d'aborder les défis posés par les technologies de l'IA en termes de biais possibles, il est important de comprendre que nous, en tant qu'êtres humains, sommes tous biaisés d'une manière ou d'une autre en raison de circonstances individuelles, de notre éducation ou de nos réactions émotionnelles à différents stimuli. C'est parce que nous sommes humains que nous avons ces préjugés. Utiliser des données pour reconnaître l'existence de ces préjugés inhérents et s'efforcer de les atténuer est la première étape d'une intégration vraiment réussie de la diversité.

De même, ce n'est pas la technologie de l'IA elle-même qui est discriminatoire. À la différence des êtres humains, les machines n'ont pas les préjugés naturels qui peuvent encourager ou inhiber une politique de DE&I. Le problème réside dans les données historiques dont elles ont été alimentées dans le cadre du processus d'éducation de la machine. Le risque de partialité inconsciente est le plus pressant lorsque l'on considère les ensembles de données et les caractéristiques algorithmiques sélectionnés par les personnes mêmes qui conçoivent et forment ces algorithmes. Les humains ont la capacité de décider de ce qu'il faut croire, mais pas l'IA. Par conséquent, au stade de la formation et de la programmation, l'IA est à la merci de son créateur et de ses propres opinions, expériences et filtres personnels. Les gens ont tendance à laisser un algorithme choisir des sources d'information qui correspondent à ce qu'ils croient déjà.

Par exemple, dans le domaine des RH, cela pourrait signifier que l'IA reconnaît que ce sont généralement des hommes d'un certain âge qui occupent des postes spécifiques dans une entreprise. Si un nouveau manager est recherché, nous avons un biais de données involontaire dans lequel ce même groupe d'hommes est considéré comme - statistiquement - beaucoup plus susceptible de réussir dans ces fonctions. D'autres candidats qualifiés peuvent alors se retrouver filtrés du processus de candidature et totalement écartés de la course. Sans la mise en place de mesures de protection adéquates, l'IA pourrait maintenir l'entreprise dans l'âge sombre de la diversité.

Même en éliminant le sexe et l'âge des données brutes fournies à l'algorithme d'IA, le modèle peut constater des lacunes dans l'emploi, ou des informations déduites qui révèlent indirectement l'âge ou le sexe, pouvant entraîner la poursuite du biais qui était présent dans les données brutes.

Éviter les biais

L'élément clé de l'IA est qu'elle ne porte pas de jugement - elle ne le peut pas. Elle fait ce que vous lui demandez. Rien de plus, rien de moins. La seule façon de détecter et d'arrêter tout préjugé involontaire est de s'assurer de la diversité de pensée et de la capacité à voir différents problèmes à travers différentes perspectives dans les équipes et l'intelligence humaine formant l'IA. Le big data a besoin de contexte et d'intelligence humaine lorsqu'il est appliqué au recrutement. Il y a souvent des variables en jeu que seuls les humains peuvent interpréter et comprendre.

La différence entre le succès et l'échec repose sur la prise en compte et la suppression de ces biais conscients et inconscients dans les données, ainsi que sur la garantie que l'approche conduira à des résultats équitables et justes. Pour réussir, les entreprises doivent veiller à ce qu'un plus grand nombre de personnes soient compétentes en matière d'IA et puissent contribuer au processus. Plus un éventail diversifié d'employés est capable de "parler données" et d'aborder la résolution de problèmes avec des points de vue uniques, plus les chances sont grandes de construire des applications d'IA plus justes et équitables.

Tout commence avec les collaborateurs

L'IA pilotée par la Data Science peut avoir un impact considérable - trouver de nouvelles solutions innovantes à des problèmes anciens en analysant les données et en recherchant des modèles transformateurs qui peuvent aider à catapulter une entreprise vers le succès. Au mieux, et utilisée correctement, l'IA peut aider à atténuer les préjugés, à diversifier les viviers de talents et à évaluer la diversité. Pour atteindre cet objectif, cependant, ces programmes ont besoin non seulement d'un environnement approprié, mais aussi de données fiables.

Une stratégie de données à l'épreuve des préjugés nécessite d'investir dans les bonnes technologies et les bonnes personnes pour jeter les bases. Plus important encore, il faut qu'un groupe diversifié d'humains soit au centre de la stratégie pour s'assurer que le développement de l'IA soit entrepris en partenariat avec les humains.

La diversité, l'équité, l'inclusion et le sentiment d'appartenance sont essentiels pour aider les entreprises à prospérer dans des environnements de plus en plus riches en données, et la culture des données est l'un des outils les plus puissants pour développer la prochaine génération de talents en Data Science et en IA. Les données cherchent à comprendre et à influencer nos entreprises, nos consommateurs et notre société ; il est impératif de disposer d'un vivier de talents compétents en matière de données qui reflète cette société.

Il ne suffit pas d'avoir des points de vue diversifiés - les entreprises ont également besoin de diversité dans leur prise de décision. Ce n'est qu'en rendant les données et les décisions compréhensibles par un large public - composé d'équipes diverses qui intègrent des experts en IA, des data scientists et des analystes - que vous serez en mesure de développer une approche plus efficace du développement de l'IA.

Une entreprise développée sur la base de points de vue multiples et diversifiés est mieux préparée à prospérer dans l'environnement hyperglobal actuel. En fin de compte, les entreprises doivent développer une culture qui ne se contente pas d'autoriser les différences uniques entre les personnes, mais qui les célèbre et qui utilise ces différences pour une prise de décision plus efficace et percutante. Grâce à ces stratégies, les entreprises peuvent atténuer efficacement le risque de partialité dans l'IA, tout en poursuivant une nouvelle stratégie commerciale précieuse.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Cropped Favicon Economi Matin.jpg

Raphaël Savy est depuis décembre 2017 Directeur Europe du Sud d’ Alteryx. Basé à Paris et fort de son expérience aussi bien en B2B qu’en B2C, Raphaël Savy a pour mission le développement commercial et le support régional. Auparavant, Raphaël dirigeait les activités françaises de NIRATEK. Il a également été à la tête de la filiale française de Teradata Applications, entreprise spécialiste de logiciels marketing, après avoir occupé plusieurs postes chez eCircle.

Aucun commentaire à «Réduire les biais de l’IA avec un recrutement plus diversifié : utopie ou réalité ?»

Laisser un commentaire

* Champs requis