Dans un monde en perpétuel mouvement, les consommateurs sont en quête de satisfaction instantanée. Dans le secteur des services financiers, l’intelligence artificielle (IA) joue un rôle de plus en plus important dans l’automatisation des processus, les rendant plus rapides et moins gourmands en ressources.
Secteur Bancaire et Financier : Il est temps de rétablir l’équilibre dans l’utilisation des algorithmes !
Toutefois, la vigilance est de mise. Si personne ne doute de la capacité de l'automatisation à améliorer l'efficacité, certains s'interrogent aujourd'hui sur sa capacité à être équitable. Sommes-nous sûrs que les algorithmes déployés sont exempts de préjugés à l'encontre de certains groupes, conduisant à leur exclusion financière ?
Algorithmes : Le manque de sensibilisation n'est pas une excuse
Le Centre britannique pour l'éthique des données et le baromètre de l'innovation, travail avec des partenaires venant de tous les pays pour « pour faciliter le partage responsable des données, une meilleure utilisation de l'IA et des données dans le secteur public, et poser les bases d'un solide écosystème de garantie de l'IA ». Ils ont néanmoins identifié le potentiel d'un tel biais comme « le plus grand risque découlant de l'utilisation de la technologie axée sur les données ». Pendant ce temps, l'Autorité Bancaire Européenne (ABE), la Banque d'Angleterre et la Financial Conduct Authority ont commencé à examiner l'impact social potentiel et la façon dont les nouvelles technologies pourraient avoir un effet négatif notamment sur les décisions de prêt.
C'est un défi qui n’en est qu’à ses débuts. Quant à son ordre de grandeur, personne n'en est certain. Bien qu'une étude pilote menée par le NHS sur la manière dont les services de santé et de soins sont alloués et fournis, cette dernière apporte un éclairage sur les chiffres affectés par le biais algorithmique.
Et si le problème est bien réel, que peut-on faire pour rétablir l'équilibre ?
La réponse réside dans « l'algorithmo vigilance ». Il s’agit de la surveillance systématique par les institutions financières de leurs algorithmes pour s'assurer que les informations (depuis les vérifications de référencement de crédit jusqu'aux processus de fraude et de lutte contre le blanchiment d'argent) n'entraîne pas de discrimination à l'encontre de certains individus ou groupes.
En faisant preuve de vigilance algorithmique, les entreprises sont ainsi mieux équipées pour reconnaître et éliminer les préjugés humains pouvant trop facilement faire partie du processus d'IA et conduire à des décisions injustes.
Mais comment ces préjugés apparaissent-ils ? C'est en général le résultat de systèmes basés sur des ensembles de données imparfaits, qui sont soit incomplets, incorrects ou non actualisés, auxquels les programmeurs, les gestionnaires et les autres parties prenantes ajoutent leurs propres hypothèses et préjugés. De ce processus émergent des algorithmes qui faussent les évaluations.
Il va sans dire que les plateformes d'IA doivent être conçues de manière à respecter toutes les normes juridiques, sociales et éthiques. Cela signifie donc que les entreprises doivent faire de l'algorithmo vigilance une priorité, afin d'éviter de potentiels risques d’infractions juridiques et réglementaires, ainsi que les dommages à long terme pour leur réputation.
Il est primordial d'éliminer ce type de préjugés, étant donné que la confiance pour les entreprises peut s’éroder facilement à la moindre erreur de leurs parts. Les consommateurs recherchent activement des entreprises qui font « ce qu'il faut » et tiennent leurs promesses. Ce qu'ils veulent et ce dont ils ont besoin, c'est de la transparence - et non d'être la proie de décisions qui ne peuvent être justifiées ou contestées parce qu'elles ont été prises par un algorithme que personne ne comprend. Rappelons que si l'ordinateur peut dire « non », cela ne signifie pas toujours qu'il a raison, et la place de l’humain reste essentielle.
Uniformiser les règles du jeu
S'ils veulent jouer leur rôle dans la création d'un terrain de jeu équitable, les hauts responsables du secteur financier doivent veiller à ce que l'algorithmo vigilance soit intégrée dans leurs processus d'entreprise et de gouvernance. De ce fait, le personnel doit également être formé pour être attentif aux préjugés involontaires.
Une surveillance continue est donc nécessaire, et les algorithmes doivent être adaptés en conséquence à mesure que les conditions du marché et de la société évoluent. Ce n'est qu'alors que les entreprises pourront réellement affirmer que leurs procédures de candidature sont aussi impartiales que possible. La mise en place d'une équipe d'experts en la matière pour former un centre d'excellence, afin de garantir la cohérence de l'approche dans l'ensemble de l'organisation, est un bon point de départ. Cela vaut également pour le contrôle régulier des données clients, qui va assurer qu'elles sont aussi complètes et précises que possible. De plus, les entreprises devraient chercher à collaborer activement avec les régulateurs et les experts en la matière pour se tenir au courant des meilleures pratiques.
L'algorithmo vigilance touche à notre relation fondamentale avec la technologie, un outil qui doit nous servir, pour autant que les processus soient gérés de manière appropriée. Il s'agit d'un défi pour l'ensemble du secteur, pour lequel personne n'a toutes les réponses, et il appartient aux institutions individuelles et à leurs partenaires technologiques d'élaborer les stratégies, les plateformes et les connaissances adaptées au marché de demain.