IA : les entreprises devraient se méfier des angles morts

L’intelligence artificielle est d’ores et déjà en train de révolutionner le fonctionnement des entreprises, qui utilisent et développent de plus en plus d’outils et de services à base d’IA. La montée en puissance fulgurante d’outils comme ChatGPT illustre bien la croissance très rapide de l’IA dans tous nos usages.

Alessandro Chimera
Par Alessandro Chimera Publié le 17 novembre 2023 à 4h30
A,humanoid,robot,works,in,an,office,on,a,laptop,
IA : les entreprises devraient se méfier des angles morts - © Economie Matin
63%63% des cadres estiment gagner en productivité grâce à l'IA

Cette vague d'intérêt pour l'IA a également généré des craintes, et parfois même un certain sensationnalisme. Face à ce phénomène, il est important que les dirigeants d'entreprise ne réagissent pas de manière excessive ; qu’ils comprennent les limites, les défauts et les particularités de l'IA pour être en mesure de l'utiliser au mieux.

Ne pas prendre les affirmations de ces outils pour argent comptant

Les dirigeants d’entreprises cherchent par exemple à comprendre comment ils peuvent tirer profit d'outils tels que ChatGPT. Ils craignent probablement de passer à côté des avantages offerts par cette innovation technologique. Si les progrès d'OpenAI (ou de Google avec l’outil Bard) dans le développement d'un outil LLM (« grand modèle de langage » en français) doivent être reconnus comme des prouesses technologiques, il convient de s’informer le plus possible à leur sujet avant de les mettre en œuvre dans les entreprises.

En effet, il faut toujours avoir à l’esprit les « angles morts » de l’intelligence artificielle, et à ce niveau, les grands modèles de langage ne font pas exception. L'un des plus grands problèmes constatés en les utilisant est qu'ils peuvent générer de fausses informations ou des « faits » qui ne sont pas basés sur des événements ou des données réelles. On appelle ces incidents des « hallucinations ». À titre d'exemple, un avocat new-yorkais s'est retrouvé dans une situation délicate cette année lorsqu'il a déposé un document juridique contenant des citations de jurisprudence et autres articles juridiques trouvés via ChatGPT, pour finalement découvrir qu'ils étaient tous faux.

Des conséquences potentielles très néfastes pour les entreprises

L'IA générative excelle uniquement dans la manipulation des données avec lesquelles elle a été entrainée, car les outils LLM n'ont aucune compréhension réelle des réalités sous-jacente décrites par le langage. Des erreurs vont donc inévitablement se produire. Reconnaître la faillibilité des outils d'IA générative est essentiel pour définir la façon de les utiliser : la dernière chose que souhaite une entreprise, c'est de perdre la confiance de ses clients en raison d'erreurs générées par l'IA.

KPMG et l'Université du Queensland (Australie) ont publié en 2023 un rapport d’étude sur la confiance dans l'intelligence artificielle, qui montre que les personnes sondées sont généralement plus disposées à utiliser des systèmes à base d'IA qu’à partager des informations avec eux, en particulier les systèmes permettant de faire des recommandations (c'est-à-dire personnaliser les informations, les réseaux sociaux et les recommandations de produits) et les applications de sécurité (qui aident à prendre des décisions en lien avec la sécurité publique). Cette méfiance est intéressante car elle fait écho aux risques liés à l’utilisation de l’IA : une erreur ou une faille pourrait diminuer la performance, voire même éloigner les utilisateurs de certaines opportunités. Il arrive malheureusement que les IA prennent des décisions basées sur des données issues d'une sélection biaisée. Dans ces situations, un algorithme produit des erreurs systématiques et reproductibles qui conduisent à des résultats biaisés parce que les données sous-jacentes proviennent d'une étude de mauvaise qualité ou d'un jeu de données issu d'un petit échantillon non représentatif, par exemple.

Quelques bonnes pratiques pour disposer de données plus sûres

Pour éviter les biais dans les algorithmes et réduire au minimum le biais de sélection, les données doivent provenir de sources multiples et diverses. Il est important de briser les silos de données pour garantir la disponibilité d’un plus grand volume de données, et leur accessibilité pour former les modèles. En plus de ce travail, le test d’algorithmes dans des environnements réels contribuera également à identifier les problèmes. Bien que les biais soient difficiles à éliminer complètement, ils peuvent être considérablement réduits. Il est fondamental de comprendre l'importance de l'exactitude, de la fiabilité, de la qualité et de l'intégrité des données, des responsabilités éthiques, et de la nécessité d'être transparent et de lutter contre les biais connus.

De plus en plus d'entreprises sont attirées par l'IA, par la promesse de la rapidité de l'automatisation et du potentiel de réduction des coûts qu’elle offre, mais il faut bien comprendre que les outils à base d’IA ne vont pas non plus apporter de réponse magique à tous les défis business que rencontrent les entreprises de nos jours. Il est néanmoins possible de réduire les faiblesses de l'IA, et toutes les entreprises cherchant à automatiser certaines tâches devraient travailler sur ce point pour préserver au maximum la confiance de leurs clients.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Alessandro Chimera

directeur de la stratégie digitale chez TIBCO, une division de Cloud Software Group

Aucun commentaire à «IA : les entreprises devraient se méfier des angles morts»

Laisser un commentaire

* Champs requis