ChatGPT l’accuse de double infanticide, il porte plainte

Arve Hjalmar est Norvégien, et il a décidé de se chercher sur ChatGPT, un peu comme on se cherche sur Google. Mais pour lui, la réponse était inattendue.

Ade Costume Droit
Par Adélaïde Motte Publié le 20 mars 2025 à 17h34
Chatgpt
ChatGPT l’accuse de double infanticide, il porte plainte - © Economie Matin

Un père de famille faussement accusé par une IA

Tout a commencé lorsqu’Arve Hjalmar Holmen a interrogé ChatGPT sur son propre nom. Le chatbot lui a répondu avec une histoire totalement fabriquée :

"Arve Hjalmar Holmen est un individu norvégien qui a attiré l'attention en raison d'un événement tragique. Il était le père de deux jeunes garçons, âgés de 7 et 10 ans, retrouvés morts dans un étang près de leur domicile à Trondheim, en Norvège, en décembre 2020. Accusé et condamné pour leur meurtre, ainsi que pour la tentative de meurtre de son troisième fils, il a été condamné à 21 ans de prison, la peine maximale en Norvège."

Or, cette histoire est entièrement fausse. Arve Hjalmar Holmen n’a jamais été accusé ni condamné pour aucun crime. Il est un citoyen ordinaire qui élève trois enfants.

"Certaines personnes pensent qu'il n'y a pas de fumée sans feu. Ce qui m'effraie le plus, c'est que quelqu'un puisse lire cela et le croire vrai," a-t-il confié.

Cette mésaventure soulève une problématique majeure des modèles d’IA générative, notamment ChatGPT, à savoir leur tendance à fabriquer des faits, un phénomène connu sous le nom de "hallucination".

Une plainte déposée contre OpenAI

Face à l'atteinte à sa réputation de ChatGPT, Arve Hjalmar Holmen a saisi l’Autorité norvégienne de protection des données et a exigé que OpenAI soit sanctionnée. Il est représenté par l’association Noyb (European Center for Digital Rights), spécialisée dans la défense des droits numériques.

Selon Noyb, cette fausse accusation de ChatGPT constitue une violation des règles européennes sur la protection des données, notamment en matière d’exactitude des informations personnelles. ChatGPT affiche pourtant un avertissement expliquant qu'il peut commettre des erreurs, mais pour Noyb, cela ne suffit pas.

"On ne peut pas simplement diffuser de fausses informations et, à la fin, ajouter un petit avertissement disant que tout cela pourrait ne pas être vrai," a déclaré Joakim Söderberg, avocat de Noyb.

Le problème persistant des "hallucinations" des IA

Les hallucinations sont l’un des plus grands défis de l’IA générative, comme ChatGPT. Il arrive que ces modèles produisent des informations erronées, incohérentes ou totalement inventées en les présentant comme des faits vérifiés.

Ce phénomène ne se limite pas à OpenAI :

  • En 2024, Apple a suspendu son outil de résumé d’actualités Apple Intelligence au Royaume-Uni après qu'il ait généré de fausses informations.
  • L’intelligence artificielle Gemini de Google a également rencontré des problèmes similaires, allant jusqu’à recommander de coller du fromage sur une pizza avec de la colle ou de manger une pierre par jour.

Depuis l’incident impliquant Arve Hjalmar Holmen, OpenAI a mis à jour son modèle afin d’intégrer des recherches en ligne actualisées, ce qui aurait pu éviter une telle erreur.

Pourquoi ces erreurs se produisent-elles ?

Les modèles d’IA comme ChatGPT fonctionnent en analysant des milliards de données textuelles issues d’Internet. Toutefois, ils ne possèdent aucune compréhension réelle des informations qu’ils génèrent.

Certains facteurs favorisent ces erreurs :

  1. Des sources incomplètes ou biaisées : Les IA se basent sur des données qu'elles interprètent parfois de manière incorrecte.
  2. Une incapacité à vérifier les faits : Contrairement à un moteur de recherche, un chatbot ne cite pas toujours ses sources.
  3. Un modèle "boîte noire" : Il est difficile de savoir comment une IA génère une réponse précise, ce qui complique la correction des erreurs.

L’affaire Arve Hjalmar Holmen illustre ces limites et soulève des questions éthiques et juridiques majeures.

Vers une meilleure régulation des intelligences artificielles ?

Les régulateurs européens et internationaux commencent à prendre des mesures pour encadrer l’intelligence artificielle.

L’Union européenne a adopté en 2024 l’AI Act, un règlement visant à imposer des règles strictes sur la transparence et l’exactitude des IA. Des discussions sont en cours pour obliger les entreprises à mieux contrôler les données produites par leurs modèles et à instaurer des recours pour les victimes d’informations erronées.

Dans le cas de Arve Hjalmar Holmen, si OpenAI est reconnue coupable d’avoir enfreint la législation sur la protection des données, elle pourrait être sanctionnée par une lourde amende.

L’intelligence artificielle promet des avancées spectaculaires, mais l’affaire Arve Hjalmar Holmen montre qu’elle n’est pas encore totalement maîtrisée. La propagation de fausses informations peut avoir des conséquences dramatiques, et les entreprises qui développent ces technologies doivent assumer leur responsabilité.

Ade Costume Droit

Diplômée en géopolitique, Adélaïde a travaillé comme chargée d'études dans un think-tank avant de rejoindre Economie Matin en 2023.

Aucun commentaire à «ChatGPT l’accuse de double infanticide, il porte plainte»

Laisser un commentaire

* Champs requis