Intelligence artificielle : le CESE ne veut pas de personnalité juridique pour les robots

Cropped Favicon Economi Matin.jpg
By Antoine Chéron Last modified on 21 septembre 2022 18h06
Cese Robot Personnalite Juridique Intelligence Artificielle
@shutter - © Economie Matin
5 milliards $Le marché de l'Intelligence artificielle pourrait peser cinq milliards de dollars en 2020.

Depuis maintenant plusieurs années, le secteur de la technologie robotique a été particulièrement marqué par le développement de l’intelligence artificielle.

La société des machines dans laquelle nous vivons aujourd’hui semble être à l’aube d’une nouvelle ère, où les robots ne seraient non plus utilisés à des fins purement techniques, mais seraient dotés d’une véritable intelligence et autonomie, leur permettant de remplacer l’homme dans l’accomplissement de certaines tâches. Plusieurs applications de l’intelligence artificielle ont déjà été pensées, notamment dans les domaines de la production et le commerce mais également dans le transport, les soins médicaux, l’éducation et l’agriculture, avec pour objectif l’amélioration de la vie des peuples et la croissance économique.

Si ces nouvelles avancées technologiques sont le symbole du progrès et de l’avenir, elles apportent également un lot important de risques et de problématiques auxquels il est impératif d’apporter un encadrement et une protection juridique adaptés. En effet, le développement de l’intelligence artificielle soulève nécessairement des questions, en matière d’éthique, de sécurité, mais aussi de respect, de protection et de garantie de nos valeurs, et de nos droits et libertés fondamentaux.

Dans une proposition de résolution contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103 (INL), le Parlement européen s’est prononcé en faveur de la reconnaissance d’une personnalité juridique spéciale pour les robots, pour « qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis y compris celui de réparer tout dommage causé à un tiers ».

En revanche, dans un avis publié le 31 mai 2017, le Conseil économique social et européen (CESE) s’y est opposé, préférant plutôt une approche « human in command », de l’intelligence artificielle, dans laquelle « les machines restent des machines que les hommes ne cessent jamais de contrôler » comme l’a déclaré la rapporteur Catelijne Muller, ce pour des raisons compréhensibles de développement responsable, sûr et utile de l’intelligence artificielle.

Le CESE avance comme principal argument pour justifier sa position, le fait que les effets correctifs préventifs du droit de la responsabilité civile seraient mis à mal, ce que le Parlement européen avait d’ailleurs déjà remarqué, en notant que « les règles habituelles ne suffiraient pas à établir la responsabilité du robot, puisqu’elles ne permettraient pas de déterminer quelle est la partie responsable pour le versement des dommages et intérêts ni d’exiger de cette partie qu’elle répare les dégâts causés ». Le CESE soutient par ailleurs que la reconnaissance de la personnalité juridique aux robots créerait des risques d’abus et moraux trop importants.

On peut soulever de nombreuses autres difficultés que poserait la reconnaissance d’une personnalité juridique pour les robots. En effet, bien que reconnus comme sujets de droits, les robots devront nécessairement être représentés et gérés de façon ultime par un être humain. Dès lors, quel serait le mode de désignation de ce représentant ? De plus, la notion de responsable de l’éducation du robot devrait être définie de façon très précise dans l’hypothèse où le robot serait mis à la disposition d’utilisateurs tiers.

La personnalité juridique impliquera la reconnaissance de droits. Un robot peut-il bénéficier de droits patrimoniaux impliquant qu’ils puissent être rémunérés ? Doit-on reconnaître aux robots des droits fondamentaux, similaires à ceux accordés aux personnes morales, tel que la protection des biens, l’accès à la justice, la liberté d’expression, d’entreprendre, ou encore le principe d’égalité.

Enfin, et surtout, se pose la problématique fondamentale de la sécurité. Le CESE distingue la sécurité interne de la sécurité externe. La sécurité interne conduit à se poser la question de savoir si le système d’intelligence artificielle est suffisamment solide pour (continuer à) fonctionner correctement, si l’algorithme est fiable, efficace. La sécurité externe quant à elle se rapporte plutôt à l’utilisation du système d’intelligence artificielle au sein de la société, aussi bien dans une situation normale, qu’inconnue, critique ou imprévisible.

Autant de questions et d’incertitudes qui ont mené le CESE à se prononcer contre la reconnaissance de la personnalité juridique aux robots, et à émettre une série de propositions. Ainsi, le CESE propose la création d’un code de déontologie pour le développement, le déploiement et l’utilisation de l’intelligence artificielle, afin que l’exploitation des robots ne porte pas atteinte à la dignité humaine, l’intégrité personnelle, la liberté, le respect de la vie privée, la diversité culturelle et plus largement aux grands principes protecteurs de l’être humain.

Le CESE propose également la mise en place d’un système paneuropéen de normalisation pour la vérification, la validation et le contrôle des systèmes d’intelligence artificielle, avec des normes en matière de sécurité, de transparence, d’intelligibilité, d’obligation de rendre des comptes et de valeurs éthiques, tel qu’il en existe dans les secteurs de l’alimentation et des appareils ménagers.

Enfin, le CESE souhaite la création d’une infrastructure d’intelligence artificielle européenne, composée de cadres d’apprentissage libres et respectueux de la vie privée, d’environnements d’essai en situation réelle et de séries de données de haute qualité pour que le développement et la formation des systèmes d’intelligence artificielle se fassent dans un cadre sûr et adapté. Bien qu’un robot doté d’intelligence artificielle puisse prendre des décisions et agir de manière indépendante et autonome, il n’en demeure pas moins que cela résulte d’une programmation développée par l’homme. Dès lors, le robot n’existe pas par lui-même. A cela s’ajoute les risques qu’il représente pour l’être humain et la société en général, justifiant la position de la CESE concernant la reconnaissance d’une personnalité juridique aux robots, aussi spécifique soit-elle.

Laissez un commentaire
Cropped Favicon Economi Matin.jpg

Antoine Chéron est avocat spécialisé en propriété intellectuelle et NTIC.

No comment on «Intelligence artificielle : le CESE ne veut pas de personnalité juridique pour les robots»

Leave a comment

* Required fields