Le Sommet pour l’action sur l’IA accueilli par la France les 10 et 11 février 2025, s’est imposé comme un événement phare pour renforcer l’action internationale en faveur d’une intelligence artificielle au service de l’intérêt général.
Sommet pour l’action sur l’IA : Le réveil d’une nouvelle ère de l’IA en Europe

Dans ce contexte, l’IA Act, adoptée en mars 2024 et dont les premières dispositions sont entrées en application le 2 février 2025, apporte un cadre réglementaire nouveau. En interdisant certains systèmes d’IA et en imposant une formation obligatoire aux acteurs concernés, elle érige la littératie en IA en pilier de la conformité et de la sécurité opérationnelle.
Le Chapitre 1, Article 4 de la loi européenne sur l’IA rend obligatoire la maîtrise de l’IA pour toute entreprise qui utilise ou développe des systèmes d’IA. Ce règlement met l’accent sur la sensibilisation et l’éducation, car il exige que les entreprises prennent en charge la montée en compétences de leur propre personnel et mettent en place une structure de formation interne qui dotera leurs employés des compétences nécessaires pour utiliser ces systèmes de manière responsable et éthique. À l'avenir, la maîtrise des systèmes d’IA sera indispensable, tant pour garantir la conformité réglementaire que pour exploiter pleinement le retour sur investissement des innovations. Par ailleurs, un usage abusif de cette technologie pourrait causer d’importants dommages à toute entreprise. Qu'il s'agisse de fuites de données ou d'hallucinations générées par l'IA, les organisations doivent aborder la formation de leurs employés avec la même rigueur que celle requise pour manipuler des équipements lourds.
Le Chapitre 2, Article 5 encadre les pratiques actuelles de l’IA en interdisant celles qui portent atteinte aux droits individuels ou qui visent à nuire aux personnes. Cela inclut une multitude de cas d’usage, allant de l’ingénierie sociale à la classification des individus selon leurs comportements, en passant par la prédiction de comportements criminels. Les organisations utilisant l’IA pour les ressources humaines ou l’évaluation personnelle doivent réaliser un audit approfondi de leurs processus pour en garantir la conformité. Pour ce faire, elles doivent instaurer des politiques de confidentialité robustes et mettre en place des contrôles d’accès stricts pour protéger les données sensibles. De plus, il est impératif d’établir des systèmes de surveillance complets afin de s’assurer que l’IA respecte en permanence les régulations et que toute violation potentielle soit immédiatement détectée, permettant ainsi une gestion proactive des risques.
L’IA Act marque un tournant dans la régulation de l’usage de l’IA en Europe, imposant aux entreprises de nouvelles responsabilités en matière de transparence, de formation et de protection des droits fondamentaux. Son application progressive leur donne du temps pour se conformer et envisager leurs usages de l’IA de manière éthique et sécurisée. Le Sommet pour l’action sur l’IA constituera une opportunité clé pour approfondir ces enjeux et accompagner les acteurs économiques dans cette transition.