L’intelligence artificielle progresse de façon exponentielle dans tous les domaines, de la sphère professionnelle à la vie privée des utilisateurs. Dans les entreprises, les salariés peuvent l’employer durant leurs réunions en ligne. Quels sont les enjeux de l’IA en matière de sécurité des visioconférences ?
L’IA et la visioconférence : quelle sécurité pour les données des entreprises ?
L’intelligence artificielle s’invite dans les réunions en ligne
Certains acteurs de visioconférence proposent aujourd’hui des fonctions d’assistant virtuel, basées sur l’intelligence artificielle générative dans le but d’améliorer la productivité des utilisateurs. Intégré dans la solution, l’assistant virtuel peut transcrire, traduire, sous-titrer les échanges d’une réunion en ligne ou encore en faire des résumés textuels synthétiques comme c’est le cas avec ChatGPT qui emploie le « large langage model ».
L’IA a également la faculté de baser son entraînement sur une large variété de données. Cela lui permet de comprendre et de reproduire le langage humain de façon très précise. Plus ce modèle traitera de la donnée, plus il sera performant et apportera de nouvelles réponses. Toutefois dans le cadre d’une entreprise, les données échangées durant des visioconférences peuvent être relatives à la propriété intellectuelle ou contenir des données personnelles de salariés. Lorsque ces données passent par un assistant virtuel, la question de la confidentialité se pose.
Les données sensibles peuvent être exposées
Dans un rapport publié par Cyberhaven en février 2023, les données sensibles représentent 11 % de ce que les employés renseignent dans ChatGPT. Sans toutefois savoir si l’IA apporte des garanties quant à la protection des données communiquées, des chercheurs ont alerté en 2021 sur des « attaques d’extraction de données d’entraînement » en interrogeant l’IA sur des données qu’elle a potentiellement apprises. Dans le cadre des visioconférences qui intègrent de l’IA générative, l’enchaînement d’interrogations contextuelles permet d’obtenir des données comme la récurrence, les participants ou les sujets partagés lors de la réunion.
Dans son édition 2023 sur l’impact de l’intelligence artificielle pour les salariés, l’OCDE constate que 57 % des salariés européens dans les secteurs de la finance et de l’industrie manufacturière sont inquiets quant à la protection de leur vie privée. La raison de leur inquiétude porte sur le fait que l’IA peut collecter une quantité de données supérieure aux humains ou aux autres technologies. Une crainte qui se justifie dans le cas des réunions sensibles, comme les Codir ou Comex.
Des pistes pour sécuriser davantage les communications avec IA
Au sein de l’Union Européenne, le Règlement Général de la Protection des Données (RGPD) garantit la protection des données personnelles et impose des obligations aux entités qui les traitent. Avec l’IA, les droits pour la collecte et le traitement des données s’appliquent dans des dimensions particulières. Le système doit garantir la transparence et l’accès aux informations, la correction, la suppression et la limitation du traitement. C’est dans la continuité de cette logique qu’en 2021 est apparu l’AI Act afin d’apporter une première régulation en matière d’intelligence artificielle. Ainsi, elle précise que « des initiatives telles que la stratégie de cybersécurité de l’UE, la législation sur les services numériques et la législation sur les marchés numériques, ainsi que la loi sur la gouvernance des données, fournissent l’infrastructure appropriée pour la mise en place de tels systèmes ».
Pour les solutions de visioconférence embarquant de l’IA générative, un haut niveau de sécurité de ces solutions est indispensable pour préserver la confidentialité des données échangées. La visioconférence et ses mécanismes d’IA doivent être soumises à des réglementations fermes en matière de protection des données, comme le RGPD. Du côté des éditeurs de solutions visioconférences, ces derniers doivent faire preuve de transparence et donner des garanties claires aux utilisateurs sur l’emploi de leurs données. À noter que lorsque ces solutions n’embarquent pas de véritable système de chiffrement de bout en bout, la protection des communications qu’ils font transiter n’est jamais assurée.