Comment allier GDPR, Big Data, Intelligence artificielle et IoT ?

Cropped Favicon Economi Matin.jpg
Par Florian Douetteau Publié le 21 mai 2017 à 5h00
Big Data Donnees Gestion Entreprises
@shutter - © Economie Matin
26 milliardsOn pourrait compter 26 milliards d'objets connectés dans le monde d'ici 2020.

Avec l’explosion de l’IoT, du Big Data et de l’intelligence artificielle, les entreprises doivent disposer de plateformes pour exploiter leurs données conformément à la nouvelle réglementation européenne sur la protection des données personnelles.

D’ici mai 2018, les entreprises européennes seront toutes confrontées à la nouvelle Réglementation européenne sur la protection des données personnelles (RGPD ou GDPR, pour General Data Protection Regulation). Une nouvelle prescription qui contraint les entreprises en matière de collecte et d’usage des données personnelles, sur la sécurité, le droit à l’oubli et la portabilité des données. Il s’agit alors pour les entreprises d’engager un réel travail puisque, sous l’effet de l’IoT, du Big Data, et de l’intelligence artificielle, ces dernières font face à un grand nombre de données. En effet, 90% des données existant actuellement ont été produites lors des deux dernières années. Selon le Gartner, 26 milliards d’objets seront connectés dans le monde en 2020 et 6 milliards pourraient bénéficier d’intelligence artificielle dès 2018. D’autres études montrent que chaque foyer pourrait disposer d’une trentaine d’objets « intelligents » étant par exemple capables de détecter et d’alerter d’un dysfonctionnement, ou de reproduire un mouvement. Peu importe la provenance (open data, études, indicateurs, bases de données, etc.), ou la forme (vidéo, texte, chiffre, etc.), le Big Data, l’IoT et l’intelligence artificielle trouvent leur raison d’être dans la data. Or d’ici quelques mois, la RGPD imposera des conditions beaucoup plus restrictives sur l’exploitation des données à caractères personnels.

Des registres pour le suivi du traitement de la donnée

La question est de savoir comment continuer l’exploitation de cette donnée socle et de ces nouvelles technologies, tout en respectant la RGPD ? Si dans ce nouveau règlement, certains volets concernent l’information des entreprises envers leurs clients ou utilisateurs autour notamment de la transparence sur l’utilisation des données personnelles, ou du renforcement des conditions de consentement de l’utilisation de celles-ci, d’autres volets en revanche impactent fortement l’organisation et le système d’information de l’entreprise. Ainsi, les entreprises sont désormais contraintes d’indiquer la façon dont elles exploitent et stockent les données. En effet, selon le principe d’« accountability » spécifié dans la RGPD, toutes les entreprises doivent développer une véritable gouvernance de la donnée. En effet, elles doivent fournir aux autorités de contrôle un registre dans lequel sont notifiés tous les processus du traitement de la donnée que ce soit au sein de l’entreprise ou chez les prestataires de services. Ce registre doit être mis à jour régulièrement, de la mise en œuvre de nouveaux traitements aux modifications des existants. Or, aujourd’hui les entreprises se retrouvent avec un nombre incalculable de données dispersées en interne, hébergées chez des prestataires ou dans le Cloud. Une architecture qui les oblige à développer des outils de discovery pour aller chercher les données présentes sur plusieurs plateformes en cas de demandes de l’autorité de contrôle.

Des plateformes intégrées pour une vision complète des données

La nouvelle réglementation est donc exigeante, notamment au niveau de la traçabilité du traitement de la donnée. Elle constitue un véritable travail qui peut s’avérer très long pour les entreprises. C’est pourquoi, celles-ci ont tout intérêt à revoir leur structure informatique pour gérer la donnée parfaitement et ainsi mettre en place de nouveaux usages. Elles doivent notamment privilégier les interfaces transparentes de gestion de la donnée, car la RGPD valorise les dispositifs whitebox, permettant de suivre en temps réel le traitement par la donnée. Il est également préférable de “Désiloter” le traitement de la data en favorisant le mode collaboratif. Trop souvent dispersée dans les services, la donnée doit pouvoir être administrée de façon centrale pour une vision complète et détaillée. Par ailleurs, les entreprises doivent adopter une structure capable d’accepter l’altérité des formats afin d'obtenir une vision d’ensemble sur le procédé de transformation et de développement des données. Enfin, afin de ne pas forcer en vain les collaborateurs à utiliser les mêmes standards, il est préférable de travailler sur une plateforme commune, supportant différents systèmes.

Avec l’IoT, le Big Data et l’intelligence artificielle, les données sont omniprésentes

Aujourd’hui pour les entreprises, le fait de ne pas exploiter la donnée face à l’avancée de leurs concurrents dans le domaine les condamne à disparaître du marché. A un an de l’entrée en vigueur de la RGPD il est grand temps pour toute entreprise, de mettre en place les outils nécessaires à la bonne exploitation de leurs données. En effet, en cas de non-conformité, les sanctions seront sévères : jusqu’à 20 millions d’euros d’amendes pour les PME et une pénalité financière de 4% du chiffre d’affaires annuel mondial pour les grandes entreprises. Toutes les entreprises qui se seront donné les moyens de répondre aux exigences de transparence et de traçabilité de la data, seront en mesure de déployer sereinement toutes les nouvelles technologies, IoT, Big Data, et IA.

Laissez un commentaire
Cropped Favicon Economi Matin.jpg

Florian Douetteau est CEO et co-fondateur de Dataiku. Diplômé de l'Ecole Normale Supérieure, il débute sa carrière chez Exalead, qu'il rejoint en 2000 pour mener une thèse sur le développement du langage de programmation Exascript. Il y restera jusqu'en 2011, occupant successivement plusieurs postes de direction et de vice-président dans les domaines de la recherche, du développement et du management de produits. Après un passage chez Is Cool Entertainment en tant que Chief Technology Officer, il intègre Criteo pendant quelques temps comme Data Scientist freelance, avant de se lancer dans l'aventure Dataiku en 2013.