Le Big Data n’a pas fini de nous étonner

Cropped Favicon Economi Matin.jpg
Par Steven Rose Modifié le 11 octobre 2014 à 9h49

On a parlé au sujet du big data de « gaz d’échappement numériques », c’est-à-dire les particules d’informations transactionnelles que laissent derrière elles les interactions entre les utilisateurs et les applications. Selon George Dyson, historien des sciences américain, l’ère du Big Data a commencé lorsqu’il est devenu moins coûteux de conserver les informations que de les éliminer. Quoi qu’il en soit, le « Big Data » se justifie par de solides arguments. En analysant de vastes champs d’informations, il est possible de détecter des corrélations et des schémas afin d’en tirer des prévisions éventuelles.

Le problème est que nous n’en sommes pas encore là. Le public ne comprend pas bien ce qu’implique la transformation d’une innovation technologique – le « Big Data » – en un outil professionnel qui peut être mis au service d’une entreprise. Le Big Data peut servir à détecter des corrélations mais, comme le dit Tim Harford, le correspondant du Financial Times et de Slate à qui l’on doit l’image des « gaz d’échappement numériques », il ne fournit pas la base théorique pour valider les schémas et il peut être facile de confondre une corrélation avec un lien de cause à effet. Si le Big Data pourrait aisément passer pour du battage médiatique, son exploitation à bon escient engendre des avantages bien réels pour l’entreprise.

L’un de ses principaux intérêts réside dans la rapidité d’accès au business intelligence. A mesure que les entreprises rassemblent des données de plus en plus granulaires sur leurs activités, le potentiel offert pour en tirer une meilleure compréhension et planifier en conséquence devient plus rentable. Les entreprises dans le marché de la distribution à qui nous avons procuré nos baies 100 % flash sont régulièrement confrontés à ce problème : ils sont bien conscients que les données de vente et de distribution relatives à leurs transactions journalières recèlent de précieux enseignements mais, compte tenu de la longueur prohibitive du traitement de ces volumes de données, ils n’ont pas le temps de les exploiter. Il s’agit d’un problème commun à tous les secteurs d’activité : les quantités de données à traiter augmentent plus rapidement que les budgets informatiques. A cela s’ajoute une grande complexité. Les diverses données collectées par les cartes de fidélité, par exemple, permettent de comprendre les habitudes et comportements d’achat des consommateurs… mais seulement moyennant une puissance de traitement suffisante pour passer ces données au crible.

La contrainte est que, même si les logiciels et autres ressources informatiques du datawarehouse d’une entreprise peuvent fort bien donner satisfaction, le dernier élément mécanique du data center – les disques durs – ne peut tout simplement pas suivre la cadence sans investissements considérables. Il ne devrait pas en être ainsi mais, en raison de la domination de quelques acteurs du marché du stockage, cette situation perdure depuis des années.

L’un des problèmes qui se pose notamment dans le marché du stockage tient au fait que les constructeurs actuels en place retiennent les clients prisonniers des cycles de mise à jour et des contrats de maintenance de trois ou quatre ans, lesquels ne profitent qu’au compte bancaire de ces fournisseurs mais certainement pas à leurs clients.

La partie stockage du Big Data n’est tout bonnement pas à la hauteur des autres, sauf à y consacrer un budget non négligeable. Ce ne devrait pas être le cas et, grâce à la combinaison révolutionnaire de logiciels performants et de solutions de stockage flash, ce n’est plus une fatalité.

Les entreprises, à l’instar de celles du monde de la distribution évoquées plus haut, ont déjà l’habitude d’effectuer des traitements par lots pour interroger de gros volumes de données. L’étape logique suivante, à mesure que ces volumes deviennent disproportionnés, consiste à envisager le déploiement de technologies Big Data. Comprendre que cela ne passe pas par l’emploi de baies de disques à la lenteur et au coût prohibitif qui grèvent le budget de ce type de déploiement est un premier pas essentiel pour en réaliser les avantages.

Une réaction ? Laissez un commentaire

Vous avez aimé cet article ? Abonnez-vous à notre Newsletter gratuite pour des articles captivants, du contenu exclusif et les dernières actualités.

Cropped Favicon Economi Matin.jpg

Steven Rose est VP EMEA de Pure Storage. Steven Rose a plus de 25 années d'expérience dans l'industrie technologique et a notamment travaillé au sein de Veritas, CommVault et Informatica avant de rejoindre Pure Storage en mars 2014. Pure Storage, spécialiste du stockage 100% flash, permet le déploiement du flash dans les Datacenter. Comparées avec les baies de stockage traditionnelles, les baies 100% flash Pure Storage sont 10 fois plus rapides, avec une capacité de stockage 10 fois plus élevée, pour une consommation d'énergie moindre et à un coût au giga plus faible. Pure Storage a conçu des baies de stockage Flash tirant parti de tous les avantages du Flash : réduction des données à la volée, déduplication et compression. Cette solution est idéale pour les projets nécessitant une performance élevée, comme la virtualisation, les infrastructures de postes virtuels (VDI), les bases de données (OLTP, analyse en temps réel) et le Cloud.

Aucun commentaire à «Le Big Data n’a pas fini de nous étonner»

Laisser un commentaire

* Champs requis