le lundi 03 septembre 2012

Dossier Big Data : l'analyse des données intéresse de plus en plus les entreprises

Le volume de données produit et à traiter par les entreprises ne cesse d'augmenter. Ce constat n'est pas récent. Mais à l'ère d'Internet et de la multiplication des appareils connectés, l'analyse de ces informations hétérogènes est devenue complexe. Un challenge relevé par des technologies très pointues.

Le Web croule sous les données textuelles, audiovisuelles et graphiques. En 2008, environ 480 milliards de gigaoctets étaient disponibles sur Internet. Deux ans plus tard, ce volume a presque doublé ! Et cette évolution semble sans fin : selon le cabinet d'analyses Gartner, à l'horizon 2015, quelque trois milliards d'individus seront connectés et partageront des données, personnelles ou non, pour atteindre un total de huit Zo (Zettaoctets). Pour information, un Zo est égal à un milliard de To (Teraoctet), soit l'équivalent du volume stocké sur 250 milliards de DVD. Bienvenue dans l'ère du Big Data !

Il s'agit d'analyser ces milliards de données afin de dénicher l'information pertinente permettant de prendre la bonne décision. Cette activité représente un marché évalué à 3,2 milliards de dollars en 2010. Elle devrait croître de 39,4% par an pour atteindre 16,9 milliards en 2015 (source : étude IDC « Digital Universe ») ! Cette croissance ne se limite pas à l'analyse d'énormes volumes. Le marché de la gestion et de l'analyse de données est estimé à plus de 100 milliards de dollars et croît de près de 10% par an, soit environ deux fois plus vite que le marché global des logiciels.

Cette expression Big Data a été évoquée pour la première fois par le cabinet d'études Gartner en 2008. Quatre ans plus tard, la situation a considérablement évolué. Pour les entreprises, ces milliards de données sont à la fois une formidable source d'informations permettant de mieux connaître ses clients et les tendances de leur secteur d'activité (être capable de faire la différence entre le buzz ou l'épiphénomène et des « signaux forts ») et aussi de suivre l'évolution de ses concurrents.

5 heures par semaine passées à chercher des informations...

Mais cette volumétrie en perpétuelle croissance est aussi un double défi : technologique et économique. Dans l'univers de la gestion de l'information, trouver la donnée pertinente dans d'importants volumes structurées (bases de données, applications métier) est une activité maîtrisée. Mais la montée en puissance d'internet et la multiplication des appareils connectés à des réseaux (smartphones, tablettes mais aussi capteurs, compteurs électriques, bornes...) génèrent des données non structurées (emails, documents, fichiers, audio, vidéo, etc.).

Cette évolution génère des coûts élevés. Une étude d'IDC a indiqué que les employés perdent au minimum cinq heures par semaine à rechercher les informations utiles pour leurs activités quotidiennes, ce qui coûte aux entreprises entre 4 000 € et 16000 € par an et par employé.

Les solutions de Big Data doivent donc relever ces défis en tenant compte de la règle dite des 3V : volume, variété et vélocité.

Les 3V du Big Data d'après Teralytics

Les 3 V du Big Data selon Teralytics

- Les volumes : confrontées à des contraintes de stockage, les entreprises doivent aussi gérer le tsunami des réseaux sociaux. Chaque jour, deux millions de vidéos sont ajoutées sur YouTube, 5 millions d'images sont mises sur Flirck, 300 millions de photos sont transférées sur Facebook et 140 millions de messages sont publiés sur Twitter !

La montée en puissance des réseaux sociaux a accentué cette production de données. Résultat, les volumes sont passés du téraoctet au pétaoctet, à cause de leurs types (vidéos, photos, sons...). Selon le cabinet McKinsey, les entreprises auraient stocké 7 exaoctets de données supplémentaires en 2010. Les solutions de Big Data doivent rendre accessible la masse de données intéressant leurs clients pour ensuite les analyser. Imaginez qu'un acteur comme Facebook indique emmagasiner 500 téraoctets de nouvelles informations chaque jour !

- La variété des sources : premièrement, l'époque où les entreprises s'appuyaient uniquement sur les informations qu'elles détenaient dans leurs archives et ordinateurs est révolue. De plus en plus de données nécessaires à une parfaite compréhension du marché sont produites par des tiers. Deuxièmement, les sources se sont multipliées : banques de données, sites, blogs, réseaux sociaux, terminaux connectés comme les smartphones, puces RFID, capteurs, caméras...

Les appareils produisant et transmettant des données par l'Internet ou d'autres réseaux sont partout, y compris dans des boîtiers aux apparences anodines comme les compteurs électriques. Par exemple, le Linky d'EDF transmet à distance quatre mesures par heure au gestionnaire du réseau et aux fournisseurs d'électricité. Auparavant, des agents EDF relevaient les consommations une fois par an... Les solutions de Big Data doivent donc être capables d'analyser de nombreuses sources d'informations dont certaines sont extérieures à l'entreprise et non maîtrisée par elle.

- La vélocité, ou l'obligation de prendre une décision pertinente très rapidement : à l'ère d'internet et de l'information quasi instantanée, les prises de décision doivent être rapides pour que l'entreprise ne soit pas dépassée par ses concurrents.

S'ajoute ensuite un dernier « V », celui de la visualisation : l'apanage des nombreux outils et suites dédiés au décisionnel.
Modifié le 03/09/2012 à 11h55
Commentaires