Le Big Data, qu’est-ce que c’est ?

Les données sont partout dans notre vie. Nous les créerons et nous les collectons de partout. Face à cette énorme quantité de données, il est devenu nécessaire de développer de nouveaux systèmes et de nouvelles architectures capables de les gérer et les analyser. Le terme Big Data connu comme données massives ou encore mégadonnées, porte sur la recherche, la capture, le stockage, le partage et la présentation de ces données.

 

1. Définition du Big Data

La traduction littérale de ce terme est mégadonnées ou grosses données. Toutefois, le terme de données massives semble plus indiqué. Le dictionnaire Larousse a introduit ce mot (Big Data) dans son dictionnaire en 2016. En raison de leur variété et de leur volume, les outils classiques de gestion sont incapables de traiter convenablement ces données.

Ces données proviennent de partout. Ce sont tous des messages envoyés, les vidéos publiées, les signaux GPS, des données climatiques, des enregistrements d’achats en ligne… Les acteurs majeurs du web, comme FacebookYahoo ou Google, ont été les premiers à mettre en place ces nouvelles technologies de traitement.

Le Big Data se présente comme un système technique dual. En d’autres termes, il est en mesure de générer des bénéfices, mais également des inconvénients. Les spécialistes avancent que l’impact de la tendance Big Data sur la société est considérable.

 

2. Analyser les données massives 

Outre la gestion de grandes quantités d’informations, les concepteurs du Big Data se fixent comme objectif  l’accès en temps réel des bases de données à tout un chacun.

La règle des 5V constitue un élément essentiel du Big Data. Elle décrit les caractéristiques principales de ces données :

  • Le Volume concerne l’importance considérable des données à traiter
  • La Variété porte sur les différents formats de ces informations
  • La Vélocité a trait à la vitesse de collecte, de création et de partage de ces données
  • La Véracité concerne l’exactitude de données collectées
  • La Visualisation, ou la Valeur. Il s’agit de tirer avantage des données. Autrement dit, il s’agit de convertir les informations extraites des données en bénéfices pour une entreprise.

Ces 5 caractéristiques sont une composante essentielle du Big Data. Il faut nécessairement les considérer pour gérer, analyser et traiter la masse considérable d’informations circulant chaque jour. Le Big Data se présente comme une évolution à laquelle personne ne peut se soustraire.

 

3. Les technologies liées au Big Data

Deux grandes familles de technologies ont contribué à l’essor de cette nouvelle norme de traitement des données. D’une part, la possibilité de stocker de grands volumes d’informations (liée au développement du cloud computing). D’autre part la possibilité de traiter ces données en parallèle.

Ce deux besoins (stockage et traitement distribués) ont fait monté en puissance des technologies de traitement ajustées, comme Hadoop ou MapReduce (puis Spark). Différentes solutions existent pour améliorer les temps de traitement. Pour ce faire, il importe d’opter pour des systèmes de stockage plus performants que le SQL afin d’analyser une plus grande quantité d’informations plus rapidement.

Le traitement massif parallèle constitue également une option intéressante. Combinant le système HDFS (système de stockage de Hadoop), l’algorithme MapReduce (proposé par Google et implémenté dans Hadoop) et la technologie NoSQL HBase (base de données dédiée aux grands volumes à haute vélocité), le Framework Hadoop en est l’exemple le plus représentatif, lequel est devenu le plus commun des technologies de traitement dédiées aux Big Data.

De nos jours d’autres Frameworks ont aussi vu le jour tels que Spark et Flink. Ce technologies sont souvent combinées à Hadoop. Cette combinaison offre une plateforme technologique permettant de répondre à la majorité des besoins en entreprise.

 

En savoir plus sur le Big Data