Ingérer des Données à Haute Vitesse

Ingérer des données en continue et à haute vitesse n’est pas une mince affaire. Il y a plusieurs challenges à soulever. Il faut des architectures capable de supporter à la fois la vitesse, le volume et le format des données. Ceci sans oublié la tolérance aux pannes.

L’écosystème Hadoop comporte deux outils incontournables pour ingérer des données à haute vitesse. Il s’agit de Apache Kafka et Apache HBase.

Apache Kafka est une plateforme distribuée de diffusion de données en continu, capable de publier, stocker, traiter et souscrire à des flux d’enregistrement en temps réel. Elle est conçue pour gérer des flux de données provenant de plusieurs sources et les fournir à plusieurs utilisateurs. En bref, elle ne se contente pas de déplacer un volume colossal de données d’un point A à un point B : elle peut le faire depuis n’importe quels points vers n’importe quels autres points, selon vos besoins et même simultanément.

Apache HBase est une base de données non relationnelle (NoSQL) conçue pour les analyses Big Data. Elle permet de traiter très rapidement d’immenses volumes de données de différentes sources et de structures diverses.

Détails du Module
  • Apprendre dans quel cas utiliser et comment utiliser HBase
  • Comprendre les concepts fondamentaux sur lesquels repose HBase
  • Etudier la structure et le format des données stockées>/li>
  • Etre capable d'exécuter des opérations basiques en ligne de commande afin de réaliser des opérations sur les tables et sur les données elles-mêmes
  • Avoir une vue d'ensemble de l'architecture de Apache Kafka
  • Découvrir l'anatomie d'un topic Kafka
  • Explorer l'architecture d'un Cluster Kafka (plusieurs Brokers)
  • Apprendre à configurer et manipuler un topic Kafka
  • Apprendre à envoyer et retirer des messages d'un topic Kafka
  • Chefs de projets
  • Architectes
  • Consultants
  • Administrateurs de bases de données
  • Développeurs d'applications

1 - Introduction à HBase

  • HBase dans l’écosystème Hadoop.
  • Différences entre HBase et un SGBDR.
  • Architecture générale de HBase.
  • Importance de Zookeeper pour HBase.

2 - Modèle de données HBase.

  • Structure et modèle des données de HBase.
  • Stockage physique des données.
  • Opérations HBase.
  • Notion de 'table' HBase.
  • Accéder à une valeur dans une cellule.

3 - Introduction à Zookeeper

  • Vue d'ensemble de Zookeeper.
  • Utilisté et usage de Zookeeper.
  • Interagir avec Zookeeper.

1 - Introduction à Kafka

  • Les architectures de communication entre applications.
  • Utilité et usage de Kafka.
  • Architecture et composants de Kafka.

2 - Vue d'ensemble de Kafka

  • Les clusters.
  • Les brokers.
  • Les topics.
  • Les partitions.
  • Les offsets.

1 - Interagir avec HBase

  • Lancer HBase et s’y connecter.
  • Créer une table HBase.
  • Remplir avec des données exemple et interroger HBase dans le terminal.
  • Interagir avec HBase en utilisant Zeppelin.
  • Création d'un flux Nifi pour insérer des données dans HBase.

1 - Interagir avec Kafka

  • Démarrer le broker Kafka.
  • Création d'un topic Kafka.
  • Utilisation d'un Producer pour envoyer des messages à Kafka.
  • Utilisation d'un Consumer pour extraire les messages de Kafka.
  • Création d'un flux Nifi pour insérer et extraire des messages à partir d'un topic Kafka.
Classe Virtuelle
Inclus tous les modules connexes
249.00 CAD$

Inscription au module   'Ingérer des Données Relationnelles'    avec Sqoop

Inscription au module   'Ingérer des Données en Continue'    avec Flume et Nifi

Inscription au module   'Ingérer des Données à Haute Vitesse'   avec HBase et Kafka

Inscription au module   'Ingérer des données avec Spark Streaming'

Durée totale de 9 heures (3 classes de 3h chacune)

Exercices pratiques

Accès aux matériels des modules (slides du cours et solutions des exercices)

Support individuel par email

Vous recevrez tous les liens pour accéder à la classe virtuelle en temps et en heure

Détails du Module
Technologies
Réservez Votre Place


    Réservez votre place pour le prochain cours. Vous recevrez un email pour vous informer de la date.

    Nom*
    Prénom*
    Email*
    Gestion et Analyse des Big Data (cours complet)Big Data – Une journée pour comprendreIntroduction aux Big DataP1 - Stocker et Traiter les Big DataP2 - Analyser les Big DataP3 - Ingestion des Big DataAtelier Big Data


    * Requis