Stocker et Traiter les Big Data avec Hadoop et Spark

Cette formation couvre les deux aspects principaux de la gestion des données massives : Le Stockage et le Traitement distribués à l’aide des framework Hadoop et Spark.

Nous explorons en détail les caractéristiques de Hadoop et de Spark avec des exercices pratiques afin de vous permettre de bien comprendre et de maîtriser ces technologies.

Au terme de cette formation vous serez en mesure de :

  • Expliquer le fonctionnement de Hadoop et Spark
  • Stocker des données sur HDFS
  • Lancer des applications MapReduce et explorer leurs résultats
  • Ecrire du code basic en language Scala
  • Ecrire et lancer des applications Spark

Cette formation se décompose en deux parties (4 séances de 2.5 heures) dispensées le samedi et le dimanche sur deux semaines.

La première partie est consacrée à Hadoop et ses composantes HDFS, MapReduce et Yarn avec des exercices pratiques.

La deuxième partie est consacrée à Spark, ses composantes et à une introduction au language Scala et est accompagnée de plusieurs exercices pratiques.

  • Comprendre l'usage de Hadoop et de Spark comme infrastructure de stockage et de traitement.

Explorer Hadoop :

  • Identifier et définir les différents composants de l’écosystème Hadoop.
  • Comprendre et Utiliser HDFS, MapReduce et Yarn.
  • Apprendre à envoyer des données à Hadoop.
  • Lire et Ecrire des données à partir de HDFS.
  • Lancer des applications MapReduce pour manipuler de données stockées sur HDSF.

Explorer Spark :

  • Comprendre Spark et son écosystème.
  • Introduire le language Scala.
  • Ecrire et lancer des applications Spark.
  • Archiecte/Administrateur système
  • Développeur (Java / Python)
  • Toute personne désirant apprendre l'écosystème Hadoop/Spark.
  • Une connaissance / pratique de base des lignes de commande Linux est requise.
  • Comprendre les principes de base de la programmation Java / Python.
  • La connaissance de logiciels de virtualisation (Virtualbox, VMware, ...) est un plus.
  • Aucune expérience préalable avec Hadoop/Spark n’est nécessaire.

Le formateur est un expert du domaine qui intervient sur le sujet depuis plusieurs années en formation mais aussi en conseil.

Doté d’une grande qualité d’écoute, sa pédagogie et sa compétence technique vous permettront d’acquérir les compétences sur les architectures Big Data.

Les modules composants cette formation apparaissent dans la section 'Modules de ce Cours" de la présente page.

A l'issue de la formation et sous conditions d'avoir respecté les règles de présences (80% au moins) et d'avoir réussi la réalisation du projet final, nous vous remettons un certificat d'achèvement. Ce certificat vous aidera à avoir une longueur d'avance sur vos concurrents: avec les certificats en ligne de Big Data Facile, vous serez en mesure de prouver votre croissance professionnelle à tout le monde.

Tarifs
Inclus Un Environnement de Travail Pratique
149.00 CAD$

Inscription au module  'Stockage et Traitement des données'

Inscription au module  'Traitement des données avec Spark'

Durée totale de 10 heures (4 sessions de 2.5 heures chacune).

Livrée en ligne.

Accès aux slides du cours.

Support individuel par email.

Vous recevrez tous les liens pour accéder à la classe virtuelle en temps et en heure.

Détails du Cours
Horaires du cours
  • Samedi
    07:00 - 09:30
  • Dimanche
    07:00 - 09:30
Détails du Cours
Horaires du cours
  • Samedi
    07:00 - 09:30
  • Dimanche
    07:00 - 09:30
Module du Cours
Stockage, Traitement, Analyse et Ingestion.
mars 12, 2022
7:00 am
Explorez en détail dans ce module les concepts du système de stockage distribué et de traitement de Hadoop (HDFS et MapReduce).
Planification en cours
mars 12, 2022
7:00 am
Apprenez les concepts de base de Spark et comment il charge des données volumineuses en mémoire distribuée pour les traiter à grande vitesse.
Planification en cours