Apprenez comment Importer et/ou Exporter des données relationnelles vers l’écosystème Hadoop de façon optimale.
Apprenez les techniques d'ingestion des données structurées ou non en Continue avec Apache Flume et Apache Nifi.
Découvrez les challenges et les outils incontournables pour collecter des données massives qui arrivent à toute vitesse.
Spark Streaming est le module de Spark destiné à ingérer et traiter des données qui arrivent en continu dans une fenêtre de temps donnée.