Accueil    Formations    Informatique    Big Data    Big Data - Développement    Spark avec Databricks

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Objectifs pédagogiques / Compétences visées

  • Identifier les caractéristiques principales de Spark et des Databricks
  • Décrire comment les DataFrames sont créées et évaluées dans Spark
  • Appliquer les transformations DataFrame pour traiter et analyser les données
  • Appliquer le streaming structuré pour traiter les données en continu.

Niveau requis

Etre capable de développer en Scala ou Python et avoir des connaissances en SQL.

Public concerné

Développeurs d'applications, architectes, Data engineers, Data analysts.

Programme

Jour 1

Introduction

  • Qu'est-ce que Databricks ?
  • Quels sont les composants de Databricks ?
  • Démonstration : comprendre l'environnement de Databricks
  • Créer un compte sur Databricks
  • Créer un cluster sous Databricks
  • Considération matérielle
  • Databricks et le Cloud

Databricks : opérations

  • Création de votre premier projet Spark sous Databricks
  • Importer et exporter les données sous Databricks
  • Accéder aux différentes sources de données
  • Manager le cluster
  • Créer un job sous Databricks
  • Explorer les Data set
  • Lancer le Notebook
  • Premier code sous Notebook
  • Exporter le code sous Databricks
Exemples de travaux pratiques (à titre indicatif)
  • Explorer et configurer votre Databricks
  • Coder sur Databricks

Jour 2

Spark : introduction

  • Batch vs le temps réel dans le Big Data Analytics
  • Introduction à Spark
  • Vue d'ensemble de Spark
  • Ecosystème Spark
  • Spark vs Hadoop
  • Architecture Spark
  • Streaming Data Spark
  • Spark Standalone cluster
  • Spark Web UI

Jour 3

Azure Databricks

  • Qu'est-ce que Azure Databricks ?
  • Quels sont les composants d'Azure Databricks ?
  • Démonstration : comprendre l'environnement Azure Databricks
  • Chargement des données
  • Transformer et nettoyer les données
  • ETL dans Azure Databricks
    • Extraction à partir des Azure Storage Services
    • Lecture de plusieurs formats de fichiers
    • Application de schémas
  • Apprentissage automatique dans Azure Databricks
  • Streaming dans Azure Databricks

Spark : concepts

  • Remise à niveau Python / Scala
  • RDD (Resilient Distributed Dataset)
  • DataFrame
  • SQL
  • Streaming
  • MLlib
  • GraphX

Spark : opérations

  • Transformations dans le RDD (Resilient Distributed Dataset)
  • Actions dans le RDD
  • Spark SQL et DataFrame
    • SQLContext dans Spark SQL
    • Travailler avec les DataFrames
    • Implémentation d'un exemple pour Spark SQL
    • Intégration de Hive et Spark SQL
    • Support pour JSON et les formats des "Parquet Files"
    • Implémentation de la Data Visualization avec Spark
    • Chargement de données
    • Les requêtes Hive à travers Spark
  • Spark Streaming
    • Les transformations dans Spark Streaming
    • La "fault tolerance" dans Spark Streaming
  • Niveaux de parallélismes
  • Machine Learning
    • Types de données
    • Algorithmes et statistiques
    • Classification et régression
    • Clustering
    • Filtrage collaboratif

Modalités d’évaluation des acquis

  • En cours de formation, par des études de cas ou des travaux pratiques
  • Et, en fin de formation, par un questionnaire d'auto-évaluation ou une certification (M2i ou éditeur)

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Vous souhaitez suivre cette formation ?

Cette formation est disponible en présentiel ou en classe à distance, avec un programme et une qualité pédagogique identiques.

Choisissez la modalité souhaitée pour vous inscrire :

Votre société a besoin d'une offre personnalisée ? Contactez-nous

Faites-nous part de votre projet de formation, nous sommes là pour vous guider.

Contactez-nous