fff

Combien de stagiaires suivront cette formation ?


Valider Annuler

Accueil    Formations    Informatique    Big Data    Big Data - Développement    Spark avec Databricks

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Objectifs de formation

A l'issue de cette formation, vous serez capable de :

  • Identifier les caractéristiques principales de Spark et des Databricks
  • Décrire comment les DataFrames sont créées et évaluées dans Spark
  • Appliquer les transformations DataFrame pour traiter et analyser les données
  • Appliquer le streaming structuré pour traiter les données en continu.

Modalités, méthodes et moyens pédagogiques

Formation délivrée en présentiel ou distanciel* (blended-learning, e-learning, classe virtuelle, présentiel à distance).

Le formateur alterne entre méthode** démonstrative, interrogative et active (via des travaux pratiques et/ou des mises en situation).

Variables suivant les formations, les moyens pédagogiques mis en oeuvre sont :

  • Ordinateurs Mac ou PC (sauf pour certains cours de l'offre Management), connexion internet fibre, tableau blanc ou paperboard, vidéoprojecteur ou écran tactile interactif (pour le distanciel)
  • Environnements de formation installés sur les postes de travail ou en ligne
  • Supports de cours et exercices

En cas de formation intra sur site externe à M2i, le client s'assure et s'engage également à avoir toutes les ressources matérielles pédagogiques nécessaires (équipements informatiques...) au bon déroulement de l'action de formation visée conformément aux prérequis indiqués dans le programme de formation communiqué.

* nous consulter pour la faisabilité en distanciel

** ratio variable selon le cours suivi

Prérequis

Etre capable de développer en Scala ou Python et avoir des connaissances en SQL.

Public concerné

Développeurs d'applications, architectes, Data engineers, Data analysts.

Programme

Jour 1

Introduction

  • Qu'est-ce que Databricks ?
  • Quels sont les composants de Databricks ?
  • Démonstration : comprendre l'environnement de Databricks
  • Créer un compte sur Databricks
  • Créer un cluster sous Databricks
  • Considération matérielle
  • Databricks et le Cloud

Databricks : opérations

  • Création de votre premier projet Spark sous Databricks
  • Importer et exporter les données sous Databricks
  • Accéder aux différentes sources de données
  • Manager le cluster
  • Créer un job sous Databricks
  • Explorer les Data set
  • Lancer le Notebook
  • Premier code sous Notebook
  • Exporter le code sous Databricks
Exemples de travaux pratiques (à titre indicatif)
  • Explorer et configurer votre Databricks
  • Coder sur Databricks

Jour 2

Spark : introduction

  • Batch vs le temps réel dans le Big Data Analytics
  • Introduction à Spark
  • Vue d'ensemble de Spark
  • Ecosystème Spark
  • Spark vs Hadoop
  • Architecture Spark
  • Streaming Data Spark
  • Spark Standalone cluster
  • Spark Web UI

Jour 3

Azure Databricks

  • Qu'est-ce que Azure Databricks ?
  • Quels sont les composants d'Azure Databricks ?
  • Démonstration : comprendre l'environnement Azure Databricks
  • Chargement des données
  • Transformer et nettoyer les données
  • ETL dans Azure Databricks
    • Extraction à partir des Azure Storage Services
    • Lecture de plusieurs formats de fichiers
    • Application de schémas
  • Apprentissage automatique dans Azure Databricks
  • Streaming dans Azure Databricks

Spark : concepts

  • Remise à niveau Python / Scala
  • RDD (Resilient Distributed Dataset)
  • DataFrame
  • SQL
  • Streaming
  • MLlib
  • GraphX

Spark : opérations

  • Transformations dans le RDD (Resilient Distributed Dataset)
  • Actions dans le RDD
  • Spark SQL et DataFrame
    • SQLContext dans Spark SQL
    • Travailler avec les DataFrames
    • Implémentation d'un exemple pour Spark SQL
    • Intégration de Hive et Spark SQL
    • Support pour JSON et les formats des "Parquet Files"
    • Implémentation de la Data Visualization avec Spark
    • Chargement de données
    • Les requêtes Hive à travers Spark
  • Spark Streaming
    • Les transformations dans Spark Streaming
    • La "fault tolerance" dans Spark Streaming
  • Niveaux de parallélismes
  • Machine Learning
    • Types de données
    • Algorithmes et statistiques
    • Classification et régression
    • Clustering
    • Filtrage collaboratif

Le contenu de ce programme peut faire l'objet d'adaptation selon les niveaux, prérequis et besoins des apprenants.

Modalités d’évaluation des acquis

  • En cours de formation, par des études de cas ou des travaux pratiques
  • Et, en fin de formation, par un questionnaire d'auto-évaluation

Accessibilité de la formation

Le groupe M2i s'engage pour faciliter l'accessibilité de ses formations. Les détails de l'accueil des personnes en situation de handicap sont consultables sur la page Accueil et Handicap.

Modalités et délais d’accès à la formation

Les formations M2i sont disponibles selon les modalités proposées sur la page programme. Les inscriptions sont possibles jusqu'à 48 heures ouvrées avant le début de la formation. Dans le cas d'une formation financée par le CPF, ce délai est porté à 11 jours ouvrés.

Partager cette formation Télécharger au format pdf Ajouter à mes favoris

Vous souhaitez suivre cette formation ?

Cette formation est disponible en présentiel ou en classe à distance, avec un programme et une qualité pédagogique identiques.

Tarif : à partir de 2 280 € HT.

Choisissez la modalité souhaitée pour vous inscrire :

Formation disponible en intra-entreprise

Votre société a besoin d'une offre personnalisée ? Contactez-nous

Découvrez les autres formations susceptibles de vous intéresser :

Faites-nous part de votre projet de formation, nous sommes là pour vous guider.

Contactez-nous