Objectifs pédagogiques / Compétences visées
- Développer et maintenir un modèle de Machine Learning
- Passer d'un modèle à sa production
- Identifier les acteurs et le coût de l'industrialisation d'un projet Data Science.
Niveau requis
Avoir des connaissances en Machine Learning, en analyse de données ainsi qu'en Python.
Public concerné
Data scientists, data analysts, statisticiens.
Programme
Jour 1
Introduction
- L'ère de la Data Science
- Les acteurs dans un projet Data Science
- Le cycle d'un projet Data Science
- L'environnement technique d'un projet Data Science POC (Proof Of Concept), POV (Proof Of Value), production
Déploiement, concepts et étapes
- Evaluer le projet
- Tester son code
- Rendre son code déployable
- Gérer les versions
- Le plan de déploiement
- Plan de monitoring et de maintenance
- Production des rapports
- Documentation de l'expérience
Déploiement, notion et acteurs
- Le déploiement dans le Cloud
- Machine Learning Operations (MLOps)
- Training, Tuning et Serving sur les plateformes d'Intelligence Artificielle (IA)
- Kubernetes
- Kubeflow
Jour 2
Kubeflow
- Aperçu de Kubeflow
- Configuration de l'environnement Kubeflow
- Options de déploiement de Kubeflow
- Configuration de Kubeflow sur Google Cloud Platform (GCP)
- Composants de Kubeflow
- Introduction à Docker
- Pourquoi Kubernetes ?
- Introduction à Kubernetes
- Composants de base de Kubernetes
- Construire un modèle d'apprentissage automatique sur Kubeflow
- Processus de développement du modèle et défis
- Kubeflow Notebook
- Les métadonnées
- Training distribuée
- Réglage des hyperparamètres avec Katib
- Serving sous Kubeflow
- Construire un pipeline d'apprentissage automatique à l'aide de Kubeflow pipeline
Modalités d’évaluation des acquis
- En cours de formation, par des études de cas ou des travaux pratiques
- Et, en fin de formation, par un questionnaire d'auto-évaluation ou une certification (M2i ou éditeur)