- Découvrir tous les concepts fondamentaux à maîtriser pour un Machine Learning Engineer.
Chefs de projet et aux équipes de la MOE devant mener des projets en IA, aux membres d’une DSI.
✅ Pré-requis:Avoir des notions en Python est un plus
Les débutants en programmation python feront l’objet d’une remise à niveau succincte et rapide et seront accompagnés de près :
Avant la formation au Machine Learning à l’aide de Mooc à suivre sur la programmation en Python
Pendant la formation grâce à un accompagnement de proximité
📑 Contenu:Module 1 - Initiation à Python pour les débutants (3 jours) : Mise à niveau
- Introduction
- Mooc sur la programmation en Python
- Pré-requis Python / Pandas : rattrapage accéléré
- Aide-mémoire PYTHON pour la DATA SCIENCE fourni
Module 2 Introduction pour les moins débutants et les confirmés en Python (3 jours)
- Introduction
- Quel est le programme de la formation Machine Learning?
- Installation Anaconda / Python
- Installation Anaconda (version texte)
- Installation bibliothèques requises dans la formation
Module 3 - MACHINE LEARNING : LES FONDAMENTAUX
- Introduction aux K plus proches voisins - k Nearest Neigbors (kNN)
- Définition du problème : qu'est-ce que le Machine Learning?
- Introduction au dataset
- Les k plus proches voisins - k Nearest Neighbors
- Distance euclidienne
- Calculer la distance pour toutes les observations
- Randomiser et trier
- Fonction pour faire des prédictions
Module 4 - Evaluer la performance du modèle
- Tester la qualité des prédictions
- Les métriques d'erreur
- Erreur quadratique moyenne (MSE)
- Entrainer un autre modèle
- Racine carrée de l'erreur quadratique moyenne (RMSE)
- Comparaison des erreurs
Module 5 - Modèle multivarié des K plus proches voisins
- Récapitulatif
- Supprimer des caractéristiques
- Gérer les valeurs manquantes
- Normaliser les colonnes
- Distance Euclidienne pour le cas multivarié
- Introduction à la bibliothèque Scikit-learn
- Entrainer un modèle et faire des prédictions en utilisant Scikit-learn
- Calculer l'erreur quadratique moyenne en utilisant Scikit-learn
- Utiliser plus de caractéristiques
- Utiliser toutes les caractéristiques
Module 6 - Optimisation hyper paramétrique
- Récapitulatif
- Optimisation hyper paramétrique
- Elargir la grille de recherche
- Visualiser les valeurs des hyper paramètres
- Varier les caractéristiques et les hyper paramètres
- Pratiquer le déroulement des opérations (workflow)
Module 7 - Validation croisée
- Introduction
- Validation croisée Holdout
- Validation croisée des K-Fold
- Première itération
- Fonction pour entrainer des modèles
- Exécuter une validation croisée des K-Fold en utilisant Scikit-learn
- Explorer différentes valeurs de K
- Compromis Biais - Variance
Module 8 - Projet guidé 1 : Prédiction de prix de voitures
- Introduction au dataset
- Solution - Introduction au dataset
- Nettoyage de données
- Solution - Nettoyage de données
- Modèle univarié
- Solution - Modèle univarié
- Modèle multivarié
- Solution - Modèle multivarié
- Variation des hyperparamètres
- Solution - Variation des hyperparamètres
Module 9 - REGRESSION LINEAIRE appliquée au MACHINE LEARNING
- Modèle de Régression Linéaire
- Apprentissage basé sur une instance Vs. Apprentissage basé sur un modèle
- Introduction aux données
- Régression linéaire simple
- Méthode des moindres carrés
- Entrainer un modèle de régression linéaire avec Scikit-learn
- Faire des prédictions
- Régression linéaire multiple
Module 10 - Sélection des caractéristiques
- Valeurs manquantes
- Corrélation des colonnes de caractéristiques avec la colonne cible
- Heatmap de la matrice de corrélation
- Entrainer et tester le modèle
- Supprimer les caractéristiques de faible variance
- Modèle final
Module 11 - Gradient Descent
- Introduction au Gradient Descent
- Gradient Descent à un seul paramètre
- Dérivée de la fonction de coût d'erreur
- Fonction Gradient Descent
- Fonction dérivée
- Comprendre le gradient descendant pour des paramètres multiples
- Gradient de la fonction coût pour plusieurs paramètres
Module 12 - Moindres carrés ordinaires
- Estimation des moindres carrés ordinaires
- La fonction de coût
- Dérivée de la fonction de coût
- Gradient Descendant vs. Moindres carrés ordinaires
Module 13 - Traitement, nettoyage et transformation des caractéristiques
- Introduction
- Caractéristiques de catégorie
- Technique pour gérer les caractéristiques de catégorie: colonnes factices
- Transformer des caractéristiques numériques impropres ou inappropriées
- Valeurs manquantes
- Imputer des valeurs manquantes
Module 14 - Projet guidé 2 : Prédiction des prix de vente de maisons
- Introduction au projet
- Solution - Introduction au projet
- Traitement des caractéristiques
- Solution - Traitement des caractéristiques
- Sélection des caractéristiques
- Solution - Sélection des caractéristiques
- Entrainement et Test
- Solution - Entrainement et Test
Module 15 - PARTIE 3 -- MACHINE LEARNING : TECHNIQUES INTERMEDIAIRES
- Régression Logistique
- Classification
- Introduction aux données
- Régression logistique
- Fonction logistique
- Entrainer un modèle de régression logistique
- Tracer les probabilités
- Prédiction des libellés
Module 16 - Introduction à l'évaluation d'un classificateur binaire
- Introduction aux données
- Précision
- Résultats de la classification binaire
- Sensibilité
- Spécificité
Module 17 - Classification Multi-Classe
- Introduction aux données
- Variables Nominales
- Classification Multi-Classe
- Entrainer un modèle de régression logistique multi-classe
- Tester les modèles
- Choisir l'origine de la voiture
Module 18 - Overfitting (surapprentissage)
- Introduction aux données
- Biais et Variance
- Compromis Biais - Variance
- Modèles multivariés
- Validation croisée
- Graphique compromis erreur quadratique moyenne / variance
Module 19 - Les bases du Clustering
- Aperçu du Clustering
- Introduction aux données
- Explorer les données
- Distance entre les Sénateurs
- Clustering
- Explorer les Clusters
- Explorer les Sénateurs présents dans le mauvais Cluster
- Tracer les Clusters
- Trouver les Sénateurs radicaux
Module 20 - K-Means Clustering
- Clustering sur les joueurs de NBA
- Les meneurs de Jeu
- Points par Match
- Ratio Passe décisive - Perte de balle
- Visualiser graphiquement ces meneurs de jeu
- Clustering des joueurs
- L'algorithme Setup K-Means (itératif)
- Visualiser les centroïdes
- L'algorithme Setup K-Means (la suite)
- Etape 1 (Distance Euclidienne)
- Etape 1 (la suite)
- Visualiser les Clusters
- Etape 2
- Répéter l'étape 1
- Répéter les étapes 1 & 2
- Utilisation de la classe KMeans
Module 21 - Gradient Descent
- Introduction aux données
- Modèle linéaire
- Introduction à la fonction Cost
- La fonction Cost (suite)
- Fonction Cost - Pentes
- Algorithme du Gradient Descent
- BONUS : Introduction au concept de Réseaux de neurones
- Introduction aux données
- Neurones
- Fonction Cost
- Calculer les Gradients
- Réseau de neurones à 2 couches
- Réseaux de neurones
- Fonction de coût pour un réseau de neurones multiple
- Backpropagation (ou rétropropagation)
- Séparation des données
- Prédiction sur les fleurs d'iris
- Projet guidé 3 : Prédire le marché boursier
- Le marché boursier et le dataset
- Lire les données
- Solution - Lire les données
- Générer des indicateurs
- Solution - Générer des indicateurs
- Séparer les données
- Solution - Séparer les données
- Faire des prédictions
- Solution - Faire des prédictions
- Améliorer le modèle
- Solution - Améliorer le modèle
- Pour les formations en présentiel : Support de cours, salle et équipement informatique mis à disposition
- Plateforme de visioconférence pour les cours à distance
- Evaluation des besoins en amont de la formation et adaptation du programme aux attentes
- Alternance d’exercices pratiques corrigés, de questionnaires
- Evaluation à chaud et à froid du niveau de satisfaction et de la mise en application des compétences acquises en cours de formation.
- Formateurs disposant d’une d’expérience minimum de 5 ans sur la thématique enseignée.
- Test de positionnement en début de formation
- Tests ou quiz de contrôle de connaissances ou autoévaluation à chaque étape de l’apprentissage
- Remise d’une attestation finale individuelle. Cette attestation valide le niveau de progression et les acquis