Cours
PrestaShop

Newsletter

Le Machine Learning

Construisez des modèles prédictifs grâce aux algorithmes de Machine Learning

Ou s'abonner pour un accès illimité sans engagement à tout Skilleos pour 19,90€/mois. En savoir plus
chapitre

Chapitres

140

chrono

Durée

49h09 de cours en ligne

chrono

Prérequis

acces

Accès

24h/24 et 7j/7
PC/Mac, tablette et smartphone

certificat

Certificat

Délivré à la fin de la formation

1for1

Notes

5 / 5 - 2 votes

1for1

1 For 1

Un abo ou un achat sur Skilleos = Un cours offert à un bénéficiaire

Rod Paris

Rod Paris

Rod a déjà accompagné plus de 5000 étudiants sur ses formations. Entrepreneur, Data Scientist, Développeur Web et Formateur passionné de Cloud, Big Data et d’Intelligence Artificielle, il écrit aussi de nombreux articles sur le blog Mon Coach Data. Sa mission consiste à vous inspirer à créer quelque chose qui ait du sens pour vous, car c’est en étant passionné que l’on réussit le mieux. Il propose aujourd’hui des formations sur Python, SQL, la Data Science et l’Intelligence Artificielle. Il a hâte de vous retrouver dans ses cours et de vous transmettre ses passions.

Vous souhaitez construire vos propres modèles prédictifs avec des algorithmes de Machine Learning?

Ce cours de Machine Learning vous permettra de comprendre comment construire des modèles prédictifs, comment mesurer leurs performances et comment les améliorer.

Cette formation explique pas à pas les notions compliquées de Machine Learning pour les rendre accessible au plus grand nombre. Apprenez étape par étape les mécanismes des algorithmes des k Nearest Neighbors (k plus proches voisins), de la régression linéaire, de la régression logistique et de l’algorithme des k-mean clustering. Vous apprendrez à évaluer la qualité et précision de ces modèles via des métriques d’erreur. La validation croisée et l’optimisation d’hyper paramètres n’auront plus de secrets pour vous. A la fin de cette formation, vous aurez toutes les bases pour comprendre et construire vos propres modèles de Machine Learning plus poussés. 

Contenu du cours

  • 5 datasets réels
  • Code source

À la fin du cours, vous serez capable de :

  • Utiliser l'algorithme des K plus proches voisins et K-means Clustering
  • Utiliser la régression linéaire et la régression logistique
  • Evaluer les performances / précision des modèles avec des métriques pertinentes
  • Tester les modèles avec la validation croisée
  • Améliorer les modèles en sélectionnant et créant les meilleurs caractéristiques pertinentes

Chapitres

INTRODUCTION
1
01:56
Présentation complète du programme
2
01:17
Installation Anaconda / Python
3
02:13
Installation des bibliothèques nécessaires
4
15:45
Pré-requis Python / Pandas
MACHINE LEARNING : LES FONDAMENTAUX
5
00:43
Le programme
INTRODUCTION AUX K PLUS PROCHES VOISINS - K NEAREST NEIGBORS (KNN)
6
02:37
Définition du problème
7
05:30
Introduction au dataset
8
04:06
Les k plus proches voisins - K Nearest Neighbors
9
07:17
Distance euclidienne
10
06:08
Calcul de la distance euclidienne pour toutes les observations
11
06:22
Randomisation et triage
12
05:11
Prix moyen
13
08:31
Fonction pour faire des prédictions
ÉVALUER LA PERFORMANCE DU MODÈLE
14
08:44
Tester la qualité des prédictions
15
04:18
Les métriques d'erreur
16
02:41
Erreur quadratique moyenne (MSE)
17
06:35
Entraînement d'un autre modèle
18
03:06
Racine carrée de l'erreur quadratique moyenne (RMSE)
19
07:45
Comparaison des erreurs
MODÈLE MULTIVARIÉ DES K PLUS PROCHES VOISINS
20
03:53
Récapitulatif
21
07:54
Suppression des caractéristiques
22
05:47
Gérer les valeurs manquantes
23
07:50
Normalisation des colonnes
24
09:20
Distance euclidienne pour le cas multivarié
25
05:00
Introduction à la bibliothèque Scikit-learn
26
11:26
Entraînement d'un modèle et faire des prédictions en utilisant Scikit-learn
27
04:37
Calcul de l'erreur quadratique moyenne en utilisant Scikit-learn
28
06:43
Utilisation de plus de caractéristiques
29
06:42
Utilisation de toutes les caractéristiques
OPTIMISATION HYPER PARAMÉTRIQUE
30
02:36
Récapitulatif
31
08:44
Optimisation hyper paramétrique
32
02:13
Élargissement de la grille de recherche
33
03:11
Visualisation des les valeurs des hyper paramètres
34
04:25
Variations des caractéristiques et les hyper paramètres
35
14:00
Pratique du workflow
VALIDATION CROISÉE
36
07:14
Introduction
37
09:28
Validation croisée Holdout
38
05:42
Validation croisée des K-Fold
39
05:48
Première itération
40
09:00
Fonction pour entraîner des modèles
41
10:42
Exécution d'une validation croisée des K fold
42
01:14
Exploration des différentes valeurs de K
43
02:05
Compromis biais - variance
RÉGRESSION LINÉAIRE APPLIQUÉE AU MACHINE LEARNING
44
00:32
Le programme
MODÈLE DE RÉGRESSION LINÉAIRE
45
03:35
Apprentissage basé sur une instance Vs. Apprentissage basé sur un modèle
46
00:00
Introduction aux données
47
05:14
Régression linéaire simple
48
04:53
Méthode des moindres carrés
49
05:48
Entraînement d'un modèle de régression linéaire avec Scikit-learn
50
05:18
Accomplissement de prédictions
51
05:15
Régression linéaire multiple
SÉLECTION DES CARACTÉRISTIQUES
52
06:29
Valeurs manquantes
53
05:11
Corrélation des colonnes de caractéristiques avec la colonne cible
54
04:38
Heatmap de la matrice de corrélation
55
08:20
Entraînement et test du modèle
56
04:39
Suppression des caractéristiques de faible variance
57
05:05
Modèle final
GRADIENT DESCENT
58
02:32
Introduction au Gradient Descent
59
03:01
Gradient Descent à un seul paramètre
60
02:36
Dérivée de la fonction de coût d'erreur
61
04:36
Fonction Gradient Descent
62
04:06
Fonction dérivée
63
00:45
Comprendre le gradient descendant pour des paramètres multiples
64
06:25
Gradient de la fonction coût pour plusieurs paramètres
MOINDRES CARRES ORDINAIRES
65
08:00
Estimation des moindres carrés ordinaires
66
01:57
La fonction de coût
67
01:18
Dérivée de la fonction de coût
68
01:11
Gradient Descendant vs. Moindres carrés ordinaires
TRAITEMENT, NETTOYAGE ET TRANSFORMATION DES CARACTÉRISTIQUES
69
04:09
Introduction
70
08:33
Caractéristiques de catégorie
71
06:10
Technique pour gérer les caractéristiques de catégorie: colonnes factices
72
03:32
Transformation des caractéristiques numériques impropres ou inappropriées
73
05:17
Valeurs manquantes
74
05:17
Imputation de valeurs manquantes
MACHINE LEARNING : TECHNIQUES INTERMÉDIAIRES
75
00:43
Le programme
RÉGRESSION LOGISTIQUE
76
02:09
Classification
77
03:30
Introduction aux données
78
01:14
Régression logistique
79
05:22
Fonction logistique
80
04:02
Entrainement d'un modèle de régression logistique
81
04:47
Tracer les probabilités
82
02:50
Prédiction des libellés
INTRODUCTION A L’ÉVALUATION D'UN CLASSIFICATEUR BINAIRE
83
05:31
Introduction aux données
84
05:50
Précision
85
08:15
Résultats de la classification binaire
86
03:50
Sensibilité
87
06:21
Spécificité
CLASSIFICATION MULTI-CLASSE
88
04:40
Introduction aux données
89
07:55
Variables nominales
90
03:02
Classification multi-classe
91
07:13
Entraînement d'un modèle de régression logistique multi-classe
92
03:30
Test des modèles
93
03:53
Choix de l'origine de la voiture
OVERFITTING (SURAPPRENTISSAGE)
94
04:41
Introduction aux données
95
01:27
Biais et Variance
96
09:03
Compromis Biais - Variance
97
06:29
Modèles multivariés
98
11:15
Validation croisée
99
05:30
Graphique compromis erreur quadratique moyenne / variance
LES BASES DU CLUSTERING
100
01:19
Aperçu du clustering
101
03:01
Introduction aux données
102
01:53
Explorer les données
103
07:33
Distance entre les Sénateurs
104
06:31
Clustering
105
05:22
Exploration des clusters
106
03:42
Exploration des Sénateurs présents dans le mauvais Cluster
107
02:44
Tracer les Clusters
108
09:54
Trouver les Sénateurs radicaux
K-MEANS CLUSTERING
109
02:39
Clustering sur les joueurs de NBA
110
02:13
Les meneurs de jeu
111
02:27
Points par Match
112
02:21
Ratio Passe décisive - Perte de balle
113
02:17
Visualisation graphique des meneurs de jeu
114
01:34
Clustering des joueurs
115
03:52
L'algorithme Setup K-Means (itératif)
116
03:11
Visualisation des centroides
117
05:17
L'algorithme Setup K-Means (la suite)
118
04:36
Etape 1 (Distance Euclidienne)
119
08:39
Etape 1 (la suite)
120
04:01
Visualisation des Clusters
121
04:33
Etape 2
122
01:40
Répétition de l'étape 1
123
02:07
Répétition des étapes 1 & 2
124
02:56
Utilisation de la classe KMeans
GRADIENT DESCENT
125
04:57
Introduction aux données
126
05:40
Modèle linéaire
127
11:06
Introduction à la fonction cost
128
12:04
La fonction cost(suite)
129
09:29
Fonctions cost - pentes
130
20:25
Algorithme gradient descent
RÉSEAUX DE NEURONES
131
05:17
Introduction aux données
132
09:02
Neurones
133
06:19
Fonction cost
134
05:27
Calculer les gradients
135
11:26
Réseau de neurones à 2 couches
136
07:09
Réseaux de neurones
137
03:29
Fonction cost pour un réseau de neurones multiple
138
10:06
Backpropagation
139
02:22
Séparation des données
140
02:56
Prédiction sur les fleurs d'iris


   Avis (2)

5/ 5


34 élèves suivent déjà ce cours



  • .
    Il y a 3 semaines


    Ce sujet est nouveau pour moi, fort heureusement il est bien traité et expliqué par le formateur. Ravi de cette expérience d'enseignement.

  • .
    Il y a 1 mois


    Le sujet est très intéressant et bien expliqué.

Nos élèves ont également aimé :

Le Machine Learning

49.00 €

close if for show price

  • langues fr