-
Démarche pour prédire les survivants du Titanic avec BigML
-
Tutoriel vidéo pour prédire les survivants du Titanic avec BigML
- [Vidéo] collecter les données pour prédire les survivants du Titanic avec BigML
- [Vidéo] préparer les données pour prédire les survivants du Titanic avec BigML
- [Vidéo] analyser les données pour prédire les survivants du Titanic avec BigML
- [Vidéo] évaluer le modèle pour prédire les survivants du Titanic avec BigML
- [Vidéo] faire une prédiction des survivants du Titanic avec BigML
-
Tutoriel pour prédire les survivants du Titanic avec BigML
- Utiliser BigML pour prédire les survivants du Titanic
- Collecter les données du Titanic dans BigML
- Préparer les données du Titanic avec BigML
- Explorer les données du Titanic avec BigML
- Créer un échantillon de test des données du Titanic avec BigML
- Modéliser les données du Titanic avec BigML
- Evaluer le modèle des données du Titanic avec BigML
- Prédire les survivants du Titanic avec Big ML
- Optimiser la performance du modèle de prédiction des survivants du Titanic avec BigML
- Aller plus loin sur la prédiction des survivants du Titanic avec BigML
Créer un échantillon de test des données du Titanic avec BigML
Afin de mesurer la pertinence de vos modèles, il faut diviser vos données en 2:
- des données d’entraînement pour estimer les paramètres des modèles (80% du dataset)
- des données de test pour évaluer l’impact de divers choix de modèles et hyper-paramètres (20% du dataset)
Pour cela, vous devez définir le pourcentage, donner des noms à vos échantillons et créer le jeu de données.
BigML va créer 2 Dataset :
- un “xxx|Trainig 80%”, qui servira à entraîner les algorithmes
- un “xxx|Test 20%”, qui servira à tester les algorithmes