Questions pour un QCM
Afin de préparer ensemble un QCM pour vous préparer à l'examen, vus pouvez ajouter des question en suivant la syntaxe suivante :
// Commentaire
::Titre de la question :: Question { =Bonne réponse ~Mauvaise réponse 1 ~Mauvaise réponse 2 ~Mauvaise réponse 3 }
Les questions
// Un exemple de question
::Monde ouvert
::Dans un monde ouvert {
=Il faut déclarer un fait faux pour qu'il le soit
~Tout fait non déclaré est faux
}
// Ajoutez vos propositions de questions en dessous, pour le retour à la ligne dans une question utiliser SHIFT+Entrée
::Algo glouton
::L’algorithme glouton {
~parcours toutes les solutions possibles
=fait le choix avec le meilleur score (grâce à une heuristique)
~fait de nombreux chemins au hasard, et choisit le meilleur (en ne faisant pas deux fois le même)
}
// Introduction à l'apprentissage supervisé
::Définition de l'apprentissage supervisé::
Apprentissage supervisé signifie {
=Apprendre à partir d'exemples étiquetés
~Apprendre sans aucun retour
~Apprendre uniquement par renforcement
~Apprendre uniquement sur des textes}
::Composants X et y::
Dans l'apprentissage supervisé, X désigne {
=Les caractéristiques (features) des observations
~Les étiquettes de sortie
~Les erreurs du modèle
~Les hyperparamètres}
::But du modèle supervisé::
L'objectif de l'apprentissage supervisé est {
=Apprendre une fonction f telle que f(xi) ≈ yi
~Minimiser les erreurs humaines
~Maximiser le nombre de variables
~Générer de nouvelles observations}
::Terme de régularisation::
Le terme Ω(f) sert à {
=Contrôler la complexité du modèle
~Améliorer la précision brute
~Réduire le nombre d’échantillons
~Changer le type de données}
::Surapprentissage::
Le surapprentissage est un problème où {
=Le modèle est trop ajusté aux données d'entraînement
~Le modèle généralise très bien
~Le modèle n’a pas assez de paramètres
~Le modèle prédit parfaitement les données test}
::Classification binaire::
Une tâche de classification binaire implique {
=Deux classes possibles
~Une valeur continue à prédire
~Une séparation floue entre les classes
~Une grande variété de sorties}
::Régression::
Dans une tâche de régression, la sortie y est {
=Une variable réelle continue
~Une catégorie discrète
~Un vecteur booléen
~Un ensemble de classes}
::k-NN – Principe::
Le principe du k-NN est basé sur {
=La similarité avec les voisins les plus proches
~La moyenne des caractéristiques
~L'entraînement d'un réseau profond
~L’optimisation par gradient}
::k-NN – Hyperparamètre k::
Un petit k dans k-NN entraîne généralement {
=Une forte variabilité des résultats
~Une plus grande robustesse
~Un sur-apprentissage moins probable
~Une meilleure généralisation}
::k-NN – Distance::
La distance utilisée dans k-NN permet de {
=Définir la notion de proximité entre points
~Éviter le sur-apprentissage
~Réduire le nombre d'échantillons
~Remplacer la fonction de perte}
::Arbres de décision – Principe::
Un arbre de décision apprend en {
=Créant des règles de séparation successives
~Calculant une moyenne globale
~Mesurant des distances euclidiennes uniquement
~Appliquant des fonctions de noyaux}
::Random Forest – Principe::
Une forêt aléatoire combine {
=Plusieurs arbres de décision
~Un seul arbre très profond
~Des réseaux de neurones
~Des SVM linéaires}
::Random Forest – Nombre d'arbres::
Augmenter le nombre d’arbres dans une forêt aléatoire peut {
=Améliorer la précision jusqu’à un certain point
~Toujours rendre le modèle plus simple
~Réduire la variabilité à zéro
~Accélérer considérablement le calcul}
::SVM – Fonctionnement::
Un SVM cherche à {
=Trouver une frontière maximale entre les classes
~Ajuster une courbe aux données
~Choisir les voisins les plus proches
~Calculer une distance bayésienne}
::SVM – Hyperparamètre C::
Une valeur élevée de C pour un SVM peut entraîner {
=Moins d'erreurs sur les données d'entraînement
~Une séparation plus simple
~Une convergence plus rapide
~Moins de support vectors}
::SVM – Kernel::
Le noyau (kernel) dans un SVM permet {
=De transformer les données dans un espace de décision non linéaire
~D’éliminer les caractéristiques inutiles
~De prédire des sorties probabilistes
~D’utiliser des arbres de décision}
::MLP – Principe::
Un perceptron multicouche (MLP) apprend en {
=Optimisant les poids par descente de gradient
~Créant des arbres de décision
~Moyennant les sorties des voisins
~Utilisant des SVM successifs}
::MLP – Fonction d’activation::
La fonction ReLU dans un MLP est {
=Une fonction d’activation non linéaire populaire
~Une méthode de régularisation
~Une technique de validation croisée
~Un type de normalisation}
::Validation croisée::
La validation croisée sert à {
=Évaluer les performances d’un modèle sur des données non vues
~Augmenter la taille du dataset
~Réduire le nombre de paramètres
~Simplifier la tâche de classification}
::Surapprentissage – Remède::
Le moyen principal pour éviter le surapprentissage est {
=La régularisation
~L’augmentation de la taille du vecteur y
~La réduction des dimensions
~La duplication des données d’entraînement}