Introduction à la Régression Linéaire et Machine Learning

0.0(0)
Studied by 0 people
call kaiCall Kai
learnLearn
examPractice Test
spaced repetitionSpaced Repetition
heart puzzleMatch
flashcardsFlashcards
GameKnowt Play
Card Sorting

1/14

flashcard set

Earn XP

Description and Tags

Cette série de flashcards couvre les fondamentaux du machine learning, les types d'apprentissage, ainsi que les principes mathématiques de la régression linéaire et de la descente de gradient.

Last updated 9:07 PM on 5/16/26
Name
Mastery
Learn
Test
Matching
Spaced
Call with Kai

No analytics yet

Send a link to your students to track their progress

15 Terms

1
New cards

Apprentissage supervisé

Type d'apprentissage où l'on possède des données pour lesquelles on connaît l'étiquette (label) associée, comme dans le cas de la détection de spams ou des Large Language Models.

2
New cards

Apprentissage non supervisé

Type d'apprentissage sur des données sans étiquette associée visant à trouver une structure ou à classer les données en groupes similaires, par exemple pour le ciblage publicitaire.

3
New cards

Apprentissage par renforcement

Type d'apprentissage où l'algorithme apprend de ses propres actions, illustré par l'exemple de AlphaGo.

4
New cards

Tâche de régression

Tâche consistant à prédire des valeurs continues, comme le prix d'une maison en euros.

5
New cards

Tâche de classification

Tâche consistant à prédire des valeurs discrètes, par exemple pour distinguer un chat d'un chien ou un spam d'un non-spam.

6
New cards

Attribut (ou feature)

Représente une dimension des données, notée DD. Par exemple, la surface d'un logement ou le nombre de pièces.

7
New cards

Label (yy)

L'étiquette associée à une donnée d'entraînement xx, représentant la valeur réelle que le modèle cherche à prédire.

8
New cards

Fonction loss

Fonction qui mesure l'écart entre les prédictions yˆ\text{\^y} et les labels réels yy; le but est de trouver une fonction hh qui minimise cette erreur.

9
New cards

Moindres carrés (Least Squared Error)

Méthode de calcul de la perte utilisée en régression, définie par la formule L(θ,X,Y)=1Nn=1N(fθ(xn)yn)2L(\theta, X, Y) = \frac{1}{N} \sum_{n=1}^N (f_{\theta}(\mathbf{x}_n) - y_n)^2.

10
New cards

Modèle de régression linéaire (D=1D=1)

Modélisation des données par l'équation d'une droite de la forme fθ(x)=θ0+θ1xf_{\theta}(x) = \theta_0 + \theta_1x.

11
New cards

Modèle de régression linéaire (cas général)

Modélisation pour un vecteur x\mathbf{x} de dimension quelconque utilisant la formule fθ(x)=θ0+i=1Dθixif_{\theta}(\mathbf{x}) = \theta_0 + \sum_{i=1}^D \theta_i x_i.

12
New cards

Descente de gradient

Méthode d'optimisation numérique pour chercher un minimum local d'une fonction en mettant à jour les paramètres selon la règle θθηθL(θ,X,Y)\vec{\theta} \leftarrow \vec{\theta} - \eta \cdot \nabla_{\vec{\theta}} L(\vec{\theta}, X, Y).

13
New cards

Pas d'apprentissage (η\eta)

Paramètre déterminant la taille des sauts dans la descente de gradient; une valeur trop élevée peut empêcher la convergence, tandis qu'une valeur trop faible ralentit le processus.

14
New cards

Adam

Méthode d'optimisation (optimizer) considérée aujourd'hui comme la plus utilisée, faisant suite à d'autres méthodes comme Adagrad.

15
New cards

Intercept

Le terme θ0\theta_0 dans le modèle linéaire, souvent optimisé en ajoutant une valeur constante de 11 au vecteur de données xn\mathbf{x}_n.