L’overfitting, ou surapprentissage en français, désigne une situation où un modèle d’intelligence artificielle apprend trop bien les données d’entraînement, au point de mémoriser leurs moindres détails, y compris les erreurs ou le bruit.
Résultat : il devient très performant sur les données qu’il connaît, mais échoue à généraliser sur de nouvelles données.
Comment reconnaître l’overfitting ?
| Phase | Résultat |
|---|---|
| Sur l’entraînement | Très bonne performance (faible erreur) ✅ |
| Sur les données réelles ou de test | Mauvaise performance (forte erreur) ❌ |
Autrement dit, le modèle est trop spécialisé, il ne sait pas s’adapter à des cas légèrement différents.
Exemple simple :
Supposons qu’on entraîne un modèle à reconnaître des chats sur 1000 photos.
S’il y a quelques chats avec des lunettes, le modèle peut apprendre à associer “lunettes” = chat.
Mais si on lui montre ensuite un chat sans lunettes, il ne saura pas le reconnaître.
Causes fréquentes du surapprentissage :
-
Trop peu de données
-
Modèle trop complexe (trop de paramètres)
-
Trop d’entraînement (trop d’époques)
-
Données bruyantes ou mal nettoyées
️ Solutions pour éviter l’overfitting :
| Technique | Description |
|---|---|
| Regularisation | Ajoute une pénalité pour les modèles trop complexes |
| Early stopping | Arrête l’entraînement dès que les performances sur validation baissent |
| Cross-validation | Utilise plusieurs sous-ensembles de données pour valider |
| Dropout (réseaux de neurones) | Éteint aléatoirement des neurones pour éviter la dépendance |
| Augmentation de données | Crée des variations artificielles des données d’entrée |
| Réduction de la complexité du modèle | Moins de paramètres, modèle plus simple |
Overfitting vs Underfitting :
| Terme | Signification |
|---|---|
| Underfitting (sous-apprentissage) | Le modèle n’apprend pas suffisamment, il est trop simple |
| Overfitting (surapprentissage) | Le modèle apprend trop et perd sa capacité à généraliser |
