Quels algorithmes d'optimisation sont disponibles et comment prévenir le phénomène de surapprentissage lors de l'entraînement ?

Le bloc de paramètres optimizer met à disposition les algorithmes d'optimisation de pointe suivants : ADAGRAD, ADAM, ADAMW, LBFGS et SGD. Pour lutter contre le surapprentissage, vous pouvez configurer le bloc earlyStopping afin de stopper l'apprentissage de manière anticipée si une métrique cible comme VALIDATION_LOSS ne s'améliore plus après un certain nombre d'époques, défini par le paramètre patience. De plus, l'activation du booléen checkpointBest permet de sauvegarder automatiquement les meilleurs poids du modèleReprésentation mathématique entraînée sur des données pour capturer des tendances, prédire des résultats ou classifier des observations via des algorithmes (Régression, Forêt aléatoire, Gradient Boosting). plutôt que les derniers obtenus en fin de cycle.

Exemples pour l'action dlmztrain

Entraînement basique d'un modèle de Deep Learning

Cet exemple montre comment lancer un entraînement simple avec l'optimiseur ADAM sur 5 époques à partir de données d'images.

Entraînement avancé avec Validation, accélération GPU et Arrêt Prématuré

Ici on sort l'artillerie lourde : utilisation de GPU multiples, d'un jeu de validation croisée, de l'optimiseur SGD avec momentum, et d'un mécanisme d'arrêt prématuré (Early Stopping) si la perte de validation stagne pendant 3 époques consécutives.