Idée
On garde la trace de la valeur de l'erreur à chaque itération et on la trace : on voit une courbe décroissante qui se stabilise.
Pourquoi
On garde la trace de la valeur de la perte à chaque itération dans une liste, qu'on trace ensuite avec matplotlib : on observé une courbe décroissante qui converge vers une valeur plateau, indiquant que les coefficients ne bougent presque plus. C'est la version visuelle d'une suite numérique convergente : on regarde graphiquement si $|\ell_k - \ell_{k-1}| \to 0$ et si la limite est atteinte.
Outil
Suite numérique convergente : on regarde graphiquement si $|\ell_k - \ell_{k-1}| \to 0$ et si la limite est atteinte.
Formule
Vers la fin de la vidéo 5, la courbe Loss vs itérations est tracée. Sans regarder, donner la fonction utilisée et la bibliothèque.
Piège
Loss train descend monotone : signe minimum nécessaire mais NON suffisant. Si elle descend tout en bas (proche de 0) mais que l'accuracy test est mauvaise, c'est de l'overfit. Vraie évaluation : courbe loss train ET courbe loss test côte à côte. Le présentateur ne le fait pas vidéo 5 (un seul dataset utilisé), mais le mentionne pour le projet chats/chiens.