Idée
On construit une petite fonction qui prend deux mesures (par exemple longueur et largeur d'une feuille), les melange par une combinaison pondérée, écrase le résultat dans [0,1], et que l'on entraine sur 100 exemples-temoins jusqu'a ce qu'elle reponde correctement le plus souvent possible.
Pourquoi
On construit une petite fonction qui prend deux mesures (par exemple longueur et largeur d'une feuille), les melange par une combinaison pondérée, écrase le résultat dans l'intervalle $[0,1]$, et que l'on entraine sur 100 exemples-temoins jusqu'a ce qu'elle reponde correctement le plus souvent possible. C'est l'analogue d'une régression affine de spé MPSI ($z = \langle w, x\rangle + b$) post-composée avec une saturation, dont les coefficients sont ajustes par minimisation itérative d'une erreur empirique. La vidéo traduit en code Python (numpy / matplotlib) toutes les formules vues dans les vidéos precedentes.
Outil
Régression affine de spé MPSI $z = \langle w, x\rangle + b$ post-composée avec une saturation, dont les coefficients sont ajustes par minimisation itérative d'une erreur empirique.
Formule
Le présentateur introduit les fonctions une par une dans un ordre précis. Sans regarder, donner cet ordre (5 fonctions de la boucle).
Piège
Le présentateur teste systématiquement chaque fonction (initialisation, modèle, log_loss, gradients, update) avant d'assembler. L'apprenant pressé écrit tout, exécute, obtient une erreur cryptique à la fin, n'arrive pas à diagnostiquer. La discipline 'tester par étapes' est explicite dans la vidéo : print(W.shape), print(b), etc.