Pilier 5

Cross-entropy : l'erreur d'une prédiction probabiliste

Piège

Pytorch CrossEntropyLoss attend des labels en indices (entiers de 0 à C-1), pas en one-hot. Si on passe one-hot par erreur, l'erreur de dimension peut être silencieuse (broadcasting bizarre) ou explicite. Le notebook passe Y directement (Cell 15 : log_loss(A.T, Y) avec Y = tensor([5, 0, 4, ...])) — c'est correct. Copier d'autres frameworks (où on attend du one-hot) casse.