Differentiation automatique Pytorch (`requires_grad=True`)

Formule

Le notebook montre la séquence forward_t → log_loss_t → loss.backward(). Sans regarder, expliquer ce que fait précisément backward() au moment où on l'appelle, et où les gradients sont stockés ensuite (quel attribut de quel objet).