Descente de gradient

Motivation

Trouver les valeurs de paramètres minimisant un coût.

Analyse

Descente de gradient vers un coût J minimal local (à droite) ou global (à gauche)
Descente de gradient vers un coût J minimal local ou global

L'algorithme de descente de gradient consiste, si l'on considère :

à changer (simultanément) les θn en fonction de la pente (dérivée) induite par le coût :

Itérer jusqu'à convergence {
  θj:=θjαθjJ(θ)
}

α est le taux d'apprentissage (learning rate) à régler, déterminant la taille des "sauts" lors de la descente.

Si l'on dispose de capacités de calcul matriciel rapides, on peut effectuer l'opération équivalente de manière vectorisée.

Notes

Voir