Rétro-propagation

Back propagation.

Motivation

Apprendre à partir de nombreux critères (trouver des hypothèses non-linéaires complexes).

Analyse

La rétro-propagation va consister à calculer l'erreur de prédiction pour adapter les paramètres en conséquence.

Conception

Ces erreurs de chaque couche l sont représentées par δ(l) et sont accumulées dans Δ(l)=Δ(l)+δ(l+1)(a(l))T.

Coût

Pour calculer le coût pour un réseau neuronal, on généralise celui de la régression logistique non pas pour une seule sortie y mais pour K sorties en insérant une somme supplémentaire pour tenir compte des K noeuds de sortie ainsi que des Sl unités (y compris le noeud de biais) de chaque couche :

J(Θ)=-1mi=1mk=1K[yk(i)log(hθ(x(i))k)+(1yk(i))log(1hθ(x(i))k)]+λ2ml=1L-1i=1Slj=1Sl+1(θj,i(l))2

Pour minimiser ce coût, nous allons chercher à minimiser la dérivée de cette fonction (i.e. plus la pente du coût est faible, plus on s'approche de la solution).

Exemples

Notes

Voir