Regularization.
Atténuer la précision d'une hypothèse de modèle.
Lors d'un calcul de coût d'une hypothèse, un coût nul ne signifie pas forcément que l'hypothèse est excellente. Cela peut plutôt paraître suspect et demande une vérification qu'il ne s'agit pas d'un cas de surapprentissage.
On ajoute à la fonction de coût une surévaluation de paramètres. Par ex :
ce qui ajoute au coût une pénalité qui augmente d'autant que les paramètres augmente, et où doit être suffisamment grand (1000 par ex) mais pas trop (sinon sous-apprentissage) pour que la minimisation du coût fasse tendre les vers zéro.
À noter que ne doit pas être régularisé.
est équivalent à (toujours en ignorant ).