poru l algo de retropropagation du gradient :
faut que tu aies des exemples de ce que doit realiser le reseau
(donc : entrée et sortie-voulu (predefinis!))
une fonction "cout" qui te donne la valeur absolu de l erreur pour une entrée choise : c est a dire la valeur absolu de la difference entre la sortie-voulu et la sorties-calculée .
l algo va te permetre de repercuter ces erreurs sur les different poids du reseau, de telle sorte que si tu refait le calcul de l erreur,celle-ci sera moins grande avec cette nouvelle modification des poids.
(bien sur faut qeu tu calcul des erreurs intermediaire si tu as plusieur couches de neurones....)
en faisant ca pour tout les couples (entre, sortie-voulu) et pluiseur fois pour chacun, on espere que le reseau va converger : c est a dire que pour chaque entrée, la sortie-calculé soit egale a la sortie-voulu
voila, j espere qeu t auras capté quelque chose a ma prose lol