„Mesterséges neurális hálózat” változatai közötti eltérés

[ellenőrzött változat][ellenőrzött változat]
Tartalom törölve Tartalom hozzáadva
Debenben (vitalap | szerkesztései)
chem -> math
114. sor:
<math>W_h := W_h - \eta \nabla_{W_h} C</math>
 
<chemmath>b_o := b_o - \eta \nabla_{b_o} C</chemmath>
 
<chemmath>b_h := b_h - \eta \nabla_{b_h} C</chemmath>
 
Ezzel zárul egy tanulási iteráció. A következő iterációban újra részmintát képzünk a tanuló adatsorból, kimenetet képzünk, hibát számolunk és visszaterjesztünk, majd gradiensereszkedést hajtunk végre. A tanuló adatsor egyszer teljes végigjárását nevezzük egy tanulókorszaknak. Az iteráció során a veszteségfüggvény kimenetét nyilvántartjuk és addig folytatjuk a tanítást, míg a veszteséget lehetőleg minimálisra csökkentjük. Ekkor elmondható, hogy az algoritmus egy minimumra konvergált.