Delta regel

Delta - regelen er en gradientnedstigningsregel for å oppdatere vektene til inngangssignalene som ankommer en perceptron . [1] Dette er et spesielt tilfelle av den mer generelle tilbakeforplantningsalgoritmen .

Uttalelse

For et nevron med en aktiverende funksjon er deltaregelen for den -te vekten gitt av

,

hvor er det

er en liten konstant som kalles læringshastighet
er den aktiverende funksjonen til nevronet og dets derivater
er ønsket utgang
er den vektede summen av inngangene til nevronet
er den sanne utgangen
er den -te inngangen.

Følgende er gyldige: og .

Delta-regelen er ofte forenklet hvis aktiveringsfunksjonen er lineær som f.eks

mens deltaregelen ligner på perseptoroppdateringsregelen , er hvordan vi utleder regelen annerledes. Oppfatteren bruker Heavisides trinnfunksjon som en aktiveringsfunksjon , som betyr at den ikke eksisterer i null, og at den er lik null andre steder, noe som gjør direkte anvendelse av regelen umulig.

Utledning av deltaregelen

Delta-regelen oppnås med utgangspunkt i minimeringen av feilen på utgangen fra det nevrale nettverket gjennom nedstigningen av gradienten . Feilen for et utgangsnevralt nettverk kan måles som

.

I dette tilfellet er det nødvendig å bevege seg i "vektrommet" til nevronet (rommet til alle verdiene som vektene kan anta) i forhold til gradienten til feilfunksjonen med hensyn til hver vekt. For å gjøre dette beregnes den partielle deriverte av feilen med hensyn til hver vekt. For den -te vekten er den deriverte

.

hvor summeringen er utelatt siden derivatet er i forhold til det -th nevronet.

Beregningen fortsetter med anvendelsen av kjederegelen :

mens den gjenværende deriverte fortsatt beregnes med kjederegelen, men avledes med hensyn til hele inngangen til , det vil si :

Legg merke til at utgangen fra det -te nevronet,, ganske enkelt er aktiveringsfunksjonen til nevronet som brukes på inngangen . Vi kan derfor skrive den deriverte av respekt til ganske enkelt som den første deriverte av :

På dette tidspunktet skrives det om i siste ledd som summen over alle vektene til hver vekt multiplisert med deres tilsvarende inndata :

Siden bare den -te vekten er av interesse, er det eneste leddet i summeringen som er relevant . Helt klart,

,

som fører til den endelige ligningen for gradienten:

Som fremhevet ovenfor, sier nedstigningen av gradienten at variasjonen til hver vekt må være proporsjonal med gradienten Valget av en proporsjonalitetskonstant og eliminering av minustegnet (siden vi ser etter retningen som reduserer gradienten), la oss komme frem til den søkte ligningen:

.

Merknader

  1. ^ The Delta Rule , på uhavax.hartford.edu (arkivert fra originalen 4. mars 2016) .

Bibliografi

Relaterte elementer