Tilbakespredning av feilen

Tilbakepropageringen av feilen (på engelsk backpropagation ) er en algoritme for trening av kunstige nevrale nettverk , [1] brukt i kombinasjon med en optimaliseringsmetode som for eksempel den stokastiske nedstigningen av gradienten .

Tilbakeforplantning krever en ønsket utgang for hver inngangsverdi for å beregne gradienten til tapsfunksjonen (kostnadsfunksjonen). Det regnes derfor som en overvåket læringsmetode , selv om den også brukes i uovervåket nettverk som selvkodere eller Reti Diabolo . Det er en generalisering av deltaregelen for flerlags feed-forward-nettverk , muliggjort ved å bruke kjederegelen som iterativt beregner gradientene for hvert lag. Tilbakeformidling krever at den aktiverende funksjonen som brukes av kunstige nevroner (eller "noder") er differensierbar.

En av hovedvanskene med å bruke feiltilbakeforplantning er det såkalte gradientforsvinningsproblemet , på grunn av bruken av ikke-lineære aktiveringsfunksjoner som forårsaker en eksponentiell reduksjon i verdien av gradienten når dybden av det nevrale nettverket øker.

Merknader

  1. ^ tilbakeformidling av feilen , i Encyclopedia of science and technology , Institute of the Italian Encyclopedia, 2007-2008.

Bibliografi

Relaterte elementer

Eksterne lenker