Veiledet læring

Overvåket læring er en maskinlæringsteknikk som tar sikte på å trene et datasystem på en slik måte at det automatisk kan foreta spådommer på utgangsverdiene til et system med hensyn til en input basert på en rekke ideelle eksempler, bestående av par av innganger og utganger , som i utgangspunktet gis til ham.

Overvåkede læringsalgoritmer kan brukes i en rekke sektorer. Eksempler gjelder det medisinske feltet der utbruddet av spesielle kriser kan forutsies basert på erfaring fra tidligere biometriske data, vokalidentifikasjon som forbedres på grunnlag av tidligere lydlyttinger, identifisering av håndskrift som forbedrer observasjoner av eksemplene som er sendt inn av brukeren.

Beskrivelse

Målet med et system basert på veiledet læring er å produsere en induktiv hypotese , det vil si en funksjon som er i stand til å "lære" av resultatene gitt i eksempelfasen og i stand til å nærme seg de ønskede resultatene for alle eksemplene som ikke er gitt. Serien av utganger kan være svært varierte; ikke desto mindre skiller det innlæring av kvantitative verdier (ofte kalt " regresjon ") fra kvalitative verdier (kalt "klassifisering") [1] .

Logiske komponenter

Logisk sett består en klassisk veiledet læringsimplementering av:

Generell operasjon

Alle overvåkede læringsalgoritmer antar at hvis vi gir systemet et tilstrekkelig antall eksempler, vil det akkumulere nok erfaring E til å tillate det å lage en funksjon h a tilstrekkelig til å tilnærme funksjonen h b (og derfor den ønskede oppførselen fra den som ga eksemplene). Gitt likheten mellom funksjonene h a og h b , når vi foreslår systemet noen inputdata som ikke er til stede i hans erfaring E , bør funksjonen h a kunne tilnærme funksjonen h b på en tilstrekkelig nøyaktig måte og gi svar O tilstrekkelig tilfredsstillende.

For å oppnå dette målet utnytter systemet ofte to prinsipper, som er fordelingen (matematikk) og sannsynlighetsfunksjonen . Når den matematiske fordelingen som kobler variasjonen av inngangsverdiene til de ønskede utgangsverdiene er identifisert, velger systemet parametrene som maksimerer sannsynligheten for dataene og uttrykker den passende sannsynlighetsfunksjonen.

Hensyn

Mange av disse algoritmene fungerer effektivt hvis de fungerer i en lineær verden, forutsatt at lignende innganger tilsvarer lignende utganger. Det er mange forhold under hvilke en slik tilnærming er akseptabel, men dette er ikke alltid tilfelle. Estimeringen av sannsynlighetsfunksjonen tjener til å dempe problemene som oppstår ved behandling av ikke helt lineære problemer.

Det kan lett forstås at korrekt og effektiv funksjon av disse algoritmene avhenger betydelig av erfaring; hvis du gir lite erfaring, kan det hende at algoritmen ikke skaper en effektiv intern funksjon, mens med overdreven erfaring kan den interne funksjonen bli veldig kompleks nok til å gjøre utførelsen av algoritmen treg.

Disse algoritmene er svært følsomme for støy: selv noen få dårlige data kan gjøre hele systemet upålitelig og føre til feil beslutninger. En løsning på dette problemet er å knytte dem til kontrollere som er avhengige av uklar logikk .

Tradisjonelt har hovedalgoritmene vært:

Forskning i dag fokuserer på det som anses å være de to hovedklassene av mulige algoritmer:

Generative metoder er avhengige av å lage en datamodell som deretter brukes til å forutsi ønskede svar (eller utdata). Eksempler er Bayesianske nettverk eller mer generelt grafiske modeller .

Diskriminerende metoder prøver derimot å direkte modellere forholdet mellom innkommende og utgående data, for å minimere en objektiv funksjon ( tapsfunksjon i litteratur). Eksempler på denne typen modeller er Support Vector Machines og mer generelt metoder basert på kjernefunksjoner .

Merknader

  1. ^ Trevor Hastie , Robert Tibshirani og Jerome H. Friedman, Elementene ved statistisk læring: datautvinning, inferens og prediksjon , Andre utgave, s. 10, ISBN 9780387848570 , OCLC 300478243 . Hentet 21. desember 2018 .  

Relaterte elementer