Markov-prosessen

En stokastisk prosess er definert som Markov (eller Markov ), en tilfeldig prosess der sannsynligheten for overgang som bestemmer overgangen til en systemtilstand kun avhenger av tilstanden til det umiddelbart foregående systemet ( Markov-egenskapen ) og ikke av hvordan det kom til denne staten. [1] Omvendt er en ikke-Markov- prosess en tilfeldig prosess som Markov-egenskapen ikke er gyldig for. Den har fått navnet sitt fra den russiske matematikeren Andrei Andreevich Markov som først utviklet teorien. Markov-modeller brukes i utformingen av telekommunikasjonsnettverk : den resulterende køteorien finner anvendelse i mange områder, fra køer ved tellere til datapakker i kø i en ruter .

En Markov-prosess kan beskrives ved hjelp av uttalelsen om Markov-eiendommen , eller "no-memory"-tilstand, som kan skrives som:

Markov-kjeder

En Markov-kjede er en Markov-prosess med diskret tilstandsrom , så det er en stokastisk prosess som tar verdier i et diskret rom og som nyter Markov-eiendommen . Settet med tilstandsrom kan være endelig eller uendelig tellbart. I det første tilfellet snakker vi om en endelig tilstand Markov-kjede. En Markov-kjede kan være kontinuerlig-tid eller diskret-tid, basert på medlemssettet til tidsvariabelen (kontinuerlig eller diskret).

Formelt er en Markov-kjede en Markovsk stokastisk prosess preget av en parameter , et sett med tilstander og en overgangssannsynlighetsfunksjon .

Siden den er en Markovsk prosess, nyter den Markov-eierskap :

I tilfelle av en diskret-tids Markov-kjede , det vil si med det diskrete settet, er notasjonen forenklet:

Homogene Markov-kjeder

En homogen Markov-kjede er en Markov-prosess der sannsynligheten for overgang til tider ikke avhenger av tiden selv, men bare av tilstanden til systemet på det umiddelbart foregående tidspunktet . Med andre ord er overgangssannsynligheten uavhengig av opprinnelsen til tidsaksen og avhenger derfor kun av avstanden mellom de to tidsøyeblikkene.

For homogene kjeder holder tilstanden

Mer generelt er det vist at i en homogen Markov-kjede er sannsynligheten for overgang fra en tilstand til en annen i trinn konstant over tid:


Virkelige systemer som kan modelleres med homogene Markov-kjeder er sjeldne: det er nok å tenke på "vær"-systemet for å forstå hvordan sannsynligheten for overgang fra en tilstand (for eksempel "sol") til en annen tilstand (for eksempel "regn" ") avhenger av sesongen, så det er ikke mulig å modellere dette systemet som en homogen Markov-kjede. Men ved å begrense analysen av systemet til et visst tidsintervall, kan den homogene oppførselen vurderes: i dette tilfellet kan tidsintervallet være en enkelt sesong.

Overgangsmatrise

En homogen Markov-kjede med endelig tilstand der settet av tilstander i systemet er endelig og har elementer kan representeres ved hjelp av en overgangsmatrise og en initial sannsynlighetsvektor .

Elementene til representerer sannsynlighetene for overgang mellom tilstandene i kjeden: en kjede som er i tilstanden har sannsynlighet for å gå over til tilstand j i neste trinn. Spesielt indikerer elementene på hoveddiagonalen til sannsynlighetene for å forbli i samme tilstand . Vektoren definerer sannsynlighetene for at Markov-kjeden opprinnelig er i hver av tilstandene. En homogen Markov-kjede er unikt definert av paret .

Hvis det på et tidspunkt har sannsynlighetsfordelingen , er sannsynlighetene for at systemet samtidig er i hver av tilstandene gitt av vektoren definert som følger:

der det indikerer transponeringen av vektoren .

Fra den aksiomatiske definisjonen av sannsynlighet utledes følgende egenskaper for matrisen :

Den andre egenskapen tilsvarer å kreve at summen av elementene på hver rad er lik 1, i så fall kalles matrisen også stokastisk .

For eksempel, og de kan være følgende:

I tilfelle av en homogen diskret tilstand Markov-kjede, kan den syntetiske notasjonen tas i bruk:

hvor (n) ikke er en eksponent, men er en indeks.

Så vi har .

Vi har følgende egenskaper:

Aperiodiske Markov-kjeder

Perioden for en tilstand av en diskret tilstand Markov-kjede, med begrenset eller tellbar uendelighet, er definert som minimum antall tidstrinn for at det skal være en ikke-null sannsynlighet for å returnere til samme tilstand, med start fra tilstanden til tiden . Perioden er formelt definert som følger:

hvor GCD er den største felles faktoren .

I tilfelle av en homogen endelig tilstand Markov-kjede med antall tilstander , som derfor kan representeres av en matrise , kan definisjonen omformuleres som følger:

.

Tilstanden sies å være aperiodisk hvis perioden er lik 1.

En Markov-kjede kalles aperiodisk hvis alle dens tilstander er aperiodiske, ellers kalles den periodisk .

Irredusible Markov-kjeder

En diskret-stats Markov-kjede sies å være irreduserbar hvis det starter fra hver stat er det større enn null sannsynlighet for å nå en annen tilstand . Formelt er en Markov-kjede irreduserbar hvis:

.

Positive tilbakevendende tilstander

Er

staten sies å være positiv tilbakevendende hvis

Hvis en kjede er irreduserbar og en av dens tilstander er positiv gjentakende, er alle tilstandene positive gjentakende, i dette tilfellet sies kjeden å være positiv gjentakende .

Stasjonære distribusjoner

Gitt en homogen diskret-state Markov-kjede , er dens stasjonære sannsynlighetsfordeling , også kalt likevektsfordelingen , en diskret sannsynlighetsfordeling som tilfredsstiller følgende:

Uformelt er en stasjonær fordeling en sannsynlighetsfordeling som forblir konstant ettersom Markov-kjeden utvikler seg over tid.

Betydningen av stasjonære fordelinger for homogene Markov-kjeder i diskrete tilstand er gitt av følgende teoremer:

.

Konvergensen av en Markov-kjede til en stasjonær distribusjon og muligheten for å bygge en kjede med en valgt stasjonær distribusjon er grunnlaget for Metropolis-Hastings-algoritmen .

Ergodic Markov Chains

En Markov-kjede er definert ergodisk hvis og bare hvis den eksisterer for hvert startøyeblikk og for hver innledende sannsynlighetstilstand og er uavhengig av og fra sannsynlighetsgrensen for uendelige tider

.

Applikasjoner

Mye av tidsseriemodelleringen innen finans er også basert på stokastiske prosesser generert av Markov-kjeder.

Programvare

Merknader

  1. ^ Markov-kjede | Definisjon av Markov-kjeden på amerikansk engelsk av Oxford Dictionaries , på Oxford Dictionaries | Engelsk . Hentet 27. november 2018 .
  2. ^ Billi, R., Canavesio, F., Ciaramella, A., & Nebbia, L. (1994, september). Interaktiv stemmeteknologi på jobben: CSELT-opplevelsen. I Interactive Voice Technology for Telecommunications Applications, 1994., Second IEEE Workshop on (s. 43-48). IEEE.
  3. ^ Giorgio Alfredo Spedicato [aut, cre og Tae Seung Kang, markovchain: Easy Handling Discrete Time Markov Chains , 26. august 2019. Hentet 13. september 2019 .
  4. ^ Martin Thoma, Python Markov Chain Packages , om Martin Thoma . Hentet 13. september 2019 .

Bibliografi

Relaterte elementer

Andre prosjekter

Eksterne lenker