En stokastisk prosess er definert som Markov (eller Markov ), en tilfeldig prosess der sannsynligheten for overgang som bestemmer overgangen til en systemtilstand kun avhenger av tilstanden til det umiddelbart foregående systemet ( Markov-egenskapen ) og ikke av hvordan det kom til denne staten. [1] Omvendt er en ikke-Markov- prosess en tilfeldig prosess som Markov-egenskapen ikke er gyldig for. Den har fått navnet sitt fra den russiske matematikeren Andrei Andreevich Markov som først utviklet teorien. Markov-modeller brukes i utformingen av telekommunikasjonsnettverk : den resulterende køteorien finner anvendelse i mange områder, fra køer ved tellere til datapakker i kø i en ruter .
En Markov-prosess kan beskrives ved hjelp av uttalelsen om Markov-eiendommen , eller "no-memory"-tilstand, som kan skrives som:
En Markov-kjede er en Markov-prosess med diskret tilstandsrom , så det er en stokastisk prosess som tar verdier i et diskret rom og som nyter Markov-eiendommen . Settet med tilstandsrom kan være endelig eller uendelig tellbart. I det første tilfellet snakker vi om en endelig tilstand Markov-kjede. En Markov-kjede kan være kontinuerlig-tid eller diskret-tid, basert på medlemssettet til tidsvariabelen (kontinuerlig eller diskret).
Formelt er en Markov-kjede en Markovsk stokastisk prosess preget av en parameter , et sett med tilstander og en overgangssannsynlighetsfunksjon .
Siden den er en Markovsk prosess, nyter den Markov-eierskap :
I tilfelle av en diskret-tids Markov-kjede , det vil si med det diskrete settet, er notasjonen forenklet:
En homogen Markov-kjede er en Markov-prosess der sannsynligheten for overgang til tider ikke avhenger av tiden selv, men bare av tilstanden til systemet på det umiddelbart foregående tidspunktet . Med andre ord er overgangssannsynligheten uavhengig av opprinnelsen til tidsaksen og avhenger derfor kun av avstanden mellom de to tidsøyeblikkene.
For homogene kjeder holder tilstanden
Mer generelt er det vist at i en homogen Markov-kjede er sannsynligheten for overgang fra en tilstand til en annen i trinn konstant over tid:
Virkelige systemer som kan modelleres med homogene Markov-kjeder er sjeldne: det er nok å tenke på "vær"-systemet for å forstå hvordan sannsynligheten for overgang fra en tilstand (for eksempel "sol") til en annen tilstand (for eksempel "regn" ") avhenger av sesongen, så det er ikke mulig å modellere dette systemet som en homogen Markov-kjede. Men ved å begrense analysen av systemet til et visst tidsintervall, kan den homogene oppførselen vurderes: i dette tilfellet kan tidsintervallet være en enkelt sesong.
En homogen Markov-kjede med endelig tilstand der settet av tilstander i systemet er endelig og har elementer kan representeres ved hjelp av en overgangsmatrise og en initial sannsynlighetsvektor .
Elementene til representerer sannsynlighetene for overgang mellom tilstandene i kjeden: en kjede som er i tilstanden har sannsynlighet for å gå over til tilstand j i neste trinn. Spesielt indikerer elementene på hoveddiagonalen til sannsynlighetene for å forbli i samme tilstand . Vektoren definerer sannsynlighetene for at Markov-kjeden opprinnelig er i hver av tilstandene. En homogen Markov-kjede er unikt definert av paret .
Hvis det på et tidspunkt har sannsynlighetsfordelingen , er sannsynlighetene for at systemet samtidig er i hver av tilstandene gitt av vektoren definert som følger:
der det indikerer transponeringen av vektoren .
Fra den aksiomatiske definisjonen av sannsynlighet utledes følgende egenskaper for matrisen :
Den andre egenskapen tilsvarer å kreve at summen av elementene på hver rad er lik 1, i så fall kalles matrisen også stokastisk .
For eksempel, og de kan være følgende:
I tilfelle av en homogen diskret tilstand Markov-kjede, kan den syntetiske notasjonen tas i bruk:
hvor (n) ikke er en eksponent, men er en indeks.
Så vi har .
Vi har følgende egenskaper:
Perioden for en tilstand av en diskret tilstand Markov-kjede, med begrenset eller tellbar uendelighet, er definert som minimum antall tidstrinn for at det skal være en ikke-null sannsynlighet for å returnere til samme tilstand, med start fra tilstanden til tiden . Perioden er formelt definert som følger:
hvor GCD er den største felles faktoren .
I tilfelle av en homogen endelig tilstand Markov-kjede med antall tilstander , som derfor kan representeres av en matrise , kan definisjonen omformuleres som følger:
.Tilstanden sies å være aperiodisk hvis perioden er lik 1.
En Markov-kjede kalles aperiodisk hvis alle dens tilstander er aperiodiske, ellers kalles den periodisk .
En diskret-stats Markov-kjede sies å være irreduserbar hvis det starter fra hver stat er det større enn null sannsynlighet for å nå en annen tilstand . Formelt er en Markov-kjede irreduserbar hvis:
.Er
staten sies å være positiv tilbakevendende hvis
Hvis en kjede er irreduserbar og en av dens tilstander er positiv gjentakende, er alle tilstandene positive gjentakende, i dette tilfellet sies kjeden å være positiv gjentakende .
Gitt en homogen diskret-state Markov-kjede , er dens stasjonære sannsynlighetsfordeling , også kalt likevektsfordelingen , en diskret sannsynlighetsfordeling som tilfredsstiller følgende:
Uformelt er en stasjonær fordeling en sannsynlighetsfordeling som forblir konstant ettersom Markov-kjeden utvikler seg over tid.
Betydningen av stasjonære fordelinger for homogene Markov-kjeder i diskrete tilstand er gitt av følgende teoremer:
Konvergensen av en Markov-kjede til en stasjonær distribusjon og muligheten for å bygge en kjede med en valgt stasjonær distribusjon er grunnlaget for Metropolis-Hastings-algoritmen .
En Markov-kjede er definert ergodisk hvis og bare hvis den eksisterer for hvert startøyeblikk og for hver innledende sannsynlighetstilstand og er uavhengig av og fra sannsynlighetsgrensen for uendelige tider
.Mye av tidsseriemodelleringen innen finans er også basert på stokastiske prosesser generert av Markov-kjeder.