Laboratóriumi munka a tanfolyamon - valószínűségi elmélet

enged <. . .> - egy bizonyos fizikai rendszer lehetséges állapotait. A rendszer bármikor csak egy állapotban lehet. Idővel a rendszer következetesen mozog az egyik állapotról a másikra. Minden ilyen átmenet a folyamat lépése.

A rendszer evolúciójának bemutatásához egy különálló véletlen változók sorozatát mutatjuk be. . . Az index n játssza az idő szerepét. Ha a rendszer n állapotban volt az állapotban. akkor feltételezzük, hogy = j. Így a véletlen változók a rendszer állapotainak számai.

Sequence. . . Markov láncot alkot. ha bármely n és bármelyik számára. .

P (= j | =. = I) = P (= j | = i).

A Markov-láncok esetében az n időtartamának valószínűsége az állapotban van. ha ismeretes a tanulmányozott folyamat teljes korábbi története, attól függ, hogy az eljárás pillanatában az n-1; Röviden: egy fix "jelen", a "jövő" nem függ a "múlt". A "jövő" "függetlenségének" tulajdonát a "múlt" egy rögzített "jelenével" Markov tulajdonaként nevezik.

A valószínűségek (= j | = i), i, j = 1,2. r egy lépésben az államról az állapotra az átmeneti mátrixok.

A Markov-lánc homogén. ha az átmeneti valószínűségek nem függnek n-től, azaz. ha az átmeneti valószínűségek nem függenek a lépésszámtól, hanem csak az állapotról és az átmenetről függenek. A homogén Markov-láncok helyett az írás helyett.

Az átmeneti valószínűségeket célszerűen négyzetes mátrix formájában alakítjuk ki

A P mátrixot egy lépésben a homogén Markov-lánc átmenet-valószínőség-mátrixának nevezzük. A következő tulajdonságokkal rendelkezik:

b) minden esetben i = 1.

Az a) és b) feltételeket teljesítő négyzetes mátrixokat sztochasztikus mátrixoknak nevezzük.

Vector. ahol = P (), i = 1,2. r, a kezdeti valószínűségek vektorának nevezzük.

A homogén Markov-láncok tulajdonságait a kezdeti valószínűségek és az átmeneti valószínőség mátrix vektora határozza meg teljesen. Bizonyos esetekben, ahelyett, hogy egy explicit leírása felíró mátrix P felhasználásával Markov-láncok az evolúció gráf, amelynek csúcsai a Államok áramkör, és a nyíl megy államonként a fenti szám azt mutatja, hogy az egyik állapotból egy átmeneti valószínűség. Ebben az esetben mikor. a megfelelő nyíl nincs rajta.

Megmutatható, hogy a Markov-lánc átmeneti valószínűségi mátrixa n lépésekben egyenlő az átmeneti valószínűségek P mátrixának n-es teljesítményével egy lépésben.

Egy homogén Markov-láncra, minden m-re, egyenlőségre

De ez utóbbi valószínűsége abban áll, hogy n lépésekben az államról az államra áttérnek.

A határértékek tétele. Ha néhány, a mátrix minden eleme = [] pozitív, akkor vannak korlátok

A határértékek nem függenek az eredeti állapottól, és az egyetlen megoldás az egyenletek rendszerére

Ennek a tételnek a fizikai jelentése, hogy a rendszer egy államban való megtalálásának valószínűsége gyakorlatilag független attól az államtól, amelyben a távoli múltban volt.

A Markov-lánc, amelyre korlátozások vannak. állítólag ergodikus.

A fent leírt rendszer megoldását (...) az átmeneti P = [] átmeneti mátrixhoz tartozó Markov-lánc stacionárius valószínűségi eloszlásának nevezzük.

Ha egy rendszer egy államból egy olyan állapotba kerül, amelynek pozitív valószínűsége véges számú lépésben van, akkor azt mondják, hogy elérhető.

Az állam minden egyes állam esetében elengedhetetlen. elérhető. elérhető. Ha legalább egy j elérhetõ. de nem érhető el. akkor ez jelentéktelen állapot.

(Lásd: Chistyakov VP, Probability Course Theory: Proc., 3. kiadás, M. Nauka által korrigált, Ed., Phys.-Math., Lit., 1987.)

Probléma 1. A Markov-lánc átmeneti valószínőségének mátrixa formában van

. A t = 0 időpontban az állami eloszlást a vektor határozza meg. Keresés:

1) eloszlás az állapotokon a t = 2 időpontban;

2) annak valószínűsége, hogy idővel t = 0, 1, 2, 3, a láncok 1, 3, 3, 2;

3) helyhez kötött eloszlás.

A megoldás. Határozzuk meg a P mátrixot, a kezdeti valószínűségek q vektorát, és keressük meg a P2 átmenet valószínűségi mátrixot két lépésben.

2) A t = 2 időpontban az államokra vonatkozó eloszlást találjuk

Az eloszlást a t = 1 időpontban állapítjuk meg

A t = 3 időpontban az államokra vonatkozó eloszlást találjuk

Ezután a szükséges valószínűség

Itt kell megszorozzuk az első koordináta vektor q (a valószínűsége, hogy a rendszer a kezdeti időben állapotban 1), a harmadik koordináta vektor q1 (a valószínűsége, hogy a rendszer t időpontban = 1 állapotban van 3), a harmadik koordináta vektor q2 ( a valószínűsége, hogy a rendszer időpontban t = 2 volt 3), egy második koordinátája Q3 (a valószínűsége, hogy a t = 3, a rendszer volt, abban az állapotban 2).

3) Találjuk meg a Markov lánc stacionárius eloszlását. Ehhez a P mátrixot transzponáljuk

> P: = linalg [mátrix] ([[0,1, 0,5, 0,4], [6,2], [3, 4, 3]]), Pt: = linalg [átültetni] (P);

Az átültetett mátrix sajátvektorát, amelynek összege 1, lineáris egyenletrendszert alkotunk

Oldjuk meg ezt a rendszert

Így a v vektor határozza meg a Markov lánc stacionárius eloszlását.

2. probléma. Legyen a Markov-láncban az állapotszám a t időpontban, P () = 1, és az átmeneti valószínűség mátrix egységnyi idő alatt megegyezik; . ha és. if. Mutassuk meg, hogy a sorozat Markov-lánc. Keresse meg az átmeneti valószínűségek megfelelő mátrixát.

Probléma 3. kocka minden idők eltolódott véletlenszerűen azonos valószínűséggel az egyik oldaltól bármely más, a négy szomszédos arcok függetlenül az előző. Ahhoz, hogy egy határ t tart végtelenbe a valószínűsége, hogy t időpontban szélén fekszik a csont „6”, ha t = 0, ez volt ugyanebben a helyzetben (t = 0, 1, 2, 3)?

4. probléma A P átmenet valószínűségi mátrix és a kezdeti eloszlás q vektora a következő alakban van:. .

a) jelentéktelen feltételek;

b) matematikai elvárás - a nélkülözhetetlen állapotoktól való menekülés ideje;

c) Problémák. hit államokban. . ha az eredeti állapot i;

d) az állami eloszlás korlátozása, azaz értéket.

4. probléma: az átmeneti valószínűségi mátrix P = || || A Markov-láncot a képletek határozzák meg. . . . Bizonyítsd be

Keresse meg a helyhez kötött valószínűségeket.

Megjegyzés. A képlet bizonyításához alkalmazza a matematikai indukció módját.

Kapcsolódó cikkek