5 - Cadeia de Markov

Você está aqui

A cadeia de markov é um processo estocástico caracterizado por seu estado futuro depender apenas do seu estado atual, sendo que os estados passados não influenciam no estado futuro. O nome cadeia de markov foi dado em homenagem ao matemático russo Andrey Markov.

Definição 5.1:

Um processo de Markov $ {X_t} $ é um processo estocástico com a propriedade de que, dado o valor de $ X_t $ os valores de $ X_s $, para $ t \ \textless \ s $ não são influenciados pelos valores de $ X_u $ para $ u \ \textless \ t $. Ou seja, a probabilidade de qualquer comportamento futuro do processo, quando o seu estado atual é conhecida exatamente, não é alterada pela conhecimento adicional sobre seu comportamento passado.

Se o conjunto de índice for discreto então a propriedade da cadeia de markov é dada da seguinte forma

$ \mathbb{P}[X_{n}=x_n|X_0=x_0, \cdots, X_{n-1}=x_{n-1}]=\mathbb{P}[X_{n}=x_{n}|X_{n-1}=x_{n-1}]= $

$ \mathbb{P}(x_{n-1},x_{n}) $.

Vamos trabalhar apenas com o conjunto de índice discreto, assim notamos que a cadeia e markov é um processo de estados

Definimos a probabilidade de transição de n-passos como:

\[p_n (i, j ) = \mathbb{P} (X_{n+m} = j | X_m = i ) \]

 

Exemplo 5.1:

Seja $ \{X_t\} $ um processo estocástico com  \Omega \rightarrow\mathbb{N} $, no qual $ \mathbb{N} $ é o conjuntos dos naturais com o zero. Definamos o seguinte que:

$$\mathbb{P}_k(i,i+1)=\mathbb{P}[X_k=i+1|X_{k-1}=i]=p$$

$$\mathbb{P}_k(i,i-1)=\mathbb{P}[X_k=i-1|X_{k-1}=i]=q$$

$$\mathbb{P}_k(i,i)=\mathbb{P}[X_k=i|X_{k-1}=i]=1-(p+q)$$

 

Esse processo é chamado de processo de nascimento e morte, pois no fundo estamos dizendo que existem apenas 3 possibilidades em cada instantes

  • Nascer - acrescentar um novo elemento com probabilidade de que isso ocorra sendo p.
  • Morrer - diminuir um novo elemento com probabilidade de que isso ocorra sendo q.
  • Nada - não acrescentar, nem diminuir com probabilidade $ 1-(p+q) $.

Notemos que no processo de nascimento e morte, a probabilidade de acrescentar, diminuir ou nada acontecer não depende do tamanho atual da população, ou seja, não depende de i.

Teorema 5.1(Chapman - Kolmogorov) :

Dado uma cadeia de Markov $ \{X_t\} $ com o espaço de estados E, ou seja, E é o conjunto dos possíveis valores de $ X_i $ e a probabilidade de transição $ \mathbb{P}_k(\cdot,\cdot) $. Para $  n \textless m  $ temos que

$$\displaystyle \mathbb{P}[X_{m}= j|X_{n} = i]=\sum_{m=1}^{\infty}\mathbb{P}_{m-k} [x_m , j] \mathbb{P}_{k-n}[i ,x_m]$$

 

Demonstração:

Primeiramente lembremos que $ \displaystyle \mathbb{P}[A|B]=\mathbb{P}[A\cap \Omega|B]=\frac{\mathbb{P}[A\cap \Omega ;B]}{\mathbb{P}[B]} $, podemos encontrar mais detalhes sobre a probabilidade condicional na apostila de probabilidade.

Assim, temos que

$$\displaystyle \mathbb{P}[X_{m}=j|X_{n}=y]=\mathbb{P}\left[\{X_{m}=j\}\bigcap \left(\bigcup_{p=1}^{\infty}\{X_k=x_p\}\right)|X_{n}=i\right]$$

 

Observe que $ (\{X_{m}=j\}\cap\{X_k=x_p\})\cap(\{X_{m}=j\}\cap\{X_k=x_p\})=\emptyset $, se $ j\neq i $, ou seja eles são dois a dois disjuntos assim:

$$\displaystyle \mathbb{P}[X_{m}=j|X_{n}=i]=\sum_{p=1}^{\infty}\mathbb{P}\left[\{X_{m}=j\}\cap\{X_k=x_p\}|X_{n}=i\right]$$

$$\displaystyle \sum_{p=1}^{\infty}\mathbb{P}[X_{m}=j|\{X_k=x_p\}\cap X_{n}=i]\mathbb{P}[X_k=x_p|X_{n}=i]$$

$$\displaystyle \sum_{p=1}^{\infty}\mathbb{P}[X_{m}=j|X_k=x_p]\mathbb{P}_{k}(i,x_p)=\sum_{p=1}^{\infty}\mathbb{P}_{k-n}(i, x_p)\mathbb{P}_{m-k} (x_p , j)$$

 

E portanto o resultado segue.

Uma notação muito usada e útil é a notação matricial que nos fornece toda informação sobre os estados de transição.

 x,y \in E\}$$

$$\mathbb{P}_k=\left( \begin{array}{c} \mathbb{P}_k (e_1,e_1) ~~ \mathbb{P}_k (e_1,e_2) ~~ \mathbb{P}_k (e_1,e_3) ~~ \cdots \\ \mathbb{P}_k (e_2,e_1) ~~ \mathbb{P}_k (e_2,e_2) ~~ \mathbb{P}_k (e_2,e_3) ~~ \cdots \\\mathbb{P}_k (e_3,e_1) ~~ \mathbb{P}_k (e_3,e_2) ~~ \mathbb{P}_k (e_3,e_3) ~~ \cdots \\ ~~~~~~~~ \vdots ~~~~~~~~~~\vdots~~~~~~~~~~~~~~ \vdots~~~~~~~~~~ \vdots \ddots \\ \end{array}\right)$$

 

Essa matriz é conhecida como matriz de transição.

Exemplo 5.2:

Usando a notação matricial qual seria a matriz de transição do exemplo 5.1A matrix de transição do processo de nascimento e morte é dada por:

$$\mathbb{P}_k=\mathbb{P}=\left( \begin{array}{c} 1-p ~~~~~~~~~~~~ p ~~~~~~~~~~~~~~~~~~~~ 0 ~~~~~~~~~ \cdots \\ ~~q ~~~~~~~~~ 1-(p+q) ~~~~~~~~~~~~~~~ p ~~~~~~~~~ \cdots \\ ~~0 ~~~~~~~~~~~~~~~~~ q ~~~~~~~~~~~~~ 1-(p+q) ~~~~~~ \cdots \\ ~~~~~\vdots ~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~~ \vdots \ddots \\ \end{array}\right)$$

 

Exemplo 5.3:

Suponha que uma concessionária tem a seguinte estratégia para um determinado veículo modelo de veículo de seu estoque. Todo sexta-feira a noite quando a concessionária fecha ela contabiliza o número de veículos deste modelo e faz um pedido para o fornecedor que lhe entrega na segunda-feira pela manhã antes da concessionária abrir novamente.

  • Se há veículos no estoque, a concessionária não faz nenhum pedido
  • Se não há veículos no estoque, a concessionária pede 3 veículos ao fornecedor
  • Caso durante a semana este modelo de veículo termine no estoque, ele não será vendido até a semana seguinte.

Assim definamos nosso processo $ X_n $ como sendo o número de veículos na sexta feira da semana n, e $ X_0 $ como sendo o número inicial de veículos.

Definimos $ D_i $ a demanda da semana i. Suponha que $ D_1,D_2, D_3, \cdots \sim Po(\lambda) $ e sejam independentes, ou seja, $ D_i $ tem distribuição poisson com parâmetro $ \lambda $. Para mais detalhes sobre a distribuição poisson consulte apostila de probabilidade.

Desta forma nossa variável

$$\displaystyle X_{n+1} = \left\{ \begin{array}{c} max(3-D_{n+1};0),~~~ X_n=0 \\ max(X_n-D_{n+1};0),~~~ X_n\textgreater 0.\end{array} \right.$$

 

A primeira coisa que devemos fazer é verificar se esse processo é uma cadeia de markov se a resposta for afirmativa então devemos encontrar sua matriz de transição.

Notemos que nosso processo tem apenas 4 fases possíveis, ou seja, nosso espaço de fase é dado por:

$$E=\{0,1,2,3\}$$

$$\mathbb{P}[X_{n+1}=x_{n+1}|X_0=x_0,X_1=x_1,\cdots, X_{n}=x_n]$$

 

Se $ x_n=0 $, então

$$\mathbb{P}[X_{n+1}=x_{n+1}|X_0=x_0,X_1=x_1,\cdots, X_{n}=0]=$$

$$\mathbb{P}[max(3-D_{n+1},0)x_{n+1}|X_0=x_0,X_1=x_1,\cdots, X_{n}=0]=$$

$$\mathbb{P}[max(3-D_{n+1},0)x_{n+1}| X_{n}=0]$$

 

Se $ x_n\textgreater 0 $

$$\mathbb{P}[X_{n+1}=x_{n+1}|X_0=x_0,X_1=x_1,\cdots, X_{n}=x_{n}]=$$

$$\mathbb{P}[max(x_n-D_{n+1},0)=x_{n+1}|X_0=x_0,X_1=x_1,\cdots, X_{n}=x_n]=$$

$$\mathbb{P}[max(x_n-D_{n+1},0)x_{n+1}| X_{n}=x_{n}]$$

.

 

Agora estamos em posição de calcular a matriz de transição.

$$\mathbb{P}_n=\mathbb{P}=\left( \begin{array}{c} \mathbb{P}(D_n\geq 3)~~~ \mathbb{P}(D_n= 2) ~~~ \mathbb{P}(D_n\= 1) ~~~ \mathbb{P}(D_n= 0)\\ \mathbb{P}(D_n\geq 2) ~~~\mathbb{P}(D_n=0)~~~~~~~~~~~~~ 0 ~~~~~~~~~~~~ 0 \\ \mathbb{P}(D_n\geq 1)~~~\mathbb{P}(D_n= 1)~~~ \mathbb{P}(D_n=0)~~~~~~~~~~~ 0 \\ ~~~ \mathbb{P}(D_n\geq 3)~~~ \mathbb{P}(D_n=2)~~~ \mathbb{P}(D_n=1)~~~ \mathbb{P}(D_n=0) \\ \end{array}\right)$$

 

Agora vamos supor que no instante inicial a concessionária tinha 3 automóveis do modelo estudado. Então

$$\displaystyle \mathbb{P}[X_1=x_1|X_0=3] = \left\{ \begin{array}{c} \mathbb{P}[D_1\geq 3]=1-\sum_{k=1}^{2}\frac{e^{-\lambda}\lambda^k}{k!},~~~ x_1=0 \\ \mathbb{P}[D_1=2]=\frac{\lambda^2 e^{-\lambda}}{2},~~~ x_1=1 \\ \mathbb{P}[D_1=1]=\lambda e^{-\lambda}, ~~~ x_1=2 \\ \mathbb{P}[D_1=0]=e^{-\lambda}, ~~~x_1=3.\end{array} \right.$$

 

O interessante da cadeia de markov é que dado um estado inicial, podemos calcular a distribuição assintótica do sistema.

Definição 5.2:

Uma cadeia de markov é dita ser homogênea se a probabilidade de transição for estacionária, ou seja, se a probabilidade de transição não depender da etapa n.

Teorema 5.2:

Seja $ {X_n} $ um processo markoviano, então dado um estado inicial $ \mu_0 $ temos que

$$\displaystyle \mu_n=\mu_0\prod_{i=1}^{n}\mathbb{P}_i$$

 

Se o a cadeia de markov for homogênea então $ \mu_n=\mu_0 \mathbb{P}^{n} $.

Demonstração:

Como $ \mu_0 $ é o estado inicial então temos que $ \mu_0=(\mathbb{P}[X_0=0], \mathbb{P}[X_0=1], \mathbb{P}[X_0=2], \cdots) $. Assim

$$\mu_1=(\mathbb{P}[X_1=0|X_0], \mathbb{P}[X_1=1|X_0], \mathbb{P}[X_1=2|X_0], \cdots)$$

 

Agora usando a equação de Chapman-Kolmogorov, temos que

$$\mu_1=\mu_0 \mathbb{P}_1$$

.

 

Assim por indução temos que

$$\mu_n=\mu_0 \prod_{j=1}^{n}\mathbb{P}_j$$

 

E portanto o resultado segue.

Exemplo 5.4:

Seja uma cadeia de markov $ \{X_t\} $ homogênea com o espaço de transição $ E=\{0,1,2\} $ e a seguinte matriz de transição:

$$\mathbb{P}=\left( \begin{array}{c} ~~0,73 ~~0,17~~ 0,10\\ ~~0,90 ~~0,10~~ 0,00 \\ ~~0,68~~0,00~~0,32\\ \end{array}\right)$$

 

Calcule $ \mathbb{P}[X_2=1; X_3=1|X_1=0] $ e $ \mathbb{P}[X_1=0; X_2=0|X_0=2] $.

Basta observarmos que:

$$\displaystyle \mathbb{P}[X_2=1; X_3=1|X_1=0]=\frac{\mathbb{P}[X_2=1; X_3=1|X_1=0]}{\mathbb{P}[X_2=1;X_1=0]}=$$

$$\frac{\mathbb{P}[X_3=1|X_2=1;X_1=0]}{\mathbb{P}[X_2=1;X_1=0]}\mathbb{P}[X_2=1|X_1=0]$$

$$\displaystyle \mathbb{P}[ X_3=1|X_2=1;X_1=0]\mathbb{P}[X_2=1|X_1=0]=$$

$$\mathbb{P}[ X_3=1|X_2=1]\mathbb{P}[X_2=1|X_1=0]=(0,1)(0,17)=0,017$$

 

Da mesma forma temos que

$$\mathbb{P}[X_1=0; X_2=0|X_0=2]=\mathbb{P}[X_2=0|X_1=0]\mathbb{P}[X_1=0|X_0=2]=(0,73)(0,68)=0,4964 $$

 

Exemplo 5.5:

Seja uma cadeia de markov $ \{X_t\} $ homogênea com o espaço de transição $ E=\{0,1,2\} $ e a seguinte matriz de transição:

$$\mathbb{P}=\left( \begin{array}{c} ~~0,70 ~~0,20~~ 0,10\\ ~~0,55~~0,10~~ 0,35\\ ~~0,60~~0,00~~0,40\\ \end{array}\right)$$

 

E com a seguinte condição inicial $ \mu_{0}=[0,2; 0,8; 0] $

Calcule $ \mathbb{P}[X_0=1; X_1=0; X_2=2] $

Observemos que

$ \mathbb{P}[X_0=1; X_1=0; X_2=2]=\mathbb{P}[X_2=2| X_1=0; X_0=1]\mathbb{P}[X_0=1; X_1=0]=\mathbb{P}[X_2=2| X_1=0]\mathbb{P}[X_1=0| X_0=1]\mathbb{P}[X_0=1]=(0,1)(0,55)(0,8)=0,044 $

 

Exemplo 5.6:

Suponha que 3 bolas brancas e 3 bolas pretas são distribuídas em uma urna de tal forma que cada urna tenha exatamente 3 bolas. Suponha que em cada etapa uma bola de cada urna é selecionada e trocada de urna. Seja $ X_n $ o numero de bolas brancas na urna 1. Seja $ \{X_t\} $ o processo estocástico associado.

i) Esse processo é um processo markoviano?

ii) Se o estado inicial do sistema é $ X_0=1 $, ou seja, $ \mu_0=(0, 1, 0, 0) $. Qual a probabilidade de $ X_2 $ ser igual a 0?

iii) Se $ \mu_0=(1/4, 1/4, 1/4, 1/4) $ calcule $ \mu_{10} $

iv) Se $ \mu_{1/4,2/4, 0, 1/4} $ calcule $ \mu_{10} $.

 

i) Primeiramente definíamos as seguintes variáveis aleatórias

$ B_{n}^1 $={Pegar uma bola branca na urna um na etapa n.}

$ B_{n}^2 $={Pegar uma bola branca na urna dois na etapa n.}

Notemos que $ B_n^1, B_{n}^2 $, pode assumir apenas o valor 0 ou 1, pois vamos pegar uma única bola em cada etapa. Assim $ B_n^1 $ será 1 se pegarmos uma bola branca na urna 1 e zero caso contrário e o mesmo vale para $ B_n^{2} $ só que para a urna 2.

Portanto temos que o nosso processo $ X_n $ será dado da seguinte forma:

$$X_n=X_{n-1}-B_n^1+B_n^2$$

 

Ou seja o número de bolas brancas na etapa n depende do numero de bolas que tínhamos na etapa anterior, menos o $ B_n^1 $ que é o número de bolas brancas que tiramos da urna 1, mais $ B_n^2 $ que é o número de bolas brancas que tiramos da urna 2. Assim temos que:

$$\mathbb{P}[X_n=x_n| X_{n-1}=x_{n-1}]=\mathbb{P}[X_{n-1}-B_n^1+B_n^2=x_n| X_{n-1}=x_{n-1}]=$$

$$\mathbb{P}[B_n^2-B_n^1=x_n-X_{n-1}| X_{n-1}=x_{n-1}]=$$

$$\mathbb{P}[B_n^2-B_n^1=x_n-x_{n-1}| X_{n-1}=x_{n-1}]$$

 

Como $ B_n^1 $ e $ B_n^2 $ assumem apenas valores 0 ou 1, então temos que $ B_n^2-B_n^1 $ pode assumir apenas o valores -1, 0 e 1.

Calculemos primeiramente então

$$\displaystyle \mathbb{P}[B_n^1=x|X_{n-1}=x_{n-1}] = \left\{ \begin{array}{c} 1-\frac{x_{n-1}}{3},~~~ x=0 \\ \frac{x_{n-1}}{3}~~~ x_1=1 .\end{array} \right.$$

$$\displaystyle \mathbb{P}[B_n^2=x|X_{n-1}=x_{n-1}] = \left\{ \begin{array}{c} \frac{x_{n-1}}{3},~~~ x=0 \\ 1-\frac{x_{n-1}}{3}~~~ x_1=1 .\end{array} \right.$$

 

Notemos que:

$$\mathbb{P}[B_n^{2}=0;B_n^{1}=1|X_{n-1}=x_{n-1}]=\mathbb{P}[B_n^{2}=0|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=1|X_{n-1}=x_{n-1}]=\left(\frac{x_{n-1}}{3}\right)^2$$

$$\mathbb{P}[B_n^{2}=0;B_n^{1}=0|X_{n-1}=x_{n-1}]+\mathbb{P}[B_n^{2}=1;B_n^{1}=1|X_{n-1}=x_{n-1}]=$$

$$\mathbb{P}[B_n^{2}=0|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=0|X_{n-1}=x_{n-1}]+\mathbb{P}[B_n^{2}=1|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=1|X_{n-1}=x_{n-1}]$$

$$=\left[2\frac{x_{n-1}}{3}\left(1-\frac{x_{n-1}}{3}\right)\right]$$

$$\mathbb{P}[B_n^{2}=1;B_n^{1}=0|X_{n-1}=x_{n-1}]=\mathbb{P}[B_n^{2}=1|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=0|X_{n-1}=x_{n-1}]=\left(1-\frac{x_{n-1}}{3}\right)^2$$

 

Desta forma temos que:

$$\mathbb{P}[B_n^2-B_n^1=x_{n}-x_{n-1}|X_{n-1}=x_{n-1}] =$$

$$\displaystyle \left\{ \begin{array}{c} \mathbb{P}[B_n^{2}=0;B_n^{1}=1|X_{n-1}=x_{n-1}]=\left(\frac{x_{n-1}}{3}\right)^2,~~~ x_{n}-x_{n-1}= -1 \\ \mathbb{P}[B_n^{2}=0;B_n^{1}=0|X_{n-1}=x_{n-1}]+\mathbb{P}[B_n^{2}=1;B_n^{1}=1|X_{n-1}=x_{n-1}]=\\=\left[2\frac{x_{n-1}}{3}\left(1-\frac{x_{n-1}}{3}\right)\right],x_{n}-x_{n-1}=0 \\ \mathbb{P}[B_n^{2}=1;B_n^{1}=0|X_{n-1}=x_{n-1}]=\left(1-\frac{x_{n-1}}{3}\right)^2~~~ x_{n}-x_{n-1}=1\\  0,~~~~~~~~~~~~~~~~~~~~~~~~~~ \mbox{caso contrário} .\end{array} \right.$$

 

Assim a matriz de transição do processo $ X_n $ é dada

$$\mathbb{P}=\left( \begin{array}{c} ~0/9 ~~9/9~~ 0/9 ~~ 0/9\\ ~1/9~~4/9~~4/9 ~~ 0/9 \\~0/9~~ 4/9~~4/9 ~~ 1/9\\~0/9~~0/9~~ 9/9~~ 0/9\\ \end{array}\right)$$

 

Portanto concluímos que $ X_n $ é de fato uma cadeia de markov homogênea.

ii) Por definição temos que

$$\mu_n=(\mathbb{P}[X_n=0], \mathbb{P}[X_n=1], \mathbb{P}[X_n=2], \mathbb{P}[X_n=3])$$

 

Assim para encontrarmos $ \mathbb{P}[X_2=0] $, basta encontrarmos $ \mu_2 $. Entretanto pela equação de Chapman-Kolmogorov temos que

$$\mu_2=\mu_0 \mathbb{P}^2$$

$$\mathbb{P}^2=\left( \begin{array}{c} ~09/81~~ 36/81 ~~ 36/81 ~~ 00/81 \\ ~04/81 ~~ 41/81 ~~ 02/81 ~~ 04/81 \\ ~~04/81 ~~ 31/81 ~~ 41/81 ~~ 04/81 \\ ~~00/81 ~~ 36/81 ~~ 36/81 ~~ 09/81 \\ \end{array}\right)$$

 

Lembrando que nosso $ \mu_0=[0, 1, 0, 0] $ assim temos que:

$$\mu_2(4/81, 41/81, 32/81, 4/81)$$

 

Portanto temos que, $ \mathbb{P}[X_2=0]=41/81 $

iii) Para encontrarmos $ \mu_{10} $ basta utilizarmos a equação de Chapman-Kolmogorov, desta forma temos que

$$\mu_{10}=\mu_0 \mathbb{P}^{10}$$

 

Para encontrarmos $ \mathbb{P}^10 $ usamos métodos computacionais, com $ \mu_0=(1/4, 1/4, 1/4, 1/4) $

$$\mu_{10}=(0,05; 0,45; 0,45; 0,05)$$

 

iv) Idêntico ao item anterior, basta mudarmos $ \mu_0=(1/4, 2/4, 0, 1/4) $

$$\mu_{10}=(0,05; 0,45; 0,45; 0,05)$$

 

Notemo que o resultado foi o mesmo do item anterior apesar de ter uma condição inicial distinta. Isso nos indica que após um determinado número de etapas nossa $ \mu_n $ passa a não depender mais da sua condição inicial.

Exemplo 5.7:

Generalize o exemplo 5.6 para o caso de N bolas brancas e N bolas pretas.

Primeiramente definíamos as seguintes variáveis aleatórias

$ B_{n}^1 $={Pegar uma bola branca na urna um na etapa n.}

$ B_{n}^2 $={Pegar uma bola branca na urna dois na etapa n.}

Notemos que $ B_n^1, B_{n}^2 $, pode assumir apenas o valor 0 ou 1, pois vamos pegar uma única bola em cada etapa. Assim $ B_n^1 $ será 1 se pegarmos uma bola branca na urna 1 e zero caso contrário e o mesmo vale para $ B_n^{2} $ só que para a urna 2.

Portanto temos que o nosso processo $ X_n $ será dado da seguinte forma:

$$X_n=X_{n-1}-B_n^1+B_n^2$$

 

Ou seja o número de bolas brancas na etapa n depende do numero de bolas que tínhamos na etapa anterior, menos o $ B_n^1 $ que é o número de bolas brancas que tiramos da urna 1, mais $ B_n^2 $ que é o número de bolas brancas que tiramos da urna 2. Assim temos que:

$$\mathbb{P}[X_n=x_n| X_{n-1}=x_{n-1}]=\mathbb{P}[X_{n-1}-B_n^1+B_n^2=x_n| X_{n-1}=x_{n-1}]=$$

$$\mathbb{P}[B_n^2-B_n^1=x_n-X_{n-1}| X_{n-1}=x_{n-1}]=\mathbb{P}[B_n^2-B_n^1=x_n-x_{n-1}| X_{n-1}=x_{n-1}]$$

 

Como $ B_n^1 $ e $ B_n^2 $ assumem apenas valores 0 ou 1, então temos que $ B_n^2-B_n^1 $ pode assumir apenas o valores -1, 0 e 1.

Calculemos primeiramente então

$$\displaystyle \mathbb{P}[B_n^1=x|X_{n-1}=x_{n-1}] = \left\{ \begin{array}{c} 1-\frac{x_{n-1}}{N},~~~ x=0 \\ \frac{x_{n-1}}{3}~~~ x_1=1 .\end{array} \right.$$

$$\displaystyle \mathbb{P}[B_n^2=x|X_{n-1}=x_{n-1}] = \left\{ \begin{array}{c} \frac{x_{n-1}}{N},~~~ x=0 \\ 1-\frac{x_{n-1}}{3}~~~ x_1=1 .\end{array} \right.$$

 

Notemos que:

$$\mathbb{P}[B_n^{2}=0;B_n^{1}=1|X_{n-1}=x_{n-1}]=\mathbb{P}[B_n^{2}=0|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=1|X_{n-1}=x_{n-1}]=\left(\frac{x_{n-1}}{N}\right)^2$$

$$\mathbb{P}[B_n^{2}=0;B_n^{1}=0|X_{n-1}=x_{n-1}]+\mathbb{P}[B_n^{2}=1;B_n^{1}=1|X_{n-1}=x_{n-1}]=$$

$$\mathbb{P}[B_n^{2}=0|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=0|X_{n-1}=x_{n-1}]+ \mathbb{P}[B_n^{2}=1|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=1|X_{n-1}=x_{n-1}]$$

$$=\left[2\frac{x_{n-1}}{N}\left(1-\frac{x_{n-1}}{3}\right)\right]$$

$$\mathbb{P}[B_n^{2}=1;B_n^{1}=0|X_{n-1}=x_{n-1}]=\mathbb{P}[B_n^{2}=1|X_{n-1}=x_{n-1}]\mathbb{P}[B_n^{1}=0|X_{n-1}=x_{n-1}]=\left(1-\frac{x_{n-1}}{N}\right)^2$$

 

Desta forma temos que:

$$\displaystyle \mathbb{P}[B_n^2-B_n^1=x_{n}-x_{n-1}|X_{n-1}=x_{n-1}] = $$

$$\left\{ \begin{array}{c} \mathbb{P}[B_n^{2}=0;B_n^{1}=1|X_{n-1}=x_{n-1}]=\left(\frac{x_{n-1}}{N}\right)^2,~~~ x_{n}-x_{n-1}= -1 \\ \mathbb{P}[B_n^{2}=0;B_n^{1}=0|X_{n-1}=x_{n-1}]+\mathbb{P}[B_n^{2}=1;B_n^{1}=1|X_{n-1}=x_{n-1}]=\\ =\left[2\frac{x_{n-1}}{3}\left(1-\frac{x_{n-1}}{N}\right)\right],~ x_{n}-x_{n-1}=0 \\ \mathbb{P}[B_n^{2}=1;B_n^{1}=0|X_{n-1}=x_{n-1}]=\left(1-\frac{x_{n-1}}{N}\right)^2~~~ x_{n}-x_{n-1}=1\\ 0,~~~~~~~~~~~~~~~~~~~~~~~~~~ \mbox{caso contrário} .\end{array} \right.$$

 

Assim a matriz de transição do processo $ X_n $ é dada

$$\mathbb{P}^2=\left( \begin{array}{c} ~~~0~~~~~~~~~~~~~~~~~~1~~~~~~~~~~~~~~0~~~~~~~~~~~~0~~~~~~~~~~~~~~0 ~~~~~~~~~~~~~~~~~~~\cdots ~~~~~~~~~~~~0 \\ ~(1/N)^2~~~~~~~~~~~~~(2/N)(N-1)~~~~~~~(1-(1/N))^2~~~~~~~~~0~~~~~~~~~~~~~~0 ~~~~~~~~~ \cdots ~~~~~~~~ 0 \\ ~~0 ~~~~~~~~ (2/N)^2 ~~~~~~ (4/N^2)(N-2) ~~~~~~ (1-(2/N))^2 ~~~~~~~~~ 0 ~~~~~~~~~~ \cdots ~~~~~~~~ 0 \\ ~~0 ~~~~~~~~ 0 ~~~~~~~(3/N)^2 ~~~~~~~~ (8/N^2)(N-3) ~~~~~~ (1-(3/N))^2 ~~~~~~\cdots ~~~~ 0\\ ~~0 ~~~~~~~~ 0 ~~~~~~~~ 0 ~~~~~~~~ (4/N)^2 ~~~~~~~~~ (16/N^2)(N-4) ~~~~~~~~\cdots ~~~~~~ 0 \\ ~~~~\vdots ~~~~~~~~~~~~~~~~\vdots ~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~ \vdots ~~~~~~~~~~ \vdots ~~~~~~~~~~~~~~~~ \vdots ~~~~~~~~~~~~ \vdots~ \\ 0 ~~~~~~~~~~~~ 0 ~~~~~~~~~~~~ 0 ~~~~~~~~~~ 0 ~~~~~~~~ 0 ~~~~ N/N)^2 ~~ (2N/N^2)(N-N)\\\end{array}\right)$$

 

Concluímos também que para o caso geral de N bolas a matriz permanece homogênea.

Exemplo 5.8:

Talvez o exemplo mais simples de cadeia de markov seja o exemplo de um movimento completamente determinado, o qual pode ser definido da seguinte forma seja $ \mathbb{P} $ uma matriz de transição com apenas zeros e uns. Assim para cada estado i existe um estado g(i) tal que

$ \mathbb{P}({i,g(i)})=1 $ , $ \mathbb{P}({i,j})=0,~~\forall j \neq g(i) $

Notemos que isso significa que se estamos no estado i necessariamente no próximo estado estaremos no estado g(i). Notemos que nesse caso basta sabermos o instante inicial e então saberemos todo o futuro, pois se $ X_0=i $ então

$ X_1=g(1) $, $ X_2=g(g(1))=g^{(2)}(1),~~~~\cdots X_{n}=g^{(n)}(1) $

Observação:

Muitas vezes apenas olhando para a matriz de transição podemos verificar se as variáveis são $ X_0, X_1, X_2,\cdots $ formão variáveis independentes e identicamente distribuídas, ou seja, com distribuição comum. Basta apenas que a matriz de transição seja homogênea e suas linhas sejam idênticas.

 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]