2.6 - Distribuição condicional: caso discreto

Você está aqui

Como para dois eventos quaisquer $ E $ e $ F $, a probabilidade condicional de $ E $ dado $ F $ é definida, desde que $ \mathbb{P}(F) \ \textgreater \ 0 $, por


\[\mathbb{P}(E|F)=\frac{\mathbb{P}(E\cap F)}{\mathbb{P}(F)}\]

 

então, se $ X $ e $ Y $ são variáveis aleatórias discretas, é natural definir a função de probabilidade condicional de $ X $ dado que $ Y=y $, por


\[p_{X|Y}(x|y)=\mathbb{P}(X=x|Y=y)=\frac{\mathbb{P}(X=x,Y=y)}{\mathbb{P}(Y=y)}=\frac{p(x,y)}{p_Y(y)}\]

 

para todos os valores de y tais que $ p_Y(y) \ \textgreater \ 0 $. Similarmente, a função de distribuição acumulada da probabilidade condicional de $ X $ dado que $ Y=y $ é definida, para todo $ y $ tal que $ p_Y(y) \textgreater 0 $, por


\[F_{X|Y}(x|y)=\mathbb{P}(X\leq x| Y\leq y)=\sum_{a\leq x}p_{X|Y}(a|y)\]

 

Se $ X $ é independente de $ Y $, então a função de probabilidade condicional e a função de distribuição acumulada são as mesmas do caso não condicional. Isto acontece pois, se $ X $ é independente de $ Y $, então


\[p_{X|Y}(x|y)=\mathbb{P}(X=x|Y=y)=\frac{\mathbb{P}(X=x,Y=y)}{\mathbb{P}(Y=y)}=\frac{\mathbb{P}(X=x)\mathbb{P}(Y=y)}{\mathbb{P}(Y=y)}=\mathbb{P}(X=x).\]

 

Exemplo 2.6.1:

Suponha que $ p(x,y) $, a função de probabilidade conjunta de $ X $ e $ Y $ seja dada por


\[p(0,0)=0,4 \qquad p(0,1)=0,2 \qquad p(1,0)=0,1 \qquad p(1,1)=0,3.\]

 

Calcule a função de probabilidade condicional de $ X $, dado que $ Y=1 $.

Primeiramente, observamos que


\[p_Y(1)=\sum_{x}p(x,1)=p(0,1)+p(1,1)=0,5.\]

 

Então


\[p_{X|Y}(0|1)=\frac{p(0,1)}{p_Y(1)}=\frac{2}{5}\]

 

e


\[p_{X|Y}(1|1)=\frac{p(1,1)}{p_Y(1)}=\frac{3}{5}.\]

 

Exemplo 2.6.2:

Em uma prova com $ 10 $ perguntas de verdadeiro ou falso, qual a probabilidade de acertarmos todas as perguntas, se respondermos todas de forma aleatória? E se respondêssemos de forma aleatória, mas soubermos que existem mais respostas verdadeiras do que falsa?

Considere o evento $ A=\{\text{acertar todas as questões}\} $. Como existem $ 2^{10}=1024 $ possíveis combinações, então a probabilidade de respondermos todas as respostas corretas respondendo apenas de forma aleatória é dada por


\[\mathbb{P}(A)=1/1024.\]

 

Seja $ B $ o conjunto dos pontos com mais resposta verdadeira do que falsa.

Então o número de elementos de $ B $ é


\[\left(\begin{array}{l}10\\6\end{array}\right)+\left(\begin{array}{c}10\\7\end{array}\right)+\left(\begin{array}{c}10\\8\end{array}\right)+\left(\begin{array}{c}10\\9\end{array}\right)+\left(\begin{array}{c}10\\10\end{array}\right)=386\]

e portanto $ \mathbb{P}(A|B)=\frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}=\frac{1}{386} $.

Exemplo 2.6.3:

Suponha que uma urna contenha $ 6 $ dados, em que $ 3 $ deles são honestos e os outros $ 3 $ são viciados. Os dados viciados apresentam a seguinte probabilidade $ \mathbb{P}(1)=1/2 $ e $ \mathbb{P}(2) = \mathbb{P}(3) = \mathbb{P}(4) = \mathbb{P}(5) = \mathbb{P}(6)=1/10 $. Retira-se um dado ao acaso da urna. Qual a probabilidade dele ser viciado, sabendo que em dois lançamentos o resultado foi 1?

Considere os eventos $ A=\{\text{O dado ser viciado}\} $, $ B=\{\text{Sair o número 1 na primeira e na segunda jogada}\} $.

Queremos encontrar $ \mathbb{P}(A|B) $, mas pelo Teorema 1.4.3 temos que


\[\mathbb{P}(A|B)= \frac{\mathbb{P}(B|A)\mathbb{P}(A)}{\mathbb{P}(B)}.\]

 

Calculemos então cada uma das probabilidades.


\[\mathbb{P}(B|A)=\mathbb{P}(\mbox{\{Sair 1 na primeira Jogada\}}|A) \mathbb{P}(\mbox{\{Sair 1 na segunda Jogada\}}|A)=\frac{1}{2}\frac{1}{2}=\frac{1}{4},\]


\[\mathbb{P}(A)=\frac{3}{6}=\frac{1}{2}\]

 

Para encontramos $ \mathbb{P}(B) $, basta utilizarmos o Teorema 1.4.2.


\[\mathbb{P}(B)=\mathbb{P}(B\cap A)+\mathbb{P}(B\cap A^{C})=\mathbb{P}(B|A)\mathbb{P}(A)+\mathbb{P}(B|A^{C})=\frac{1}{4}\frac{1}{2}+\frac{1}{36}\frac{1}{2}=\frac{10}{72}.\]

Portanto


\[\mathbb{P}(A|B)=\frac{1/8}{10/72}=\frac{9}{10}.\]

 

Assim a probabilidade de que o dado seja viciado dado que saiu duas vezes o número 1 é de 90%.

Exemplo 2.6.4:

Suponha as mesmas condições do exemplo acima (Exemplo 2.6.3). Sabendo que em $ 3 $ lançamentos em nenhum deles o resultado foi $ 1 $, qual a probabilidade de que o dado seja viciado?

Considere os eventos $ A=\{\text{O dado é viciado}\} $ e $ B_i=\{\text{Sair um número diferente de 1 na i-ésima jogada}\} $ e seja $ C= B_1 \cap B_2 \cap B_3 $. Queremos encontrar a probabilidade de $ \mathbb{P}(A|C) $.

Usando o Teorema 1.4.3, temos que


\[\mathbb{P}(A| C)=\frac{\mathbb{P}(C|A)\mathbb{P}(A)}{\mathbb{P}(C)}.\]

 

Calculemos então cada uma das probabilidades.


\[\mathbb{P}(C|A)=\mathbb{P}(B_1|A)\mathbb{P}(B_2|A)\mathbb{P}(B_3|A)=\frac{1}{2}\frac{1}{2}\frac{1}{2}=\frac{1}{8},\]


\[\mathbb{P}(A)=\frac{3}{6}=\frac{1}{2}.\]

 

Para encontramos $ \mathbb{P}(C) $, basta utilizarmos o Teorema 1.4.2.


\[\mathbb{P}(C)=\mathbb{P}(C\cap A)+\mathbb{P}(C\cap A^{C})=\mathbb{P}(C|A)\mathbb{P}(A)+\mathbb{P}(C|A^{C})=\frac{1}{8}\frac{1}{2}+\frac{5^3}{6^3}\frac{1}{2}=\frac{152}{432}.\]

 

Portanto


\[\mathbb{P}(A|B)=\frac{1/16}{152/432}=\frac{27}{152} \thickapprox 0,1776.\]

 

Portanto dado que não saiu o número 1 nos três primeiros lançamentos, temos uma chance de aproximadamente 18% que o dado seja viciado.

 

 

Exemplo 2.6.5:
Sejam $ X_1 $ e $ X_2 $ variáveis aleatórias independentes, cada uma com distribuição geométrica definida por

$$ \mathbb{P}(X_i=n)=p(1-p)^n, n=0,1,2,\dots; \quad i=1,2;$$

no qual $ 0\textless p \textless 1. $.(Observação: esta versão da distribuição geométrica corresponde à distribuição do número de fracassos antes do primeiro sucesso em uma sequência de ensaios de Bernoulli.)

(a) Calcule $ \mathbb{P}(X_1=X_2) $ e $ \mathbb{P}(X_1\textless X_2) $.

$$\mathbb{P}(X_1=X_2)=\sum_{n=0}^\infty \mathbb{P}(X_1=X_2=n)=\sum_{n=0}^\infty \mathbb{P}(X_1=n)\mathbb{P}(X_2=n)$$


$$\sum_{n=0}^\infty p^2[(1-p)^2]^n=\frac{p^2}{1-(1-p)^2}=\frac{p^2}{-p^2+2p}=\frac{p}{2-p}$$

Agora $ \mathbb{P}(X_1\textgreater X_2)=\mathbb{P}(X_2\textgreater X_1) $ (simetria) então


$$\mathbb{P}(X_1\textgreater X_2)+\mathbb{P}(X_2\textgreater X_1)+\mathbb{P}(X_1= X_2)=1$$

o que implica

$$\mathbb{P}(X_1\textgreater X_2)=\frac{1-\mathbb{P}(X_1=X_2)}{2}$$

o que implica que

$$\mathbb{P}(X_1\textgreater X_2)=\frac{\frac{2-p-p}{2-p}}{2}=\frac{2-2p}{4-2p}=\frac{1-p}{2-p}$$

(b) Determine a distribuição condicional de $ X_1 $ dada $ X_1+X_2 $.


$$\mathbb{P}(X_1=k|X_1+X_2=n)=\frac{\mathbb{P}(X_1=k,X_1+X_2=n)}{\mathbb{P}(X_1+X_2=n)}=\frac{\mathbb{P}(X_1=k,X_2=n+k)}{\mathbb{P}(X_1+X_2=n)}$$


$$\frac{\mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)}{\mathbb{P}(X_1+X_2=n)}$$

Agora:

$$\mathbb{P}(X_1+X_2=n)=\sum_{k=0}^n\mathbb{P}(X_1=k,X_2=n-k)=\sum_{k=0}^n \mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)$$


$$\sum_{k=0}^n p^2(1-p)^n=(n+1)p^2(1-p)^n$$

Então:


$$\mathbb{P}(X_1=k|X_1+X_2=n)=\frac{p(1-p)^kp(1-p)^{n-k}}{(n+1)p^2(1-p)^n}=\frac{1}{n+1}$$

com $ k=0,1,\dots,n $. Assim, esta distribuição é uniforme nos pontos $ k=0,1,\dots,n $

 

Exemplo 2.6.6:
Uma certa lâmpada tem uma vida, em horas, tendo distribuição exponencial de parâmetro 1. Um jogador acende a lâmpada e, enquanto a lâmpada ainda estiver acesa, lança um dado equilibrado de quinze em quinze segundos. Qual o número espero de 3's lançados pelo jogador até a lâmpada se apagar ?


$$T\sim Exp\left(\frac{1}{3600}s\right)$$

$ [T/15] $= número de vezes que o jogador lança o dado enquanto a lâmpada estava acesa. O experimento lançamento de dado e obtenção ou não de 3 é um ensaio de bernoulli condicionado a T.


$$\mathbb{P}(X=k|T=t)=\binom{[T/15]}{k}p^k(1-p)^{[T/15]^{-k}},k=0,1,\dots,[T/15]$$

e $ p=\frac{1}{6} $. Então, $ \mathbb{E}(X|T)=p[T/15] $ e $ \mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|T)\right)=\frac{1}{6}\mathbb{E}([T/15]) $. Agora,


$$\mathbb{P}([T/15]\geq k)=\mathbb{P}(T\textgreater 15k)=e^{-\frac{15}{3600}k}=e^{-\frac{1}{240}k}.$$

Assim

$$\mathbb{E}([T/15])=\sum_{k=0}^\infty \left(e^{-\frac{1}{240}}\right)^k=\frac{1}{1-e^{-\frac{1}{240}}}$$

Assim, $ \mathbb{E}(X)=\frac{1}{6}\frac{1}{1-e^{-1/240}}=40,08 $

 

Exemplo 2.6.7:
Partículas chegam em um contador segundo um processo de Poisson com parâmetro $ \lambda $. Em um determinado tempo $ t $, produz-se uma voltagem, multiplicando o número de partículas que já entraram no contador por um fator que é independente desse número e que tem densidade:

$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{(1+x)^2}, x \geq 0 \\ \\ 0, x\textless 0.\end{array}\right.$$

Ache a probabilidade da voltagem produzida ser menor que 1.


$$X=Nk$$

no qual, k tem densidade

$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{(1+x)^2}, x \geq 0 \\ \\ 0, x\textless 0.\end{array}\right.$$

e $ N\sim Poisson(\lambda t) $. Agora

$$\mathbb{P}(X\textless 1)=\mathbb{P}(0\leq X\textless 1)=\mathbb{P}(X=0)+\mathbb{P}(0\textless X\textless 1)$$

Agora

$$\mathbb{P}(X=0)=\mathbb{P}(N=0,k \quad\text{qualquer}\quad)+\mathbb{P}(N\quad \text{qualquer} \quad,k=0)=e^{-\lambda t}$$

Porém, se $ 0\textless X \textless 1 $ se, e somente se,

$$\{0\textless k\textless \frac{1}{n}\}\Rightarrow \mathbb{P}\left(0\textless k \textless \frac{1}{n}\right)=\int_{0}^{1/n}\frac{1}{(1+x)^2}dx$$

fazendo uma substituição $ 1+x=y $ e $ dx=dy $.

$$\int_{0}^{1/n}\frac{1}{(1+x)^2}dx=-\frac{1}{y}\bigg|_1^{1+\frac{1}{n}}=1-\frac{1}{1+\frac{1}{n}}=\frac{n+1-n}{n+1}=\frac{1}{n+1}, \quad n=1,2,\dots.$$

Assim,

$$\mathbb{P}(X\textless 1)=\mathbb{P}(X=0)+\sum_{n=1}^\infty \mathbb{P}\left(0\textless k\textless \frac{1}{n}\right)\mathbb{P}(N=n) $$

$$=e^{-\lambda t}+\sum_{n=1}^\infty \frac{(\lambda t)^n}{(n+1)!}e^{-\lambda t}=e^{-\lambda t}\left(1+\frac{1}{\lambda t }\sum_{k=2}^\infty \frac{(\lambda t)^k}{k!}\right)$$

$$=e^{-\lambda t}\left[1+\frac{1}{\lambda t}\left(e^{\lambda t}-1-\lambda t\right)\right]=\frac{1}{\lambda t}[1-e^{-\lambda t}]$$


 

Exemplo 2.6.8.
Mostre que se X é uma variável aleatória tendo distribuição simétrica em torno de zero, e se $ \mathbb{P}(X=0)=0 $, então a distribuição condicional de $ X^2 $ dado que $ X\textgreater 0 $ é igual à própria distribuição de $ X^2 $.

X tem distribuição simétrica em torno de zero se, e somente se, $ \mathbb{P}(X\leq -x)=\mathbb{P}(X\geq x), \forall x \in \mathbb{R} $. Além disso $ \mathbb{P}(X=0)=0 $ o que implica que $ \mathbb{P}(0\textless X \leq x)=\mathbb{P}(-x\leq X \textless 0) $ para todo $ x\textgreater 0 $. Queremos provar que

$$\mathbb{P}(X^2\leq x| X\textgreater 0)=\mathbb{P}(X^2\leq x)$$

Agora

$$\mathbb{P}(X^2\leq x | X\textgreater 0)=\frac{\mathbb{P}(X^2\leq x, X\textgreater 0)}{\mathbb{P}(X\textgreater 0)}=\frac{\mathbb{P}(0\textgreater X\leq \sqrt{x})}{\mathbb{P}(X\textgreater 0)}$$

e

$$\mathbb{P}(X^2\leq x | X\textless 0)=\frac{\mathbb{P}(X^2\leq x, X\textless 0)}{\mathbb{P}(X\textgreater 0)}=\frac{\mathbb{P}(-\sqrt{x}\leq X\textless 0)}{\mathbb{P}(X\textgreater 0)}$$

Temos então que

$$\mathbb{P}(X^2\leq x | X\textless 0)=\mathbb{P}(X^2\leq x | X\textgreater 0)$$

são iguais pela simetria em torno de zero, para todo $ x\textgreater 0 $. Então,

$$\mathbb{P}(X^2\leq x)=\mathbb{P}(X^2\leq x| X\textgreater 0)\mathbb{P}(X\textgreater 0)+\mathbb{P}(X^2\leq x|X=0)\mathbb{P}(X=0)\mathbb{P}(X^2\leq x | X\textless 0)$$

$$=\mathbb{P}(X^2\leq x |X\textgreater 0)\frac{1}{2}+\mathbb{P}(X^2\leq x| X\textgreater 0)\frac{1}{2}=\mathbb{P}(X^2\leq x|X\textgreater 0), \quad \forall x \textgreater 0$$

e para $ X=0 $ temos

$$\left\{\begin{array}{l}\mathbb{P}(X^2\leq 0)=\mathbb{P}(X=0)=0\\ \mathbb{P}(X^2\leq 0| X\textgreater 0)=0\end{array}\right.$$

Da equação acima e do fato que

$$\mathbb{P}(X^2\leq x|X\textgreater 0), \quad \forall x \textgreater 0$$

temos então que $ X^2 $ e $ X^2|X\textgreater 0 $ são identicamente distribuídas (A distribuição é determinada pela f distribuição de probabilidade)

 

Exemplo 2.6.9
Partículas radioativas chegam a um contador segundo um processo de Poisson com uma taxa média de três por segundo, mas o contador registra somente cada segunda partícula (i.e., são registradas somente as partículas número $ 2,4,6,\dots  $).
(a) Seja $ X_t $ o número de partículas registradas até o tempo t. É  t\geq 0\} $ um processo de Poisson? Se for, qual o parâmetro ? Se não for, explique o porquê.

$ (Y_t)_{t\geq 0} $ é processo de Poisson, se e somente se, $ \mathbb{P}(Y_t=k)=\frac{\lambda t }{k!}e^{-\lambda t} $. Agora,

$$\mathbb{P}(X_t=k)=\mathbb{P}(Y_t=2k\quad\text{ou}\quad Y_t=2k+1)=\left[\frac{(\lambda t)^{2k}}{(2k)!}+\frac{(\lambda t)^{2k+1}}{(2k+1)!}\right] e^{-\lambda t}$$

então $ X_t $ não é processo de Poisson.

(b) Supondo que o contador registrou exatamente uma partícula durante o primeiro segundo, qual a probabilidade de que ele não registre mais partícula alguma antes do tempo 2?

$$\mathbb{P}(X_2=X_1| X_1=1)=\frac{\mathbb{P}(X_2=X_1=1)}{\mathbb{P}(X_1=1)}$$

$$=\frac{\mathbb{P}(Y_1=2, Y_2-Y_1=0)+\mathbb{P}(Y_1=2,Y_2-Y_1=1)+\mathbb{P}(Y_1=3,Y_2Y_1=0)}{\mathbb{P}(Y_1=2)+\mathbb{P}(Y_1=3)}$$

Agora $ Y_1\sim Poisson(\lambda) $ e $ Y_2-Y_1\sim Poisson(\lambda) $ são independentes. Então,

$$\mathbb{P}(X_2=X_1|X_1=1)=\frac{\mathbb{P}(Y_1=2)\left(\mathbb{P}(Y_2-Y_1=1)+\mathbb{P}(Y_2-Y_1=0)\right)\mathbb{P}(Y_1=1)\mathbb{P}(Y_2-Y_1=0)}{ \mathbb{P}(Y_1=2)+\mathbb{P}(Y_1=3)}$$

$$=\frac{\frac{\lambda^2}{2}e^{-\lambda t }(\lambda+1)e^{-\lambda t}+\frac{\lambda^3}{6}e^{-\lambda t}e^{-\lambda t}}{\frac{\lambda^2}{2}e^{-\lambda t}+\frac{\lambda^3}{6}e^{-\lambda t}}$$

$$=\frac{e^{-\lambda t}\lambda^2\left(\frac{\lambda+1}{2}+\frac{1}{6}\right)}{\lambda^2\left(\frac{1}{2}+\frac{\lambda}{6}\right)}=\frac{3\lambda +4}{\lambda+3}e^{-\lambda t}$$


 

Exemplo 2.6.10
Um contador recebe impulsos de duas fontes independentes, A e B. Fonte A gera impulsos conforme um processo de Poisson com parâmetro $ \lambda \textgreater 0 $, enquanto a fonte B gera impulsos segundo um processo de Poisson com parâmetro $ \xi \textgreater 0 $. Suponha que o contador registre todo impulso gerado pelas duas fontes.

(a) Seja $ X_t $ o número de impulsos registrados pelo contador até o tempo $ t, t \textgreater 0 $ ($ X_0=0 $). Explique porque  t\geq 0\} $ é um processo de Poisson (basta uma explicação intuitiva). Qual o parâmetro ?

É um processo de Poisson por que:

a) Incrementos independentes
b) Incrementos estacionários
c) Não chegam 2 simultaneamente e com parâmetro $ \lambda+\xi $.

(b) Qual a probabilidade de que o primeiro impulso registrado seja da fonte A?
Sabemos que $ X_{\lambda} $ e $ X_{\lambda+\xi}-X_{\xi} $ são independentes com $ X_{\lambda}\sim Poisson(\lambda) $ e $ X_{\lambda+\xi}-X_{\lambda}\sim Poisson(\xi) $. Então

$$\mathbb{P}(X_{\lambda}=1|X_{\lambda+\xi}=1)=\frac{\lambda}{\lambda+\xi}$$

(c) Dado que exatamente 100 impulsos foram contados durante a primeira unidade de tempo, qual a distribuição que você atribuiria ao número emitido pela fonte A?

$$\mathbb{P}(X_\lambda=k| X_{\lambda+\xi}=100)=\binom{100}{k}\left( \frac{\lambda}{\lambda+\xi}\right)^k\left( \frac{\xi}{\lambda+\xi}\right)^{100-k},$$

$ k=0,1,\dots,100 $ sendo uma $ Binomal\left(100,\frac{\lambda}{\lambda+\xi}\right) $


 

 

Exemplo 2.6.11
Diz-se que $ X=(X_1,\dots, X_k) $ tem distribuição multinomial com parâmetros $ p_1,\dots ,p_k $ e n, no qual $ p_i\geq 0 $ e $ \displaystyle \sum_{i=1}^k p_i=1 $, se

$$\mathbb{P}(X=(j_1, \dots, j_k))=\frac{n!}{j_1!j_2!\dots j_k!}p_1^{j_1}p_2^{j_2}\dots p_k^{j_k}$$

para toda escolha de $ j_1,\dots, j_k $ inteiros não-negativos tais que $ \sum_{\ell=1}^k j_\ell =n $.

(a) Prove que $ X_i\sim b(n,p_i), i=1,\dots,k. $
Temos que:

$$\mathbb{P}(X_i=m)=\sum_{(j_1,\dots, j_k)}\frac{n!}{j_1!\dots j_{i-1}!m!j_{i+1}!\dots j_k!}p_1^{j_1}p_2^{j_2}\dots p_1^m\dots p_k^{j_k}$$

no qual $ j_{\ell}\geq 0 $ e $ \sum_{\ell\neq i}^k j_\ell=n-m $.
Então,

$$\frac{n!}{m!}p_i^m \sum \frac{1}{j_1!\dots j_k!}p_1^m\dots p_k^{j_k}$$

Agora dividindo e multiplicando por $ (1-p_i)^{n-m} $, temos

$$\mathbb{P}(X_1=m)=\frac{n!}{m!(n-m)!}p_i^m(1-p_i)^{n-m}\sum \frac{(m-n)!}{j_1!\dots j_k!}\left(\frac{p_i}{1-p_i}\right)^{j_1} \dots \left(\frac{p_i}{1-p_i}\right)^{j_k}$$

mas o lado direito da equação representa uma multinomial, e portanto é igual a 1. Logo temos que $ X_i\sim b(n,p_i),\quad i=1,2,\dots,k  $

(b) Sejam $ 0\textless s_1\textless s_2\textless \dots\textless s_k=t. $ Mostre que no processo de Poisson, dado que $ X_t=n, $ a distribuição condicional de $ X_{s_1},X_{s_2}-X_{s_1}, \dots , X_t-X_{s_{k-1}} $ é multinomial com parâmetros $ \frac{s_1}{t},\frac{s_2-s_1}{t}, \dots, 1- \frac{s_{k-1}}{t} $ e n. (Note que essa distribuição não depende do parâmetro $ \lambda $ do processo.)

Dado que até o instante t chegaram n partículas, a distribuição dos tempos de chegada é igual a de uma amostra aleatória de n elementos de uma v.a. uniforme em $ [0,t] $. Assim a distribuição em questão será:

$$\mathbb{P}(X_{s_1}=j_1,X_{{s_2}}-X_{s_1}=j_2, \dots, X_{t}-X_{s_{k-1}}=j_k|X_t=n)=\frac{n!}{j_1!\dots j_k!}p_1^{j_1}\dots p_k^{j_k}$$

para $ (j_1,j_2,\dots,j_k) $ tal que $ \sum_{j=1}^k j_i=n $ e $ j_i $ inteiro não negativo caso contrário é zero o que implica que é uma multinomial.


 

 

Exemplo 2.6.12
Uma exposição funciona pelo período de T horas. Visitantes chegam à exposição segundo um processo de Poisson com taxa $ \lambda $ visitantes/hora. Os visitantes permanecem na exposição até o fim do período. Calcule o tempo médio total gasto pelos visitantes na exposição. %Dado que chegou um só visitante durante as T horas, qual a média do tempo que ele permanece na exposição ?
Seja $ Y(T) $ número de visitantes que chegam até T, o que implica que $ Y(T)\sim Poisson(\lambda T) $ e então sendo $ T_1,T_2,\dots, T_n $ os tempos de chegada do n-visitantes, temos que $ T_i $ independentes $ T_j $ e $ T_i\sim U[0,T] $$ i=1,2,\dots,n $ e

$$\mathbb{E}(T_i)=\frac{T}{2}$$

para qualquer i. Então, seja $ X= $ tempo médio total gasto pelos visitantes na exposição:

$$\mathbb{E}(X|Y=n)=\sum_{i=1}^n (T-T_i)=nT - \sum_{i=1}^n T_i.$$

Agora, então

$$\mathbb{E}(X|Y=n)=nT-\sum_{i=1}^n \mathbb{E}(T_i)=nT-\frac{nT}{2}=n\frac{T}{2}.$$

Então $ \mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|Y=n)\right)=\frac{T}{2}\mathbb{E}(Y)=\frac{T^2}{2}\lambda $

 

Exemplo 2.6.13

 Suponha que o número de passas num bolo inglês tenha distribuição de Poisson de parâmetro 60. Um jogador compra um bolo, tira todas as passas uma por uma e reparte as passas entre ele e você da seguinte maneira: depois da extração de cada passa ele joga uma moeda equilibrada, dando a passa para você se der cara, comedo ele mesmo a passa se der coroa. Qual a distribuição do número de passas que você recebe ? A esperança?
Temos que $ X= $ número de passas que você recebe e $ Y= $ número de passas extraídas. Assim, $ X|Y=n\sim b\left(n,\frac{1}{2}\right) $ então

$$\mathbb{P}(X=k)=\sum_{n=k}^\infty \mathbb{P}(X=k|Y=n)\mathbb{P}(Y=n)=\sum_{n=1}^\infty \frac{n!}{(n-k)!k!}\left(\frac{1}{2}\right)^{n} \frac{\lambda^n}{n!}e^{-\lambda}$$

$$=\frac{e^{-\lambda}\left(\frac{\lambda}{2}\right)^k}{k!}\sum_{n=k}^\infty \frac{\left(\frac{\lambda}{2}\right)^{n-k}}{(n-k)!}$$

$$=\frac{e^{-\lambda}\left(\frac{\lambda}{2}\right)^ke^{\lambda/2}}{k!}=\frac{\left(\frac{\lambda}{2}\right)^ke^{-\lambda}}{k!}$$

ou seja $ X\sim Poisson\left(\frac{\lambda}{2}\right) $, como $ \lambda/2=30 $. Agora

$$\mathbb{E}(X|Y=n)=n\frac{1}{2}$$

o que implica que

$$\mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|Y=n)\right)=\frac{1}{2}\mathbb{E}(n)=\frac{1}{2}60=30.$$

 

Exemplo 2.6.14
Sejam X e Y independentes tais que $ X\sim b(m,p) $ e $ Y \sim b(n,p) $. Obtenha a distribuição condicional de X dada $ X+Y $. Como se chama essa distribuição?

Sabemos que se $ X\sim b(m,p) $ e $ Y\sim b(n,p) $ são independentes o que implica que $ X+Y\sim b(m+n,p) $. Assim,

$$\mathbb{P}(X=k|X+Y=z)=\frac{\mathbb{P}(X=k,X+Y=z)}{\mathbb{P}(X+Y=z)}=\frac{\mathbb{P}(X=k)\mathbb{P}(Y=z-k)}{\mathbb{P}(X+Y=z)}$$

$$=\frac{\binom{m}{k}p^k(1-p)^{m-k}\binom{n}{z-k}p^{k-z}(1-p)^{n-(k-z)}}{\binom{m+n}{z}p^z(1-p)^{m+n-z}}=\frac{\binom{m}{k}\binom{n}{k-z}}{\binom{m+n}{z}}$$

que é uma distribuição hipergeométrica com $ N=m+n $ e $ D=m $.


 

Exemplo 2.6.15
Duas fontes radioativas, I e II, emitem partículas (independentemente) segundo processos de Poisson com, respectivamente, parâmetro $ \lambda $ e $ \xi $. Seja $ Z_t $ o número total de partículas emitidas até o instante t, para $ t\geq 0 $. Dado que $ Z_t=k $, onde $ k\textgreater 0 $, qual a probabilidade condicional da última partícula emitida antes do instante t ter sido da fonte I? (A resposta é igual à do exemplo 2.6.10 (b). Um possível método de verificação: use o exemplo 1.4.13(e), com $ A_n $ o evento "n partículas emitidas até o instante t pela fonta I".)
Temos que $ X_t\sim Poisson(\lambda) $ e $ X_{2t}\sim Poisson(\xi) $ independentes o que implica que $ Z_t=X_t+X_{2t}\sim  Poisson(\lambda+\xi) $. Assim dado que chegam k partículas $ X_{\lambda+\xi}=k $, os tempos de chegadas $ T_1,T_2,\dots,T_k $ são variáveis aleatórias uniforme em $ [0,\lambda+\xi] $ então, a probabilidade da última ter sido da fonte I é

$$\mathbb{P}(\text{última é da fonte I})=\frac{\lambda}{\lambda+\xi}$$


 

 

Exemplo 2.6.16
Considere um processo de Poisson com parâmetro $ \lambda\textgreater 0 $.

(a) Para $ t\textgreater 0 $ fixo, seja $ Z_t $ o tempo transcorrido até o instante t desde a ocorrência ("chegada") imediatamente anterior. ($ Z_t=t $ se não houve nenhuma chegada em $ (0,t] $.) Calcule a distribuição de $ Z_t $.(Note que distribuição é aproximadamente exponencial quando t é grande.)

Então, $ (X_t)_{t\geq 0} $ é um processo de Poisson $ Z_t= $ tempo transcorrendo até o instante t desde a ocorrência imediata anterior. Para $ z\textless 0 $ e $ \mathbb{P}(Z_t\leq z)=0 $ (pois Z é v.a. não-negativa), $ \mathbb{P}(Z_t=0)=\mathbb{P}(\text{chega 1 partícula em t=0})=0 $. Agora, para $ 0\textless z\textless t $:

$$\mathbb{P}(Z_t\textgreater z)=\mathbb{P}(\text{não ocorrer nenhuma chegada em} [t-z,t])=e^{-\lambda z}$$

então $ \mathbb{P}(Z_t\leq z)=1-e^{-\lambda z} $. Agora para $ z\geq t $

$$\mathbb{P}(Z_t=t)=\mathbb{P}(\text{não ocorrer nenhuma chegada em }[0,t])=e^{-\lambda t}$$

e também $ \mathbb{P}(Z_t\leq t)=1 $ o que implica que $ \mathbb{P}(Z_t\leq z)=1 $ para $ z\geq t $. Então a distribuição de $ Z_t $ será

$$\mathbb{P}(Z_t\leq z)=\left\{\begin{array}{l}0,\quad z\leq 0\\ 1-e^{-\lambda z},\quad 0\textless z\textless t\\ 1,z \geq t.\end{array}\right.$$

Obs: Quando $ t\rightarrow \infty $, esta distribuição converge fracamente para o distribuição $ Exp(\lambda) $.

(b) Se $ T_{n+1} $ é o tempo transcorrido entre a $ n- $ésima chegada e a chegada número $ n+1 $, qual a distribuição de $ T_{n+1} $? Determine a distribuição de $ W_t= $ tempo que transcorre entre o instante t e a próxima chegada.

Sabemos que os tempos de espera são variáveis aleatórias independentes e identicamente distribuídas com distribuição $ Exp(\lambda) $, então
$ T_{n+1}\sim Exp(\lambda) $, assim:

$$\mathbb{P}(T_{n+1}\leq z)=\left\{\begin{array}{l}0,\quad z\leq 0\\ 1-e^{-\lambda z},\quad z\textgreater 0.\end{array}\right.$$

Agora, seja $ W_t= $ tempos transcorridos entre o instante t e as próximas chegadas. $ W_t $ é uma variável aleatória não-decrescentes e

$$\mathbb{P}(W_t=0)=\mathbb{P}(\text{ocorreu uma chegada em }t)=0$$

Agora $ w\textgreater 0 $, temos

$$\mathbb{P}(W_t\textgreater w)=\mathbb{P}(\text{não ocorreu nenhuma chegada em }[t,t+w])=e^{-\lambda w}$$

o que implica que

$$\mathbb{P}(W_t\leq w)=1-e^{-\lambda w}$$

então $ W_t $ tem distribuição

$$\mathbb{P}(W_t\leq w)=\left\{\begin{array}{l}0,w\leq 0\\ 1-e^{-\lambda w},w\textgreater 0\end{array}\right.$$

(c) Mostre que $ Z_t+W_t $, o tempo entre as chegadas que "cercam" o instante t, é estocasticamente estritamente maior que $ T_{n+1} $, i.e,

$$\mathbb{P}(Z_t+W_t\leq x)\textless \mathbb{P}(T_{n+1}\leq x)$$

$ \forall x\textgreater 0. $(Esse é o "paradoxo do tempo de espera".)
Temos $ Z_t $ e $ W_t $ são independentes então para $ \rho\leq t $, temos

$$\mathbb{P}(Z_t+W_t\leq \rho)=\int_0^\rho \int_0^{\rho-z}\lambda^2e^{-\lambda z}e^{-\lambda w}dwdz$$

$$=\int_0^\rho \lambda e^{-\lambda z}\left[-e^{-\lambda z}\right]_0^{\rho-z}dz=\int_0^\rho \lambda e^{-\lambda z}(1-e^{-\lambda(\rho -z)})dz$$

$$=\int_0^\rho \lambda e^{-\lambda z}dz-\int_0^\rho \lambda e^{-\lambda \rho}dz=1-e^{-\lambda\rho}-\lambda \rho e^{-\lambda \rho}\textless 1-e^{-\lambda \rho}.$$

Agora para $ \rho\geq t $, temos

$$\mathbb{P}(Z_t+W_t\leq \rho)=\int_0^t\int_0^{\rho-z}\lambda^2 e^{-\lambda z}e^{-\lambda w}dwdz=\int_0^t \lambda e^{-\lambda z}dz-\int_0^t \lambda e^{-\lambda \rho}dz=1-e^{-\lambda t}-\lambda te^{-\lambda \rho}$$

Assim $ \rho\geq t $:

$$\mathbb{P}(Z_t+W_t\leq \rho)=1-e^{-\lambda t}-\lambda te^{-\lambda \rho}$$

Agora $ \rho\geq t $ o que implica que

$$e^{-\lambda t}\geq e^{-\lambda \rho}$$

então como $ \lambda t e^{-\lambda t}\textgreater 0 $, temos que

$$\mathbb{P}(Z_t+W_t\leq \rho)\textless 1-e^{-\lambda \rho}$$

Resumindo tudo, temos que

$$Z_t+W_t$$

é estocasticamente maior que $ T_{n+1} $.

 

Exemplo 2.6.17
Seja $ X_1,X_2,\dots $ uma sequência de variáveis aleatórias independentes e identicamente distribuídas tendo distribuição exponencial com média $ \frac{1}{\lambda} $, no qual $ \lambda \textgreater 0 $. Para $ t\textgreater 0 $ fixo, seja  S_n\leq t\} $, no qual $ S_0=0 $ ou igual a t. Mostre que N tem distribuição Poisson com média $ \lambda t. $

Temos que $ X_i $ é exponencial com média $ \frac{1}{\lambda} $ então $ X_i\sim Exp(\lambda) $, agora no processo de Poisson com parâmetros $ \lambda $$ (X_t)_{t\geq 0} $, $ X_i=T_{(i)} $ o tempo decorrido entre a $ (i-1) $-éssima e a i-ésima chegada. $ T_{(1)},T_{(2)},\dots $ são v.a. independentes e identicamente distribuídas $ Exp(\lambda) $
Então

S_n\leq t\}]=[T_{(m)}\leq t\textless T_{(m+1)}]=[X_t=m]$$

então

$$\mathbb{P}(N=m)=\mathbb{P}(X_t=m)=\frac{(\lambda t)^m}{m!}e^{\lambda t}\sim Poisson(\lambda t)$$

o que implica que $ \mathbb{E}(N)=\lambda t $.


 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]