2.6 - Distribuição condicional: caso discreto

Você está aqui

Como para dois eventos quaisquer $E$ e $F$, a probabilidade condicional de $E$ dado $F$ é definida, desde que $\mathbb{P}(F) \ > \ 0$, por

\[\mathbb{P}(E|F)=\frac{\mathbb{P}(E\cap F)}{\mathbb{P}(F)}\]

 

então, se $X$ e $Y$ são variáveis aleatórias discretas, é natural definir a função de probabilidade condicional de $X$ dado que $Y=y$, por

\[p_{X|Y}(x|y)=\mathbb{P}(X=x|Y=y)=\frac{\mathbb{P}(X=x,Y=y)}{\mathbb{P}(Y=y)}=\frac{p(x,y)}{p_Y(y)}\]

 

para todos os valores de y tais que $p_Y(y) \ > \ 0$. Similarmente, a função de distribuição acumulada da probabilidade condicional de $X$ dado que $Y=y$ é definida, para todo $y$ tal que $p_Y(y) > 0$, por

\[F_{X|Y}(x|y)=\mathbb{P}(X\leq x| Y\leq y)=\sum_{a\leq x}p_{X|Y}(a|y)\]

 

Se $X$ é independente de $Y$, então a função de probabilidade condicional e a função de distribuição acumulada são as mesmas do caso não condicional. Isto acontece pois, se $X$ é independente de $Y$, então

\[p_{X|Y}(x|y)=\mathbb{P}(X=x|Y=y)=\frac{\mathbb{P}(X=x,Y=y)}{\mathbb{P}(Y=y)}=\frac{\mathbb{P}(X=x)\mathbb{P}(Y=y)}{\mathbb{P}(Y=y)}=\mathbb{P}(X=x).\]

 

Exemplo 2.6.1:

Suponha que $p(x,y)$, a função de probabilidade conjunta de $X$ e $Y$ seja dada por

\[p(0,0)=0,4 \qquad p(0,1)=0,2 \qquad p(1,0)=0,1 \qquad p(1,1)=0,3.\]

 

Calcule a função de probabilidade condicional de $X$, dado que $Y=1$.

Primeiramente, observamos que

\[p_Y(1)=\sum_{x}p(x,1)=p(0,1)+p(1,1)=0,5.\]

 

Então

\[p_{X|Y}(0|1)=\frac{p(0,1)}{p_Y(1)}=\frac{2}{5}\]

 

e

\[p_{X|Y}(1|1)=\frac{p(1,1)}{p_Y(1)}=\frac{3}{5}.\]

 

Exemplo 2.6.2:

Em uma prova com $10$ perguntas de verdadeiro ou falso, qual a probabilidade de acertarmos todas as perguntas, se respondermos todas de forma aleatória? E se respondêssemos de forma aleatória, mas soubermos que existem mais respostas verdadeiras do que falsa?

Considere o evento $A=\{\text{acertar todas as questões}\}$. Como existem $2^{10}=1024$ possíveis combinações, então a probabilidade de respondermos todas as respostas corretas respondendo apenas de forma aleatória é dada por

\[\mathbb{P}(A)=1/1024.\]

 

Seja $B$ o conjunto dos pontos com mais resposta verdadeira do que falsa.

Então o número de elementos de $B$ é

\[\left(\begin{array}{l}10\\6\end{array}\right)+\left(\begin{array}{c}10\\7\end{array}\right)+\left(\begin{array}{c}10\\8\end{array}\right)+\left(\begin{array}{c}10\\9\end{array}\right)+\left(\begin{array}{c}10\\10\end{array}\right)=386\]

e portanto $\mathbb{P}(A|B)=\frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}=\frac{1}{386}$.

Exemplo 2.6.3:

Suponha que uma urna contenha $6$ dados, em que $3$ deles são honestos e os outros $3$ são viciados. Os dados viciados apresentam a seguinte probabilidade $\mathbb{P}(1)=1/2$ e $\mathbb{P}(2) = \mathbb{P}(3) = \mathbb{P}(4) = \mathbb{P}(5) = \mathbb{P}(6)=1/10$. Retira-se um dado ao acaso da urna. Qual a probabilidade dele ser viciado, sabendo que em dois lançamentos o resultado foi 1?

Considere os eventos $A=\{\text{O dado ser viciado}\}$, $B=\{\text{Sair o número 1 na primeira e na segunda jogada}\}$.

Queremos encontrar $\mathbb{P}(A|B)$, mas pelo Teorema 1.4.3 temos que

\[\mathbb{P}(A|B)= \frac{\mathbb{P}(B|A)\mathbb{P}(A)}{\mathbb{P}(B)}.\]

 

Calculemos então cada uma das probabilidades.

\[\mathbb{P}(B|A)=\mathbb{P}(\mbox{\{Sair 1 na primeira Jogada\}}|A) \mathbb{P}(\mbox{\{Sair 1 na segunda Jogada\}}|A)=\frac{1}{2}\frac{1}{2}=\frac{1}{4},\]

\[\mathbb{P}(A)=\frac{3}{6}=\frac{1}{2}\]

 

Para encontramos $\mathbb{P}(B)$, basta utilizarmos o Teorema 1.4.2.

\[\mathbb{P}(B)=\mathbb{P}(B\cap A)+\mathbb{P}(B\cap A^{C})=\mathbb{P}(B|A)\mathbb{P}(A)+\mathbb{P}(B|A^{C})=\frac{1}{4}\frac{1}{2}+\frac{1}{36}\frac{1}{2}=\frac{10}{72}.\]

Portanto

\[\mathbb{P}(A|B)=\frac{1/8}{10/72}=\frac{9}{10}.\]

 

Assim a probabilidade de que o dado seja viciado dado que saiu duas vezes o número 1 é de 90%.

Exemplo 2.6.4:

Suponha as mesmas condições do exemplo acima (Exemplo 2.6.3). Sabendo que em $3$ lançamentos em nenhum deles o resultado foi $1$, qual a probabilidade de que o dado seja viciado?

Considere os eventos $A=\{\text{O dado é viciado}\}$ e $B_i=\{\text{Sair um número diferente de 1 na i-ésima jogada}\}$ e seja $C= B_1 \cap B_2 \cap B_3$. Queremos encontrar a probabilidade de $\mathbb{P}(A|C)$.

Usando o Teorema 1.4.3, temos que

\[\mathbb{P}(A| C)=\frac{\mathbb{P}(C|A)\mathbb{P}(A)}{\mathbb{P}(C)}.\]

 

Calculemos então cada uma das probabilidades.

\[\mathbb{P}(C|A)=\mathbb{P}(B_1|A)\mathbb{P}(B_2|A)\mathbb{P}(B_3|A)=\frac{1}{2}\frac{1}{2}\frac{1}{2}=\frac{1}{8},\]

\[\mathbb{P}(A)=\frac{3}{6}=\frac{1}{2}.\]

 

Para encontramos $\mathbb{P}(C)$, basta utilizarmos o Teorema 1.4.2.

\[\mathbb{P}(C)=\mathbb{P}(C\cap A)+\mathbb{P}(C\cap A^{C})=\mathbb{P}(C|A)\mathbb{P}(A)+\mathbb{P}(C|A^{C})=\frac{1}{8}\frac{1}{2}+\frac{5^3}{6^3}\frac{1}{2}=\frac{152}{432}.\]

 

Portanto

\[\mathbb{P}(A|B)=\frac{1/16}{152/432}=\frac{27}{152} \thickapprox 0,1776.\]

 

Portanto dado que não saiu o número 1 nos três primeiros lançamentos, temos uma chance de aproximadamente 18% que o dado seja viciado.

 

 

Exemplo 2.6.5:
Sejam $X_1$ e $X_2$ variáveis aleatórias independentes, cada uma com distribuição geométrica definida por
$$ \mathbb{P}(X_i=n)=p(1-p)^n, n=0,1,2,\dots; \quad i=1,2;$$
no qual $0< p < 1.$.(Observação: esta versão da distribuição geométrica corresponde à distribuição do número de fracassos antes do primeiro sucesso em uma sequência de ensaios de Bernoulli.)

(a) Calcule $\mathbb{P}(X_1=X_2)$ e $\mathbb{P}(X_1< X_2)$.
$$\mathbb{P}(X_1=X_2)=\sum_{n=0}^\infty \mathbb{P}(X_1=X_2=n)=\sum_{n=0}^\infty \mathbb{P}(X_1=n)\mathbb{P}(X_2=n)$$

$$\sum_{n=0}^\infty p^2[(1-p)^2]^n=\frac{p^2}{1-(1-p)^2}=\frac{p^2}{-p^2+2p}=\frac{p}{2-p}$$

Agora $\mathbb{P}(X_1> X_2)=\mathbb{P}(X_2> X_1)$ (simetria) então

$$\mathbb{P}(X_1> X_2)+\mathbb{P}(X_2> X_1)+\mathbb{P}(X_1= X_2)=1$$
o que implica
$$\mathbb{P}(X_1> X_2)=\frac{1-\mathbb{P}(X_1=X_2)}{2}$$
o que implica que
$$\mathbb{P}(X_1> X_2)=\frac{\frac{2-p-p}{2-p}}{2}=\frac{2-2p}{4-2p}=\frac{1-p}{2-p}$$

(b) Determine a distribuição condicional de $X_1$ dada $X_1+X_2$.

$$\mathbb{P}(X_1=k|X_1+X_2=n)=\frac{\mathbb{P}(X_1=k,X_1+X_2=n)}{\mathbb{P}(X_1+X_2=n)}=\frac{\mathbb{P}(X_1=k,X_2=n+k)}{\mathbb{P}(X_1+X_2=n)}$$

$$\frac{\mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)}{\mathbb{P}(X_1+X_2=n)}$$

Agora:
$$\mathbb{P}(X_1+X_2=n)=\sum_{k=0}^n\mathbb{P}(X_1=k,X_2=n-k)=\sum_{k=0}^n \mathbb{P}(X_1=k)\mathbb{P}(X_2=n-k)$$

$$\sum_{k=0}^n p^2(1-p)^n=(n+1)p^2(1-p)^n$$

Então:

$$\mathbb{P}(X_1=k|X_1+X_2=n)=\frac{p(1-p)^kp(1-p)^{n-k}}{(n+1)p^2(1-p)^n}=\frac{1}{n+1}$$
com $k=0,1,\dots,n$. Assim, esta distribuição é uniforme nos pontos $k=0,1,\dots,n$

 

Exemplo 2.6.6:
Uma certa lâmpada tem uma vida, em horas, tendo distribuição exponencial de parâmetro 1. Um jogador acende a lâmpada e, enquanto a lâmpada ainda estiver acesa, lança um dado equilibrado de quinze em quinze segundos. Qual o número espero de 3's lançados pelo jogador até a lâmpada se apagar ?

$$T\sim Exp\left(\frac{1}{3600}s\right)$$
$[T/15]$= número de vezes que o jogador lança o dado enquanto a lâmpada estava acesa. O experimento lançamento de dado e obtenção ou não de 3 é um ensaio de bernoulli condicionado a T.

$$\mathbb{P}(X=k|T=t)=\binom{[T/15]}{k}p^k(1-p)^{[T/15]^{-k}},k=0,1,\dots,[T/15]$$
e $p=\frac{1}{6}$. Então, $\mathbb{E}(X|T)=p[T/15]$ e $\mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|T)\right)=\frac{1}{6}\mathbb{E}([T/15])$. Agora,

$$\mathbb{P}([T/15]\geq k)=\mathbb{P}(T> 15k)=e^{-\frac{15}{3600}k}=e^{-\frac{1}{240}k}.$$
Assim
$$\mathbb{E}([T/15])=\sum_{k=0}^\infty \left(e^{-\frac{1}{240}}\right)^k=\frac{1}{1-e^{-\frac{1}{240}}}$$
Assim, $\mathbb{E}(X)=\frac{1}{6}\frac{1}{1-e^{-1/240}}=40,08$

 

Exemplo 2.6.7:
Partículas chegam em um contador segundo um processo de Poisson com parâmetro $\lambda$. Em um determinado tempo $t$, produz-se uma voltagem, multiplicando o número de partículas que já entraram no contador por um fator que é independente desse número e que tem densidade:
$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{(1+x)^2}, x \geq 0 \\ \\ 0, x< 0.\end{array}\right.$$
Ache a probabilidade da voltagem produzida ser menor que 1.

$$X=Nk$$
no qual, k tem densidade
$$f(x)=\left\{\begin{array}{l}\displaystyle \frac{1}{(1+x)^2}, x \geq 0 \\ \\ 0, x< 0.\end{array}\right.$$
e $N\sim Poisson(\lambda t)$. Agora
$$\mathbb{P}(X< 1)=\mathbb{P}(0\leq X< 1)=\mathbb{P}(X=0)+\mathbb{P}(0< X< 1)$$
Agora
$$\mathbb{P}(X=0)=\mathbb{P}(N=0,k \quad\text{qualquer}\quad)+\mathbb{P}(N\quad \text{qualquer} \quad,k=0)=e^{-\lambda t}$$
Porém, se $0< X < 1$ se, e somente se,
$$\{0< k< \frac{1}{n}\}\Rightarrow \mathbb{P}\left(0< k < \frac{1}{n}\right)=\int_{0}^{1/n}\frac{1}{(1+x)^2}dx$$
fazendo uma substituição $1+x=y$ e $dx=dy$.
$$\int_{0}^{1/n}\frac{1}{(1+x)^2}dx=-\frac{1}{y}\bigg|_1^{1+\frac{1}{n}}=1-\frac{1}{1+\frac{1}{n}}=\frac{n+1-n}{n+1}=\frac{1}{n+1}, \quad n=1,2,\dots.$$
Assim,
$$\mathbb{P}(X< 1)=\mathbb{P}(X=0)+\sum_{n=1}^\infty \mathbb{P}\left(0< k< \frac{1}{n}\right)\mathbb{P}(N=n) $$
$$=e^{-\lambda t}+\sum_{n=1}^\infty \frac{(\lambda t)^n}{(n+1)!}e^{-\lambda t}=e^{-\lambda t}\left(1+\frac{1}{\lambda t }\sum_{k=2}^\infty \frac{(\lambda t)^k}{k!}\right)$$
$$=e^{-\lambda t}\left[1+\frac{1}{\lambda t}\left(e^{\lambda t}-1-\lambda t\right)\right]=\frac{1}{\lambda t}[1-e^{-\lambda t}]$$
 

Exemplo 2.6.8.
Mostre que se X é uma variável aleatória tendo distribuição simétrica em torno de zero, e se $\mathbb{P}(X=0)=0$, então a distribuição condicional de $X^2$ dado que $X> 0$ é igual à própria distribuição de $X^2$.

X tem distribuição simétrica em torno de zero se, e somente se, $\mathbb{P}(X\leq -x)=\mathbb{P}(X\geq x), \forall x \in \mathbb{R}$. Além disso $\mathbb{P}(X=0)=0$ o que implica que $\mathbb{P}(0< X \leq x)=\mathbb{P}(-x\leq X < 0)$ para todo $x> 0$. Queremos provar que
$$\mathbb{P}(X^2\leq x| X> 0)=\mathbb{P}(X^2\leq x)$$
Agora
$$\mathbb{P}(X^2\leq x | X> 0)=\frac{\mathbb{P}(X^2\leq x, X> 0)}{\mathbb{P}(X> 0)}=\frac{\mathbb{P}(0> X\leq \sqrt{x})}{\mathbb{P}(X> 0)}$$
e
$$\mathbb{P}(X^2\leq x | X< 0)=\frac{\mathbb{P}(X^2\leq x, X< 0)}{\mathbb{P}(X> 0)}=\frac{\mathbb{P}(-\sqrt{x}\leq X< 0)}{\mathbb{P}(X> 0)}$$
Temos então que
$$\mathbb{P}(X^2\leq x | X< 0)=\mathbb{P}(X^2\leq x | X> 0)$$
são iguais pela simetria em torno de zero, para todo $x> 0$. Então,
$$\mathbb{P}(X^2\leq x)=\mathbb{P}(X^2\leq x| X> 0)\mathbb{P}(X> 0)+\mathbb{P}(X^2\leq x|X=0)\mathbb{P}(X=0)\mathbb{P}(X^2\leq x | X< 0)$$
$$=\mathbb{P}(X^2\leq x |X> 0)\frac{1}{2}+\mathbb{P}(X^2\leq x| X> 0)\frac{1}{2}=\mathbb{P}(X^2\leq x|X> 0), \quad \forall x > 0$$
e para $X=0$ temos
$$\left\{\begin{array}{l}\mathbb{P}(X^2\leq 0)=\mathbb{P}(X=0)=0\\ \mathbb{P}(X^2\leq 0| X> 0)=0\end{array}\right.$$
Da equação acima e do fato que
$$\mathbb{P}(X^2\leq x|X> 0), \quad \forall x > 0$$
temos então que $X^2$ e $X^2|X> 0$ são identicamente distribuídas (A distribuição é determinada pela f distribuição de probabilidade)

 

Exemplo 2.6.9
Partículas radioativas chegam a um contador segundo um processo de Poisson com uma taxa média de três por segundo, mas o contador registra somente cada segunda partícula (i.e., são registradas somente as partículas número $2,4,6,\dots $).
(a) Seja $X_t$ o número de partículas registradas até o tempo t. É $\{X_t: t\geq 0\}$ um processo de Poisson? Se for, qual o parâmetro ? Se não for, explique o porquê.

$(Y_t)_{t\geq 0}$ é processo de Poisson, se e somente se, $\mathbb{P}(Y_t=k)=\frac{\lambda t }{k!}e^{-\lambda t}$. Agora,
$$\mathbb{P}(X_t=k)=\mathbb{P}(Y_t=2k\quad\text{ou}\quad Y_t=2k+1)=\left[\frac{(\lambda t)^{2k}}{(2k)!}+\frac{(\lambda t)^{2k+1}}{(2k+1)!}\right] e^{-\lambda t}$$
então $X_t$ não é processo de Poisson.

(b) Supondo que o contador registrou exatamente uma partícula durante o primeiro segundo, qual a probabilidade de que ele não registre mais partícula alguma antes do tempo 2?
$$\mathbb{P}(X_2=X_1| X_1=1)=\frac{\mathbb{P}(X_2=X_1=1)}{\mathbb{P}(X_1=1)}$$
$$=\frac{\mathbb{P}(Y_1=2, Y_2-Y_1=0)+\mathbb{P}(Y_1=2,Y_2-Y_1=1)+\mathbb{P}(Y_1=3,Y_2Y_1=0)}{\mathbb{P}(Y_1=2)+\mathbb{P}(Y_1=3)}$$
Agora $Y_1\sim Poisson(\lambda)$ e $Y_2-Y_1\sim Poisson(\lambda)$ são independentes. Então,
$$\mathbb{P}(X_2=X_1|X_1=1)=\frac{\mathbb{P}(Y_1=2)\left(\mathbb{P}(Y_2-Y_1=1)+\mathbb{P}(Y_2-Y_1=0)\right)\mathbb{P}(Y_1=1)\mathbb{P}(Y_2-Y_1=0)}{ \mathbb{P}(Y_1=2)+\mathbb{P}(Y_1=3)}$$
$$=\frac{\frac{\lambda^2}{2}e^{-\lambda t }(\lambda+1)e^{-\lambda t}+\frac{\lambda^3}{6}e^{-\lambda t}e^{-\lambda t}}{\frac{\lambda^2}{2}e^{-\lambda t}+\frac{\lambda^3}{6}e^{-\lambda t}}$$
$$=\frac{e^{-\lambda t}\lambda^2\left(\frac{\lambda+1}{2}+\frac{1}{6}\right)}{\lambda^2\left(\frac{1}{2}+\frac{\lambda}{6}\right)}=\frac{3\lambda +4}{\lambda+3}e^{-\lambda t}$$
 

Exemplo 2.6.10
Um contador recebe impulsos de duas fontes independentes, A e B. Fonte A gera impulsos conforme um processo de Poisson com parâmetro $\lambda > 0$, enquanto a fonte B gera impulsos segundo um processo de Poisson com parâmetro $\xi > 0$. Suponha que o contador registre todo impulso gerado pelas duas fontes.

(a) Seja $X_t$ o número de impulsos registrados pelo contador até o tempo $t, t > 0$ ($X_0=0$). Explique porque $\{X_t: t\geq 0\}$ é um processo de Poisson (basta uma explicação intuitiva). Qual o parâmetro ?

É um processo de Poisson por que:

a) Incrementos independentes
b) Incrementos estacionários
c) Não chegam 2 simultaneamente e com parâmetro $\lambda+\xi$.

(b) Qual a probabilidade de que o primeiro impulso registrado seja da fonte A?
Sabemos que $X_{\lambda}$ e $X_{\lambda+\xi}-X_{\xi}$ são independentes com $X_{\lambda}\sim Poisson(\lambda)$ e $X_{\lambda+\xi}-X_{\lambda}\sim Poisson(\xi)$. Então
$$\mathbb{P}(X_{\lambda}=1|X_{\lambda+\xi}=1)=\frac{\lambda}{\lambda+\xi}$$

(c) Dado que exatamente 100 impulsos foram contados durante a primeira unidade de tempo, qual a distribuição que você atribuiria ao número emitido pela fonte A?
$$\mathbb{P}(X_\lambda=k| X_{\lambda+\xi}=100)=\binom{100}{k}\left( \frac{\lambda}{\lambda+\xi}\right)^k\left( \frac{\xi}{\lambda+\xi}\right)^{100-k},$$
$k=0,1,\dots,100$ sendo uma $Binomal\left(100,\frac{\lambda}{\lambda+\xi}\right)$
 

 

Exemplo 2.6.11
Diz-se que $X=(X_1,\dots, X_k)$ tem distribuição multinomial com parâmetros $p_1,\dots ,p_k$ e n, no qual $p_i\geq 0$ e $\displaystyle \sum_{i=1}^k p_i=1$, se
$$\mathbb{P}(X=(j_1, \dots, j_k))=\frac{n!}{j_1!j_2!\dots j_k!}p_1^{j_1}p_2^{j_2}\dots p_k^{j_k}$$
para toda escolha de $j_1,\dots, j_k$ inteiros não-negativos tais que $\sum_{\ell=1}^k j_\ell =n$.

(a) Prove que $X_i\sim b(n,p_i), i=1,\dots,k.$
Temos que:
$$\mathbb{P}(X_i=m)=\sum_{(j_1,\dots, j_k)}\frac{n!}{j_1!\dots j_{i-1}!m!j_{i+1}!\dots j_k!}p_1^{j_1}p_2^{j_2}\dots p_1^m\dots p_k^{j_k}$$
no qual $j_{\ell}\geq 0$ e $\sum_{\ell\neq i}^k j_\ell=n-m$.
Então,
$$\frac{n!}{m!}p_i^m \sum \frac{1}{j_1!\dots j_k!}p_1^m\dots p_k^{j_k}$$
Agora dividindo e multiplicando por $(1-p_i)^{n-m}$, temos
$$\mathbb{P}(X_1=m)=\frac{n!}{m!(n-m)!}p_i^m(1-p_i)^{n-m}\sum \frac{(m-n)!}{j_1!\dots j_k!}\left(\frac{p_i}{1-p_i}\right)^{j_1} \dots \left(\frac{p_i}{1-p_i}\right)^{j_k}$$
mas o lado direito da equação representa uma multinomial, e portanto é igual a 1. Logo temos que $X_i\sim b(n,p_i),\quad i=1,2,\dots,k $

(b) Sejam $0< s_1< s_2< \dots< s_k=t.$ Mostre que no processo de Poisson, dado que $X_t=n,$ a distribuição condicional de $X_{s_1},X_{s_2}-X_{s_1}, \dots , X_t-X_{s_{k-1}}$ é multinomial com parâmetros $\frac{s_1}{t},\frac{s_2-s_1}{t}, \dots, 1- \frac{s_{k-1}}{t}$ e n. (Note que essa distribuição não depende do parâmetro $\lambda$ do processo.)

Dado que até o instante t chegaram n partículas, a distribuição dos tempos de chegada é igual a de uma amostra aleatória de n elementos de uma v.a. uniforme em $[0,t]$. Assim a distribuição em questão será:
$$\mathbb{P}(X_{s_1}=j_1,X_{{s_2}}-X_{s_1}=j_2, \dots, X_{t}-X_{s_{k-1}}=j_k|X_t=n)=\frac{n!}{j_1!\dots j_k!}p_1^{j_1}\dots p_k^{j_k}$$
para $(j_1,j_2,\dots,j_k)$ tal que $\sum_{j=1}^k j_i=n$ e $j_i$ inteiro não negativo caso contrário é zero o que implica que é uma multinomial.
 

 

Exemplo 2.6.12
Uma exposição funciona pelo período de T horas. Visitantes chegam à exposição segundo um processo de Poisson com taxa $\lambda$ visitantes/hora. Os visitantes permanecem na exposição até o fim do período. Calcule o tempo médio total gasto pelos visitantes na exposição. %Dado que chegou um só visitante durante as T horas, qual a média do tempo que ele permanece na exposição ?
Seja $Y(T)$ número de visitantes que chegam até T, o que implica que $Y(T)\sim Poisson(\lambda T)$ e então sendo $T_1,T_2,\dots, T_n$ os tempos de chegada do n-visitantes, temos que $T_i$ independentes $T_j$ e $T_i\sim U[0,T]$ $i=1,2,\dots,n$ e
$$\mathbb{E}(T_i)=\frac{T}{2}$$
para qualquer i. Então, seja $X=$ tempo médio total gasto pelos visitantes na exposição:
$$\mathbb{E}(X|Y=n)=\sum_{i=1}^n (T-T_i)=nT - \sum_{i=1}^n T_i.$$
Agora, então
$$\mathbb{E}(X|Y=n)=nT-\sum_{i=1}^n \mathbb{E}(T_i)=nT-\frac{nT}{2}=n\frac{T}{2}.$$
Então $\mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|Y=n)\right)=\frac{T}{2}\mathbb{E}(Y)=\frac{T^2}{2}\lambda$

 

Exemplo 2.6.13

 Suponha que o número de passas num bolo inglês tenha distribuição de Poisson de parâmetro 60. Um jogador compra um bolo, tira todas as passas uma por uma e reparte as passas entre ele e você da seguinte maneira: depois da extração de cada passa ele joga uma moeda equilibrada, dando a passa para você se der cara, comedo ele mesmo a passa se der coroa. Qual a distribuição do número de passas que você recebe ? A esperança?
Temos que $X=$ número de passas que você recebe e $Y=$ número de passas extraídas. Assim, $X|Y=n\sim b\left(n,\frac{1}{2}\right)$ então
$$\mathbb{P}(X=k)=\sum_{n=k}^\infty \mathbb{P}(X=k|Y=n)\mathbb{P}(Y=n)=\sum_{n=1}^\infty \frac{n!}{(n-k)!k!}\left(\frac{1}{2}\right)^{n} \frac{\lambda^n}{n!}e^{-\lambda}$$
$$=\frac{e^{-\lambda}\left(\frac{\lambda}{2}\right)^k}{k!}\sum_{n=k}^\infty \frac{\left(\frac{\lambda}{2}\right)^{n-k}}{(n-k)!}$$
$$=\frac{e^{-\lambda}\left(\frac{\lambda}{2}\right)^ke^{\lambda/2}}{k!}=\frac{\left(\frac{\lambda}{2}\right)^ke^{-\lambda}}{k!}$$
ou seja $X\sim Poisson\left(\frac{\lambda}{2}\right)$, como $\lambda/2=30$. Agora
$$\mathbb{E}(X|Y=n)=n\frac{1}{2}$$
o que implica que
$$\mathbb{E}(X)=\mathbb{E}\left(\mathbb{E}(X|Y=n)\right)=\frac{1}{2}\mathbb{E}(n)=\frac{1}{2}60=30.$$

 

Exemplo 2.6.14
Sejam X e Y independentes tais que $X\sim b(m,p)$ e $Y \sim b(n,p)$. Obtenha a distribuição condicional de X dada $X+Y$. Como se chama essa distribuição?

Sabemos que se $X\sim b(m,p)$ e $Y\sim b(n,p)$ são independentes o que implica que $X+Y\sim b(m+n,p)$. Assim,
$$\mathbb{P}(X=k|X+Y=z)=\frac{\mathbb{P}(X=k,X+Y=z)}{\mathbb{P}(X+Y=z)}=\frac{\mathbb{P}(X=k)\mathbb{P}(Y=z-k)}{\mathbb{P}(X+Y=z)}$$
$$=\frac{\binom{m}{k}p^k(1-p)^{m-k}\binom{n}{z-k}p^{k-z}(1-p)^{n-(k-z)}}{\binom{m+n}{z}p^z(1-p)^{m+n-z}}=\frac{\binom{m}{k}\binom{n}{k-z}}{\binom{m+n}{z}}$$
que é uma distribuição hipergeométrica com $N=m+n$ e $D=m$.
 

Exemplo 2.6.15
Duas fontes radioativas, I e II, emitem partículas (independentemente) segundo processos de Poisson com, respectivamente, parâmetro $\lambda$ e $\xi$. Seja $Z_t$ o número total de partículas emitidas até o instante t, para $t\geq 0$. Dado que $Z_t=k$, onde $k> 0$, qual a probabilidade condicional da última partícula emitida antes do instante t ter sido da fonte I? (A resposta é igual à do exemplo 2.6.10 (b). Um possível método de verificação: use o exemplo 1.4.13(e), com $A_n$ o evento "n partículas emitidas até o instante t pela fonta I".)
Temos que $X_t\sim Poisson(\lambda)$ e $X_{2t}\sim Poisson(\xi)$ independentes o que implica que $Z_t=X_t+X_{2t}\sim  Poisson(\lambda+\xi)$. Assim dado que chegam k partículas $X_{\lambda+\xi}=k$, os tempos de chegadas $T_1,T_2,\dots,T_k$ são variáveis aleatórias uniforme em $[0,\lambda+\xi]$ então, a probabilidade da última ter sido da fonte I é
$$\mathbb{P}(\text{última é da fonte I})=\frac{\lambda}{\lambda+\xi}$$
 

 

Exemplo 2.6.16
Considere um processo de Poisson com parâmetro $\lambda> 0$.

(a) Para $t> 0$ fixo, seja $Z_t$ o tempo transcorrido até o instante t desde a ocorrência ("chegada") imediatamente anterior. ($Z_t=t$ se não houve nenhuma chegada em $(0,t]$.) Calcule a distribuição de $Z_t$.(Note que distribuição é aproximadamente exponencial quando t é grande.)

Então, $(X_t)_{t\geq 0}$ é um processo de Poisson $Z_t=$ tempo transcorrendo até o instante t desde a ocorrência imediata anterior. Para $z< 0$ e $\mathbb{P}(Z_t\leq z)=0$ (pois Z é v.a. não-negativa), $\mathbb{P}(Z_t=0)=\mathbb{P}(\text{chega 1 partícula em t=0})=0$. Agora, para $0< z< t$:
$$\mathbb{P}(Z_t> z)=\mathbb{P}(\text{não ocorrer nenhuma chegada em} [t-z,t])=e^{-\lambda z}$$
então $\mathbb{P}(Z_t\leq z)=1-e^{-\lambda z}$. Agora para $z\geq t$
$$\mathbb{P}(Z_t=t)=\mathbb{P}(\text{não ocorrer nenhuma chegada em }[0,t])=e^{-\lambda t}$$
e também $\mathbb{P}(Z_t\leq t)=1$ o que implica que $\mathbb{P}(Z_t\leq z)=1$ para $z\geq t$. Então a distribuição de $Z_t$ será
$$\mathbb{P}(Z_t\leq z)=\left\{\begin{array}{l}0,\quad z\leq 0\\ 1-e^{-\lambda z},\quad 0< z< t\\ 1,z \geq t.\end{array}\right.$$
Obs: Quando $t\rightarrow \infty$, esta distribuição converge fracamente para o distribuição $Exp(\lambda)$.

(b) Se $T_{n+1}$ é o tempo transcorrido entre a $n-$ésima chegada e a chegada número $n+1$, qual a distribuição de $T_{n+1}$? Determine a distribuição de $W_t=$ tempo que transcorre entre o instante t e a próxima chegada.

Sabemos que os tempos de espera são variáveis aleatórias independentes e identicamente distribuídas com distribuição $Exp(\lambda)$, então
$T_{n+1}\sim Exp(\lambda)$, assim:
$$\mathbb{P}(T_{n+1}\leq z)=\left\{\begin{array}{l}0,\quad z\leq 0\\ 1-e^{-\lambda z},\quad z> 0.\end{array}\right.$$
Agora, seja $W_t=$ tempos transcorridos entre o instante t e as próximas chegadas. $W_t$ é uma variável aleatória não-decrescentes e
$$\mathbb{P}(W_t=0)=\mathbb{P}(\text{ocorreu uma chegada em }t)=0$$
Agora $w> 0$, temos
$$\mathbb{P}(W_t> w)=\mathbb{P}(\text{não ocorreu nenhuma chegada em }[t,t+w])=e^{-\lambda w}$$
o que implica que
$$\mathbb{P}(W_t\leq w)=1-e^{-\lambda w}$$
então $W_t$ tem distribuição
$$\mathbb{P}(W_t\leq w)=\left\{\begin{array}{l}0,w\leq 0\\ 1-e^{-\lambda w},w> 0\end{array}\right.$$

(c) Mostre que $Z_t+W_t$, o tempo entre as chegadas que "cercam" o instante t, é estocasticamente estritamente maior que $T_{n+1}$, i.e,
$$\mathbb{P}(Z_t+W_t\leq x)< \mathbb{P}(T_{n+1}\leq x)$$
$\forall x> 0.$(Esse é o "paradoxo do tempo de espera".)
Temos $Z_t$ e $W_t$ são independentes então para $\rho\leq t$, temos
$$\mathbb{P}(Z_t+W_t\leq \rho)=\int_0^\rho \int_0^{\rho-z}\lambda^2e^{-\lambda z}e^{-\lambda w}dwdz$$
$$=\int_0^\rho \lambda e^{-\lambda z}\left[-e^{-\lambda z}\right]_0^{\rho-z}dz=\int_0^\rho \lambda e^{-\lambda z}(1-e^{-\lambda(\rho -z)})dz$$
$$=\int_0^\rho \lambda e^{-\lambda z}dz-\int_0^\rho \lambda e^{-\lambda \rho}dz=1-e^{-\lambda\rho}-\lambda \rho e^{-\lambda \rho}< 1-e^{-\lambda \rho}.$$
Agora para $\rho\geq t$, temos
$$\mathbb{P}(Z_t+W_t\leq \rho)=\int_0^t\int_0^{\rho-z}\lambda^2 e^{-\lambda z}e^{-\lambda w}dwdz=\int_0^t \lambda e^{-\lambda z}dz-\int_0^t \lambda e^{-\lambda \rho}dz=1-e^{-\lambda t}-\lambda te^{-\lambda \rho}$$
Assim $\rho\geq t$:
$$\mathbb{P}(Z_t+W_t\leq \rho)=1-e^{-\lambda t}-\lambda te^{-\lambda \rho}$$
Agora $\rho\geq t$ o que implica que
$$e^{-\lambda t}\geq e^{-\lambda \rho}$$
então como $\lambda t e^{-\lambda t}> 0$, temos que
$$\mathbb{P}(Z_t+W_t\leq \rho)< 1-e^{-\lambda \rho}$$
Resumindo tudo, temos que
$$Z_t+W_t$$
é estocasticamente maior que $T_{n+1}$.

 

Exemplo 2.6.17
Seja $X_1,X_2,\dots$ uma sequência de variáveis aleatórias independentes e identicamente distribuídas tendo distribuição exponencial com média $\frac{1}{\lambda}$, no qual $\lambda > 0$. Para $t> 0$ fixo, seja $N=\max\{n\geq 0: S_n\leq t\}$, no qual $S_0=0$ ou igual a t. Mostre que N tem distribuição Poisson com média $\lambda t.$

Temos que $X_i$ é exponencial com média $\frac{1}{\lambda}$ então $X_i\sim Exp(\lambda)$, agora no processo de Poisson com parâmetros $\lambda$ $(X_t)_{t\geq 0}$, $X_i=T_{(i)}$ o tempo decorrido entre a $(i-1)$-éssima e a i-ésima chegada. $T_{(1)},T_{(2)},\dots$ são v.a. independentes e identicamente distribuídas $Exp(\lambda)$
Então
$$[N=m]=[\max\{n\geq 0:S_n\leq t\}]=[T_{(m)}\leq t< T_{(m+1)}]=[X_t=m]$$
então
$$\mathbb{P}(N=m)=\mathbb{P}(X_t=m)=\frac{(\lambda t)^m}{m!}e^{\lambda t}\sim Poisson(\lambda t)$$
o que implica que $\mathbb{E}(N)=\lambda t$.
 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]