2.5 - Variáveis aleatórias independentes

Você está aqui

Neste tópico, vamos introduzir o conceito de variáveis aleatórias independentes e derivar critérios para avaliar a independência entre variáveis aleatórias. Seja $ X=(X_1,X_2, \ldots , X_n) $ um vetor aleatório.

Definição informal:

As variáveis aleatórias $ X_1, X_2, \ldots ,X_n $ são independentes se, e somente se, qualquer grupo de eventos definidos pelas variáveis "individuais" são independentes.

Definição 2.5.1:

As variáveis aleatórias $ (X_1,\ldots ,X_n) $ são independentes se, e somente se, para quaisquer conjuntos de números reais $ B_1,B_2,\ldots ,B_n $  com $ B_i \in X_i, \ \forall \ i=1, \ldots ,n $ temos que


\[\mathbb{P}(X_1 \in B_1,\ldots , X_n \in B_n)=\mathbb{P}(X_1 \in B_1)\ldots \mathbb{P}(X_n \in B_n).\]

 

Critério para independência

a) Se $ X_1,X_2, \ldots , X_n $ são variáveis aleatórias independentes,então


\[F_{X_1,X_2, \ldots , X_n}(x_1,x_2, \ldots ,x_n)=\prod^n_{i=1}F_{X_i}(x_i), \ \forall (x_1, \ldots x_n) \in \mathbb{R}^n\]

 

b) Reciprocamente, se existem funções $ F_1,F_2, \dots ,F_n $ tais que


\[\lim_{x_i\rightarrow \infty}F_i(x_i)=1, \ \forall \ i=1, \ldots ,n \ \text{e} \ F_{X_1, \dots ,X_n}(x_1,...,x_n)=\prod^n_{i=1}F_{i}(x_i), \ \forall \ (x_1, \ldots ,x_n) \in \mathbb{R}^n\]

 

então as variáveis aleatórias $ (X_1,\dots ,X_n) $ são independentes e $ F_{X_i} = F_i $ para todo $ i=1, \ldots , n $.

Demonstração:

O item (a) é consequência direta da definição, basta tomarmos $ B_i=(-\infty , x_i] $. Na sequência, vamos mostrar a parte (b). Inicialmente vamos mostrar que $ F_i=F_{X_i} $. Para isto,


\[F_{X_i}(x_i)=\lim_{x_1\rightarrow\infty} \dots \lim_{x_{i-1} \rightarrow \infty}\lim_{x_{i+1}\rightarrow \infty} \dots \lim_{x_n\rightarrow \infty}F_{X_1, \dots , X_n}(x_1, \cdots , x_n)\]

 

de onde segue que


\[F_{X_i}(x_i)=\lim_{x_1\rightarrow \infty}F_1(x_1) \dots \lim_{x_{i-1} \rightarrow \infty}F_{i-1}(x_{i-1}) F_i(x_i) \lim_{x_{i+1} \rightarrow \infty}F_{i+1}(x_{i+1}) \ldots \lim_{x_n \rightarrow \infty}F_n(x_n)=F_i(x_i).\]

 

Portanto, concluímos que $ F_{X_i}(x_i)=F_i(x_i) $

Agora, para mostrar que as variáveis aleatórias são independentes, precisamos mostrar que a Definição 2.5.1 é válida para quaisquer borelianos $ B_i $ com $ i=1,\ldots,n $. Sabemos que para $ B_i=(-\infty ,x_i] $,


\[\mathbb{P}\left(X_1 \in B_1, \ldots , X_n \in B_n\right) = F_{X_1, \ldots ,X_n}(x_1, \ldots , x_n)=F_{X_1}(x_1)\ldots F_{X_n}(x_n)=\prod^n_{i=1}\mathbb{P}\left(X_i \in B_i\right).\]

 

Por facilidade de notação, vamos considerar o caso em que $ n=2 $. Se tomarmos $ B_i=(a_i,b_i] $ para todo $ i=1,2 $, obtemos que

$ \mathbb{P}\left(X_1 \in B_1, X_2 \in B_2\right)=\mathbb{P}\left(a_1 \ \textless \ X_1 \leq b_1,a_2 \ \textless \ X_2 \leq b_2\right) $


$$=F_{X_1,X_2}(b_1,b_2) - F_{X_1,X_2}(b_1,a_2) - F_{X_1,X_2}(a_1,b_2)+F_{X_1,X_2}(a_1,a_2)$$


$$=F_{X_1}(b_1)F_{X_2}(b_2)-F_{X_1}(b_1)F_{X_2}(a_2)-F_{X_1}(a_1)F_{X_2}(b_2)+F_{X_1}(a_1)F_{X_2}(a_2)$$


$$=\left(F_{X_1}(b_1)-F_{X_1}(a_1)\right)\left(F_{X_2}(b_2)-F_{X_2}(a_2)\right)$$


$$=\mathbb{P}\left(a_1 \textless X_1 \leq b_1\right) \mathbb{P}\left(a_2 \textless X_2 \leq b_2\right).$$

 

Utilizando resultados da teoria da medida (Teorema da Classe monótona) podemos mostrar que a relação de independência é válida para qualquer boreliano. Com isto, segue o resultado.

Este critério nos diz que as variáveis aleatórias $ X_1, \cdots , X_n $ são independentes se, e só se, sua função de distribuição conjunta fatora e cada fator converge para $ 1 $ quando $ x_i \rightarrow \infty $. Observe que não é preciso verificar se $ F_i $ é uma função de distribuição acumulada. Na sequência, vamos adaptar o critério acima para variáveis aleatórias continuas.

Corolário 2.5.1: 

Critério de independência no caso absolutamente contínuo.

a) Se $ X_1,X_2, \dots ,X_n $ são variáveis aleatórias independentes com f.d.p. conjunta $ f_{X_1,\dots ,X_n} $ então

$ f_{X_1,\dots ,X_n}(x_1, \cdots,x_n)=\prod^n_{i=1}f_{X_i}(x_i)~~~~~~~\forall (x_1,\dots, x_n) \in \mathbb{R}^n $

b) Reciprocamente se $ X_1,X_2,\dots ,X_n $ tem f.d.p. conjunta $ f_{X_1,\cdots,X_n}(x_1,\dots,x_n)=\prod^n_{i=1}f_{i}(x_i) $ no qual $  0 \leq f_i $

$ \int^{\infty}_{-\infty}f_i(s_i)ds_i =1 ~~~~~~\forall (x_1,\dots ,x_n) \in \mathbb{R}^n $

Então as variáveis aleatórias $ X_1,\dots ,X_n $ são independentes e $ f_{X_i}(x_i)=f_i(x_i)~~~~~~ \forall x_i \in \mathbb{R}^n $.

Demonstração:

a) Se $ X_1,\dots ,X_n $ são independentes 

$ F_{X_1,\dots ,X_n}=\prod^n_{i=1}F_{X_i}(x_i)=\prod^n_{i=1}\int^{x_i}_{-\infty}f_{X_i}(s_1)ds_1=\int^{x_1}_{-\infty}\dots \int^{x_n}_{-\infty} f_{X_1}(s_1)\dots f_{X_n}(s_n)ds_1 \dots ds_n $

Portanto, temos que


$$f_{X_1,\dots ,X_n}(x_1,\dots ,x_n)=\prod^n_{i=1}f_{X_i}(x_i)$$

 

b) Por outro lado, temos que 


$$F_{X_1,\dots ,X_n}(x_1 , \cdots , x_n)=\int^{x_1}_{-\infty}\dots \int^{x_n}_{-\infty}f_{X_1,\dots ,X_n}(x_1,\dots ,x_n) ds_1\dots ds_n =\prod_{i=1}^n\int^{x_i}_{-\infty}f_i(s_i)ds_i.$$

Com isso, concluímos que


$$F_{X_i} (x_i) = f_i(x_i) \quad \text{e} \quad F_{X_1,\cdots,X_n}(x_1,\cdotsx_n)=\prod_{i=1}^nf_{X_i}(x_i),$$

 

para todo $ (x_1,\cdots,x_n) \in \Bbb{R}^n $. Segue o resultado.

Da mesma forma, podemos derivar um critéria para independência no caso de variáveis aleatórias discretas.

Corolário 2.5.2:

As variáveis aleatórias discretas $ X_1 , \cdots , X_n $ são independentes se, e só se,


\[\mathbb{P}\left(X_1 = x_1, \cdots , X_n = x_n\right) = \prod_{i=1}^n \mathbb{P}\left(X_i = x_i\right).\]

 

Na sequência, vamos apresentar alguns exemplos.

Exemplo 2.5.1:

Considere n + m lançamentos de um dado. Fixemos um valor $ i\in\{1,2,3,4,5,6\} $ e sejam X a variável aleatória que conta o número de vezes que o valor i apareceu nos n primeiros lançamentos e Y a variável aleatória que conta o número de vezes que o valor i apareceu nos m últimos lançamentos.

Como os lançamentos são todos independentes, então para $ x \ \textless \ n $ e $ y \ \textless \ m $ temos


\[\mathbb{P}\left(X=x,Y=y\right)=\left(\begin{array}{c}n\\x\end{array}\right)\left(\frac{1}{6}\right)^x\left(\frac{5}{6}\right)^{n-x}\left(\begin{array}{c}m\\y\end{array}\right)\left(\frac{1}{6}\right)^y\left(\frac{5}{6}\right)^{m-y}\]

 

de onde segue que


\[\mathbb{P}\left(X=x,Y=y\right)=\mathbb{P}\left(X=x\right)\mathbb{P}\left(Y=y\right).\]

 

Exemplo 2.5.2:

Suponha que $ X $ e $ Y $ tenham distribuição conjunta dada pela seguinte tabela:

$ X\Y $ $ 1 $ $ 2 $ $ 3 $
$ 1 $ $ 0 $ $ 1/5 $ $ 0 $
$ 2 $ $ 1/5 $ $ 1/5 $ $ 1/5 $
$ 3 $ $ 0 $ $ 1/5 $ $ 0 $

Determine as distribuições marginais e diga se $ X $ e $ Y $ são independentes. Para encontrarmos a distribuição marginal de $ X $ basta somarmos as linhas relativas a cada valor de $ X $ e para encontrar a distribuição marginal de $ Y $, basta somarmos as colunas relativas a cada valor de $ Y $. Desta forma, obtemos que

$ X\Y $

$ 1 $ $ 2 $ $ 3 $ Marginal de $ X $
$ 1 $ $ 0 $ $ 1/5 $ $ 0 $ $ 1/5 $
$ 2 $ $ 1/5 $ $ 1/5 $ $ 1/5 $ $ 3/5 $
$ 3 $ $ 0 $ $ 1/5 $ $ 0 $ $ 1/5 $
Marginal de $ Y $ $ 1/5 $ $ 3/5 $ $ 1/5 $  

Observamos que $ X $ e $ Y $ não são independentes, pois $ \frac{1}{5}=\mathbb{P}(X=2,Y=2)\neq \mathbb{P}(X=2)\mathbb{P}(Y=2)=\frac{9}{25} $.

Exemplo 2.5.3:

Sejam $ X $ e $ Y $ variáveis aleatórias independentes com distribuição comum dada por


\[f(x)=\left\{\begin{array}{l} 1,~\mbox{se } 0\leq x \leq 1 \\ 0, ~\mbox{caso contrário} \end{array}~,\right.\]

 

Encontre a função de distribuição acumulada de $ Z=X+Y $.


\[F(z)=\mathbb{P}(X+Y\leq z)=\displaystyle \int \int_{B_z}f(x,y)dx dy,\]

 

no qual  x+y \leq z\} $. Para $ 0\leq z \leq 1 $


\[F(z)=\int_{0}^{z}\int_{0}^{z-x}1 dy dx=\frac{z^2}{2}.\]

 

Para $ 1 \ \textless \ z \leq 2 $, temos que


\[F(z)=\displaystyle \int_{0}^{z-1}\int_{0}^{1}1 dydx+\int_{z-1}^{1}\int_{0}^{z-x}1dydx=z-1 + \frac{2z-z^2}{2}=\frac{4z-z^2-2}{2}\]

 

Portanto a função de distribuição acumulada de Z é dada por


\[F(z)=\left\{\begin{array}{l} 0,~\mbox{se } z\leq 0 \\ \frac{z^2}{2},~\mbox{se } 0\textless z\leq 1, \\ \frac{4z-z^2-2}{2}, \mbox{se } 1 \textless z \leq 2, \\ 1, \mbox{caso contrário. }\end{array}~, \right.\]

Exemplo 2.5.4: 

Sejam $ X $ e $ Y $ variáveis aleatórias com distribuição dada no exemplo 2.5.3. Qual a densidade conjunta de $ Z = X-Y $?


\[F(z)=\mathbb{P}(X-Y\leq z)=\int \int_{B_z}f(x,y)dx dy,\]

 

em que  x-y \leq z\} $. Para $ -1\leq z \leq 0 $. Então


\[F(z)=\int_{0}^{1+z}\int_{x-z}^{1}1 dy dx=\frac{(z+1)^2}{2}.\]

 

Para $ 0 \ \textless \ z \leq 1 $, temos que


\[F(z)=1-\int_{z}^{1}\int_{0}^{x-z}1 dydx=1-\frac{(z-1)^2}{2}\]

 

Portanto a função de distribuição acumulada de Z é dada por


\[F(z)=\left\{\begin{array}{l} 0,~\mbox{se } z\leq -1 \\ \frac{(z+1)^2}{2},~\mbox{se } -1\textless z\leq 0, \\ \displaystyle1-\frac{(z-1)^2}{2}, \mbox{se } 0 \textless z \leq 1, \\ 1, \mbox{caso contrário. }\end{array}~, \right.\]

 

Exemplo 2.5.5:(Critério para independência no caso discreto.)

  (a) Sejam $ X $ e $ Y $ variáveis aleatórias discretas, tomando respectivamente os valores $ x_1,x_2, \dots $ e $ y_1,y_2,\dots $. Prove que $ X $ e $ Y $ são independentes se, e somente se,
 

$$\mathbb{P}(X=x_i,Y=y_j)=\mathbb{P}(X=x_i)\mathbb{P}(Y=y_j)$$

  para todo $ i,j $.

  Temos pela definição de independência que:
  $ X $ independente de $ Y $ se, e somente se, para todo par de Borelianos $ B_1 $ e $ B_2 $:
 

$$\mathbb{P}(X\in B_1, Y\in B_2)=\mathbb{P}(X\in B_1)\mathbb{P}(X\in B_2)$$

  Então, ($ \Rightarrow $) para cada $ (i,j) $ basta tomar $ B_1=\{x_i\} $ e $ B_2=\{y_j\} $ então a independência implica que
 

$$\mathbb{P}(X=x_i, Y=y_j)=\mathbb{P}(X=x_i)\mathbb{P}(Y=y_j)$$

  Para a volta, sejam $ B_1 $ e $ B_2 $ borelianos quaisquer
 

$$\left\{\begin{array}{c} B_1 \text{ e } A_1=B_1\cap \{x_1,x_2,\dots\}=\{x_{i_1},x_{i_2},x_{i_3}, \dots\} \\ \\ B_2 \text{ e } A_2=B_2\cap \{y_1,y_2,\dots\}=\{y_{j_1},y_{j_2},y_{j_3}, \dots\}  \end{array}\right.$$

 

$$\mathbb{P}(X\in B_1, Y\in B_2)=\mathbb{P}(X\in A_1, Y\in A_2)=\sum_k \sum_m \mathbb{P}(X=x_{i_k}, Y=y_{j_m})$$

 

$$=\sum_k\sum_m \mathbb{P}(X=x_{i_k})\mathbb{P}(Y=y_{j_m})=\left(\sum_{k}\mathbb{P}(X=x_{i_k}\right)\left(\sum_m \mathbb{P}(Y=y_{j_m})\right)$$

 

$$\mathbb{P}(X\in A_1)\mathbb{P}(X\in A_2)=\mathbb{P}(X\in B_1)\mathbb{P}(Y\in B_2)$$

  (b) Mostre que se $ X $ e $ Y $ tomam somente um número finito de valores, digamos $ x_1, \dots, x_m $ e $ y_1, \dots,y_n $, então X e Y são independentes se
 

$$\mathbb{P}(X=x_i,Y=y_j)=\mathbb{P}(X=x_i)\mathbb{P}(Y=y_j)$$

  para $ 1\leq i\leq m-1 $, (Em outras palavras, para provar a independência, basta verificar (m-1)(n-1) equações)
  Se
 

$$\mathbb{P}(X=x_i, Y=y_j)=\mathbb{P}(X=x_i)\mathbb{P}(Y=y_j)$$

  para $ i=1,2, \dots, m-1 $ e $ j=1,2,\dots,n $. Então,
 

$$\mathbb{P}(X=x_{m}, Y=y_j)=\mathbb{P}(Y=y_j)\left\{\mathbb{P}(X=x_1,Y=y_j)+\dots+\mathbb{P}(X=x_{m-1},Y=y_j)\right\}$$

 

$$=\mathbb{P}(Y=y_j)-\mathbb{P}(Y=y_j)\left(\mathbb{P}(X=x_1)+\dots+\mathbb{P}(X=x_{m-1})\right)$$

 

$$=\mathbb{P}(Y=y_j)-\mathbb{P}(X=x_1)\left[1-\mathbb{P}(X=x_m)\right]=\mathbb{P}(Y=y_j)\mathbb{P}(X=x_m), \quad \quad j=1,2,\dots,n$$

  Analogamente temos que
 

$$\mathbb{P}(X=x_i, Y=y_n)=\mathbb{P}(X=x_i)\mathbb{P}(Y=y_n)$$

  Das equações acima e usando o item (a) isso implica que $ X $ e $ Y $ são independentes.

  (c) Generalize o item (a) para o caso de n variáveis aleatórias. Compare com os critérios de independência e explique por que é suficiente verificar se a função de probabilidade conjunta é igual ao produto de n funções de probabilidade unidimensionais.

  $ X_1,X_2,\dots , X_n $ são v.a discretas, onde $ X_i $ assume os valores $ x_i^1,x_i^2, \dots  $.
  Então $ X_1, X_2, \dots, X_n $ são independentes se, e somente se,
 

$$\mathbb{P}(X_1=x_i^{i_1},X_2=x_i^{i_2},\dots, X_n=x_i^{i_n})=\mathbb{P}(X_1=x_i^{i_1})\mathbb{P}(X_2=x_i^{i_2})\dots\mathbb{P}( X_n=x_i^{i_n})\quad \quad \forall i_1, i_2, \dots, i_n$$

  Agora, isto é o suficiente, pois para todo Boreliano $ B $, temos que
 

$$\mathbb{P}(X_i\in B)=\mathbb{P}(A)$$

  no qual $ A\subset \{x_1^1,x_2^2,\dots \} $, é generalizado o raciocínio do item (a).
 

$$\mathbb{P}(X_1\in B_1, \dots, X_n\in B_n)=\mathbb{P}(X_1\in B_1)\dots \mathbb{P}(X_n\in B_n).$$

 

Exemplo 2.5.6:

Demonstre ou exiba um contra-exemplo: se X,Y e Z são independentes 2 a 2, então elas são independentes.
Contra-Exemplo: W v.a no qual

$$\mathbb{P}(W=1)=\mathbb{P}(W=2)=\mathbb{P}(W=3)=\mathbb{P}(W=4)=\frac{1}{4}$$

X v.a. discreta

$$W\mathds{1}_{\{1,2\}}=\left\{\begin{array}{c} \mathbb{P}(X=1)=\frac{1}{2}\\ \\\mathbb{P}(X=0)=\frac{1}{2}\end{array}\right.$$

Y v.a. discreta

$$W\mathds{1}_{\{2,3\}}=\left\{\begin{array}{c} \mathbb{P}(Y=1)=\frac{1}{2}\\ \\\mathbb{P}(Y=0)=\frac{1}{2}\end{array}\right.$$

Z v.a. discreta

$$W\mathds{1}_{\{2,4\}}=\left\{\begin{array}{c} \mathbb{P}(Z=1)=\frac{1}{2}\\ \\\mathbb{P}(Z=0)=\frac{1}{2}\end{array}\right.$$

Então,

$$\mathbb{P}(X=1,Y=1)=\mathbb{P}(W=2)=\frac{1}{4}=\frac{1}{2}\frac{1}{2}=\mathbb{P}(X=1)\mathbb{P}(Y=1)$$

o que implica que $ X $ e $ Y $ são independentes

$$\mathbb{P}(Y=1,Z=1)=\mathbb{P}(W=2)=\frac{1}{4}=\frac{1}{2}\frac{1}{2}=\mathbb{P}(Y=1)\mathbb{P}(Z=1)$$

o que implica que $ Y $ e $ Z $ são independentes

$$\mathbb{P}(X=1,Z=1)=\mathbb{P}(W=2)=\frac{1}{4}=\frac{1}{2}\frac{1}{2}=\mathbb{P}(X=1)\mathbb{P}(Z=1)$$

o que implica que $ X $ e $ Z $ são independentes. Agora $ X,Y, Z $ não são independentes pois,

$$\mathbb{P}(X=1, Y=1, Z=1)=\mathbb{P}(W=2)=\frac{1}{4}\neq \mathbb{P}(X=1)\mathbb{P}(Y=1)\mathbb{P}(Z=1)$$

pois

$$\mathbb{P}(X=1)\mathbb{P}(Y=1)\mathbb{P}(Z=1)=\frac{1}{2}\frac{1}{2}\frac{1}{2}=\frac{1}{8}$$

 

Exemplo 2.5.7:

Ache a densidade conjunta e as distribuições marginais das variáveis aleatórias X e Y cuja funções de distribuição conjunta está no exemplo 2.4.6,  X e Y são independentes ?

Temos

$$F(x,y)=\left\{\begin{array}{l} (1-e^{-x})(1-e^{-y}), x\geq 0, y\geq 0 \\  \\  0, \text{ caso contrário } \end{array}\right.$$

então,

$$f(x,y)=f_{X,Y}(x,y)=\left\{\begin{array}{l} \frac{d^2(1-e^{-x})(1-e^{-y})}{dxdy}, x\geq 0, y\geq 0 \\  \\ 0, \text{ caso contrário } \end{array}\right.$$

Portanto,

$$f_X(x)=\int_{-\infty}^\infty f(x,y)dy=e^{-x}\int_0^\infty e^{-y}dy=e^{-x}$$

$$f_Y(y)=\int_{-\infty}^\infty f(x,y)dy=e^{-y}\int_0^\infty e^{-x}dx=e^{-y}$$

então $ X\sim Exp(1) $ e $ Y\sim Exp(1) $. Agora, como

$$f_{X,Y}(x,y)=f_X(x)f_Y(y)$$

e

$$\int_{-\infty}^\infty f_X(x)dx=1$$

e

$$\int_{-\infty}^\infty f_Y(y)dy=1$$

então, X e Y são independentes.

 

Exemplo 2.5.8:

Determine as distribuições marginais das variáveis aleatórias discretas X e Y definidas no exemplo 2.4.7. X e Y são independentes?

Temos da resolução do exemplo 2.4.7

$$\mathbb{P}(X=1)=\mathbb{P}(X=2)=\mathbb{P}(X=3)=\frac{1}{3}$$

$$\mathbb{P}(Y=1)=\mathbb{P}(Y=2)=\mathbb{P}(Y=3)=\frac{1}{3}$$

Agora, então

$$\mathbb{P}(X=1,Y=1)=0\neq \mathbb{P}(X=1)\mathbb{P}(Y=1)$$

pois,

$$\mathbb{P}(X=1)\mathbb{P}(Y=1)=\frac{1}{3}\frac{1}{3}=\frac{1}{9}$$

o que implica que pelo exemplo 2.5.5  $ X $ e $ Y $ não são independentes.

 

Exemplo 2.5.9:

Demonstre a que :

Se $ f(x,y) $ é densidade conjunta de $ X $ e $ Y $ então $ X $ tem densidade dada por:

$$f_X(x)=\int_{-\infty}^\infty f(x,y)dy$$

Vejamos se $ f_X $ assim obtida verifica a definição de densidade de X

$$\int_{-\infty}^x\int_{-\infty}^\infty f(x,y)dydx=\int_{-\infty}^\infty \int_{-\infty}^x f(x,y) dx dy$$

$$= \mathbb{P}(X\leq x, -\infty \textless Y \textless \infty)=\mathbb{P}(X\leq x)=F_X(x)$$

então o resultado vale.

 

Exemplo 2.5.10:

Sejam X, Y e Z independente, cada uma tendo distribuição uniforme em $ [0,1] $. Qual a probabilidade da equação quadrática

$$Xt^2+Yt+Z=0$$

ter raízes reais ?
Temos

$$f_{X,Y,Z}(x,y,z)=f(x,y,z)=\left\{\begin{array}{c} 1,(x,y,z)\in [0,1]^{3} \\ \\ 0, c.c. \end{array}\right.$$

Definimos $ A=\{Xt^2+Yt+Z=0, \text{ tem raizes reais }\}=\{Y^2-4XZ\geq 0\} $. Então,

$$\mathbb{P}(A)=\mathbb{P}([Y^2-4XZ\geq 0])=\int_{y^2-4xz\textgreater 0} f_{X,Y,Z}(x,y,z)dxdy dz=\displaystyle \int_0^1\left[\frac{y^2}{4}+\int_{y^2/4}^1\int_{0}^{y^2/4x}1dzdx\right]dy=\int_0^1\left[\frac{y^2}{4}+\frac{y^2}{4}\int_{y^2/4}^1 \frac{1}{x}\right]dy$$

$$=\int_0^1\left[\frac{y^2}{4}-\frac{y^2}{4}\ln\left(\frac{y^2}{4}\right)\right]dy=\int_0^1 \frac{y^2}{4}\left(1+ln(4)\right)dy-\frac{1}{2}\int_0^1 y^2 \ln(y)dy$$

$$\left[\frac{y^3}{12}(1+\ln(4))\right]_0^1-\frac{1}{2}\int_0^1 y^2 \ln(y)dy=\frac{1}{12}(1+\ln(4))-\frac{1}{2}\int_0^1 y^2 \ln(y)dy$$

Agora, para resolver

$$\frac{1}{2}\int_0^1 y^2 \ln(y)dy$$

vamos fazer uma mudança de variável, $ y=e^{-v} $ e $ dy=e^{-v}dv $, então temos

$$-\frac{1}{2}\int_0^1 e^{-2v} ve^{-v}dv=\frac{1}{2}\int_0^\infty v e^{-3v}$$

temos que $ u=v $ e $ e^{-3v}dv=dw $ o que implica que $ w=\frac{-e^{-3v}}{3} $, desta forma

$$\frac{1}{2}\int_0^\infty v e^{-3v}=\frac{1}{2}\left[-v\frac{e^{-3v}}{3}\bigg|_0^\infty+\int_0^\infty \frac{e^{-3v}}{3}dv\right]=\frac{1}{18}$$

Desta forma, $ \mathbb{P}(A)=\frac{\ln(4)}{12}+\frac{1}{12}+\frac{1}{18}= 0,2544 $

 

 

Exemplo 2.5.11:

Sejam X e Y variáveis aleatórias independentes, com $ X\sim U[0,a] $ e $ Y\sim U[a,a+b] $, no qual $ a\textgreater 0 $, $ b\textgreater 0 $. Qual a probabilidade de que os três segmentos $ [0,X] $, $ [X,Y] $, $ [Y,a+b] $ possam formar um triângulo?

Defina as seguintes variáveis aleatórias

$$S_1=X=\{\text{Comprimento do Seguimento } [0,X]\}$$

$$S_2=Y-X=\{\text{Comprimento do Seguimento } [X,Y]\}$$

$$S_3=(a+b)-Y=\{\text{Comprimento do Seguimento } [Y,a+b]\}$$

As condições geométrica para que $ S_1,S_2 $ e $ S_3 $ possam formar um triangulo são:

 S_1\leq S_2+S_3 \Rightarrow X\leq Y-X+(a+b)-Y\Rightarrow X\leq \frac{(a+b)}{2}$$

 S_2\leq S_1+S_3 \Rightarrow Y-X\leq X+(a+b)-Y\Rightarrow X\geq Y- \frac{(a+b)}{2}$$

 S_3\leq S_1+S_2 \Rightarrow (a+b)-Y\leq X+Y-X\Rightarrow T\geq \frac{(a+b)}{2}$$

Seja $ E $=evento é possível somar em triângulos com $ [0,X] $, $ [X,Y] $ e $ [Y,a+b] $. Então

$$E=\left[X\leq \frac{a+b}{2}\right]\cap \left[X\geq Y-\frac{a+b}{2}\right]\cap\left[Y\geq \frac{a+b}{2}\right]$$

$ A=\{(x,y); \text{Valem (I), (II), (III)}\} $ e Assim

$$\mathbb{P}(E)=\int_A\int f_{X,Y}(x,y)dxdy=\int_{A\cap([0,a]\times[a,a+b])}\int \frac{1}{ba}dxdy=\frac{1}{ba}\times Area(A\cap([0,a]\times [a,a+b])).$$

Agora, tomando $ a\geq b $, então

$$Area(A\cap([0,a]\times [a,a+b]))=\frac{b}{2}\left(\frac{a+b}{2}-\frac{a-b}{2}\right)=\frac{b^2}{2}$$

Desta forma,

$$\mathbb{P}(E)=\frac{b^2}{2ba}=\frac{b}{2a}$$

Agora, supomos $ a\textless b $, então
Então,

$$\mathbb{P}\left(A\cap([0,a]\times[a,a+b])\right)=\frac{a}{2}\left(\frac{(a+b)}{2}+a-\frac{(a+b)}{2}\right)=\frac{a^2}{2}$$

Assim,

$$\mathbb{P}(E)=\frac{a^2}{2ba}\Rightarrow \mathbb{P}(E)=\frac{a}{2b}.$$

Resumindo, temos que

$$\mathbb{P}(E)=\frac{\min(a,b)}{2\max(a,b)}.$$

 

 

Exemplo 2.5.12:

Demonstre: se a variável aleatória X é independente de si mesma, então X é constante com probabilidade 1(i.e., existe uma constante c tal que $ \mathbb{P}(X=c)=1 $).

Se X é independente de X então pela definição de independência para todo par de Borelianos $ B_1 $ e $ B_2 $:

$$\mathbb{P}(X\in B_1, X\in B_2)=\mathbb{P}(X\in B_1)\mathbb{P}(X\in B_2)$$

Agora vamos escolher uma classe de Borelianos que caracteriza a distribuição de X:

$$B_1=B_2=[X\leq x]$$

então para todo $ x\in \mathbb{R} $.

$$F_X(x)=\mathbb{P}([X\leq x])=\mathbb{P}([X\leq x]\cap [X\leq x])=\mathbb{P}^2([X\leq x])=(F_X(x))^2$$

o que implica que $ F_X(x)=0 $ ou $ F_X(x)=1 $ para todo $ x\in \mathbb{R} $. Assim como $ F $ é não decrescente então existe um $ c\in \mathbb{R} $ tal que

$$\mathbb{P}(X=c)=1.$$

 

 

Exemplo 2.5.13:

Suponha que as vidas úteis $ T_1 $ e $ T_2 $ de máquinas I e II sejam variáveis aleatórias  independentes tendo distribuições exponenciais com, respectivamente, parâmetro $ \lambda_1 $ e $ \lambda_2 $. Um inspetor escolhe uma das máquinas ao acaso, cada uma tendo a mesma probabilidade de ser a escolhida, e depois observa a máquina escolhida durante a vida útil dela. (Suponha que a escolha seja independente das vidas.)

(a) Determine a densidade de T, onde T é a vida observada

Defina $ E $ v.a. que designa a maquina escolhida $ E=0 $ maquina I e $ E=1 $ a maquina II. Então,

$$\mathbb{P}(E=0)=\mathbb{P}(E=1)=\frac{1}{2}\Rightarrow \mathbb{P}\left([E=0]\cup [E=1]\right)=1$$

Agora

$$\mathbb{P}(T\leq t)=\mathbb{P}\left([T\leq t]\cap ([E=1]\cup [E=0])\right)$$

$$=\mathbb{P}\left(([T\leq t]\cap [E=1])\bigcup ([T\leq t]\cap [E=0])\right)=\mathbb{P}\left(([T\leq t]\cap [E=1])\right)+ \mathbb{P}\left(([T\leq t]\cap [E=0])\right)$$

$$=\mathbb{P}\left(T\leq t| E=1\right)\mathbb{P}\left(E=1\right)+\mathbb{P}(T\leq t| E=0)\mathbb{P}(E=0)$$

Agora, temos

$$\mathbb{P}(T\leq t| E=1)=\mathbb{T_2\leq t}=1-e^{-\lambda_2 t}$$

$$\mathbb{P}(T\leq t| E=0)=\mathbb{T_1\leq t}=1-e^{-\lambda_1 t}$$

E portanto:

$$\mathbb{P}(T\leq t)=\frac{1}{2}\left(1-e^{-\lambda_2 t}\right)+\frac{1}{2}\left(1-e^{-\lambda_1 t}\right)=1-\frac{1}{2}\left(e^{-\lambda_1 t}+e^{-\lambda_2 t}\right), \quad \quad t\textgreater 0$$

e então

$$f_T(t)=\left\{\begin{array}{l}\frac{1}{2}\left(\lambda_1e^{-\lambda_1t}+\lambda_2e^{-\lambda_2 t}\right), t\textgreater 0\\  \\ 0 , \text{Caso Contrário}\end{array}\right.$$

(b) Suponha que o inspetor parou de observar a máquina  escolhida depois de cem horas, com a máquina ainda funcionando. Qual a probabilidade condicional da máquina escolhida ter sido a máquina I?

$$\mathbb{P}\left(E=0|T\textgreater 100\right)=\frac{\mathbb{P}\left(E=0 \cap [T\textgreater 100]\right)}{\mathbb{P}\left(T\textgreater 100\right)} =\frac{\mathbb{P}\left(T\textgreater 100| E=0\right)\mathbb{P}\left(E=0\right)}{\mathbb{P}\left(T\textgreater 100\right)}  $$

$$=\frac{\mathbb{P}\left(T_1\textgreater 100\right)\mathbb{P}\left(E=0\right)}{\mathbb{P}\left(T\textgreater 100\right)}=\frac{e^{-\lambda_1 100}\frac{1}{2}}{\frac{1}{2}(e^{-\lambda_1 100}+e^{-\lambda_2 100})}=\frac{e^{\lambda_1 100}}{e^{-\lambda_1 100}+e^{\lambda_2 100}}$$

(c) Qual a distribuição de $ T $ se $ \lambda_1=\lambda_2=\lambda $?
De (a), temos que

$$f_T(t)=\left\{\begin{array}{l} \lambda e^{-\lambda t}, t\textgreater 0 \\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

 

 

Exemplo 2.5.14:

Suponhamos que os tempos que dois estudantes demoram para resolverem um problema sejam independentes e exponenciais com parâmetro $ \lambda \textgreater 0 $. Calcule a probabilidade do primeiro estudante demorar pelo menos duas vezes o tempo do segundo para resolver o problema ?

 

$$T_1=\{\text{ Tempo que o primeiro estudante demora}\}$$

 

$$T_2=\{\text{ Tempo que o segundo estudante demora}\}$$

  com $ T_1 \sim exp(\lambda) $ e $ T_2 \sim exp(\lambda) $, com $ T_1 $ e $ T_2 $ são independentes. Então,
 

$$f_{T_1,T_2}=\left\{\lambda^2 e^{-\lambda(t_1+t_2)}, \quad t_1\textgreater 0, t_2\textgreater 0\\ \\ 0, \text{Caso Contrário}\right.$$

  Assim,
 

$$\mathbb{P}(T_1\geq 2 T_2)=\int_A\int f_{T_1,T_2}(t_1,t_2)dt_1dt_2$$

  com  0 \textless t_1  \quad e \quad t_2\leq 2t_1 \} $. Então,
 

$$\mathbb{P}(T_1\geq 2T_2)=\int_0^\infty \int_0^{t_1/2} \lambda^2 e^{-\lambda t_1}e^{-\lambda t_2}dt_2dt_1=\int_0^\infty \lambda e^{-\lambda t_1}\left[-e^{-\lambda t_2}\right]_0^{t_1/2}dt_1$$

 

$$=\int_0^\infty \lambda e^{-\lambda t_1}\left(1-e^{-\lambda t_1/2}\right)dt_1=\int_0^\infty \lambda e^{-\lambda t_1}dt_1-\int_0^\infty \lambda e^{-\lambda \frac{3t_1}{2}}dt_1$$

 

$$=1+\left[\frac{3}{2}e^{-\lambda \frac{3}{2}t_1}\right]_0^\infty=1-\frac{2}{3}=\frac{1}{3}$$

 

Exemplo 2.5.15:

Um ponto é selecionado, ao acaso (i.e., conforme a distribuição uniforme) do seguinte quadrado:
  
  Sejam X e Y as coordenadas do ponto selecionado
  (a) Qual a densidade conjunta de X e Y ?
    Tendo  |x|+|y|\leq 1\} $, então como $ (X,Y)\sim U(A) $, ou seja
   

$$f_{X,Y}(x,y)=\left\{\begin{array}{c}\frac{1}{area(A)}=\frac{1}{2}, x\in A  \\  \\ 0, x\notin A. \end{array}\right.$$

  (b) Obtenha a densidade marginal de X.
   

$$f_{X}(x)=\int_{-\infty}^\infty f(x,y)dy= \left\{\begin{array}{c}\displaystyle \int_{-(1-|x|)}^{1-|x|}\frac{1}{2}dy=1-|x|, -1\leq x\leq 1  \\ \\ 0, \text{Caso Contrário.} \end{array}\right.$$

  (c) X e Y são independentes?
   Não, pois $ \exists B\subset A $, $ (x,y)\in B $ o que implica $ f(x,y)\neq f_X(x)f_Y(y) $ e com a medida de Lebesgue de $ B $ maior que zero.
   Pois, analogamente
   

$$f_Y(y)=\left\{\begin{array}{c}1-|x|, -1\leq y\leq 1  \\  \\ 0, \text{Caso Contrário.} \end{array}\right.$$

   Então, seja $ B\subset A $ tal que $ (x,y)\in B $, o que implica que $ (1-|x|)(1-|y|)\notin \frac{1}{2} $ então a medida de lebesgue de B é maior que zero o que implica que $ X $ e $ Y $ não são independentes.

Dúvidas sobre esse conteúdo? Comente:

Probabilidades

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]