2.8 - Distribuição de probabilidade conjunta de funções de variáveis aleatórias

Você está aqui

Sejam $ X_1 $ e $ X_2 $ variáveis aleatórias conjuntamente contínuas com densidade de probabilidade conjunta $ f_{X_1,X_2} $. Algumas vezes estamos interessados em obter a distribuição conjunta das variáveis aleatórias $ Y_1 $ e $ Y_2 $ que são funções de $ X_1 $ e $ X_2 $. Especificamente, suponha que $ Y_1=g_1(X_1,X_2) $ e $ Y_2=g_2(X_1,X_2) $ para funções $ g_1 $ e $ g_2 $.

Assuma que as funções $ g_1 $ e $ g_2 $ satisfaçam as seguintes condições:

  1. As equações $ y_1=g_1(x_1,x_2) $ e $ y_2=g_2(x_1,x_2) $ podem ser unicamente resolvidas para $ x_1 $ e $ x_2 $ nos termos de $ y_1 $ e $ y_2 $ com soluções dadas por, digamos, $ x_1=h_1(y_1,y_2) $ e $ x_2=h_2(y_1,y_2) $
  2. As funções $ g_1 $ e $ g_2 $ tem derivadas parciais contínuas em todos os pontos $ (x_1,x_2) $ e são tais que o seguinte determinante $ 2×2 $


\[J(x_1,x_2)=\left|\begin{array}{c}\frac{\partial g_1}{\partial x_1} \ \frac{\partial g_1}{\partial x_2}\\ \frac{\partial g_2}{\partial x_1} \ \frac{\partial g_2}{\partial x_2}\end{array}\right|=\frac{\partial g_1}{\partial x_1}\frac{\partial g_2}{\partial x_2}-\frac{\partial g_1}{\partial x_2}\frac{\partial g_2}{\partial x_1}\neq0\]

 

para todos os pontos $ (x_1,x_2) $Sob essas duas condições podemos mostrar que as variáveis aleatórias $ Y_1 $ e $ Y_2 $ são continuamente conjuntas com função densidade conjunta dada por


\[f_{Y_1Y_2}(y_1,y_2)=f_{X_1,X_2}(x_1,x_2)|J(x_1,x_2)|^{-1}\]

 

em que $ x_1=h_1(y_1,y_2) $ e $ x_2=h_2(y_1,y_2) $.

Exemplo 2.8.1:

Sejam $ X_1 $ e $ X_2 $ variáveis aleatórias conjuntamente contínuas com função densidade de probabilidade conjunta $ f_{X_1,X_2} $. Sejam $ Y_1=X_1+X_2 $ e $ Y_2=X_1-X_2 $. Encontre a função densidade acumulada de $ Y_1 $ e $ Y_2 $ em termos de $ f_{X_1,X_2} $.

Seja $ g_1(x_1,x_2)=x_1+x_2 $ e $ g_2(x_1,x_2)=x_1-x_2 $. Então


\[J(x_1,x_2)=\left|\begin{array}{c} 1 \ \ \ \ \ 1\\ 1 \ -1\end{array}\right|=-2\]

 

Além disso, as equações $ y_1=x_1+x_2 $ e $ y_2=x_1-x_2 $ têm como soluções $ x_1=(y_1+y_2)/2 $ e $ x_2=(y_1-y_2)/2 $ e então, segue que a densidade desejada é dada por


\[f_{Y_1,Y_2}(y_1,y_2)=\frac{1}{2}f_{X_1,X_2}\left(\frac{y_1+y_2}{2},\frac{y_1-y_2}{2}\right)\]

 

Soma de variáveis aleatórias e multiplicação por constante 

É importante ser capaz de calcular a distribuição de $ aX + bY $ a partir das distribuições de $ X $ e $ Y $ quando $ X $ e $ Y $ são independentes, e $ a $ e $ b $ são constantes.

Teorema 2.8.1: 

Suponha que $ X $ e $ Y $ são variáveis aleatórias contínuas com função densidade de probabilidade conjunta $ f $ e seja $ Z=aX+bY $. Então


\[F_Z(z)= \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dtds.\]

 

Demonstração:

De fato, temos que


\[F_Z(z)=\mathbb{P}(Z\leq z)=\mathbb{P}(aX+bY \leq z)=\int_{ax+by\leq z}f(t)dt= \int_{-\infty}^{\infty}\int_{- \infty}^{\frac{z-by}{a}}f(x,y)dx dy.\]

 

Considerando a mudança de variável $ s=ax+by $ e $ t=y $, temos que $ s=ax+bt \Rightarrow x=\frac{s-bt}{a} $ e que além disso o determinante da matriz jacobiana é dado por


\[J=\left|\begin{array}{c}\frac{\partial x}{\partial s} \ \frac{\partial x}{\partial t} \\ \frac{\partial y}{\partial s} \ \frac{\partial y}{\partial t} \end{array} \right|=\left|\begin{array}{c}\frac{1}{a} \ -\frac{b}{a} \\ 0 \ 1 \end{array} \right| = \frac{1}{a}.\]

 

 

portanto


\[\int_{-\infty}^{\infty}\int_{- \infty}^{z}\left|\frac{1}{a}\right| f\left(\frac{s-bt}{a},t\right)ds dt= \int_{-\infty}^{z}\int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dt ds\]

 

e, assim concluímos que a fdp da variável aleatória $ Z = aX+bY $ é dada por


\[f_Z(s)=\int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dt,\]

 

e que a sua função de distribuição acumulada é dada por 


\[F_Z(z)= \displaystyle \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dtds.\]

 

Teorema 2.8.2: 

Suponha que $ X $ e $ Y $ são variáveis aleatórias contínuas independentes com funções densidades de probabilidades $ f_X $ e $ f_Y $ e seja $ Z=aX+bY $. Então


\[F_Z(z)= \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f_X\left(\frac{s-bt}{a}\right)f_Y(t)dtds.\]

 

Para verificar que este teorema é verdadeiro, basta aplicars o Teorema 2.8.1 e utilizarmos a hipótese de independência das variáveis $ X $ e $ Y $. Portanto $ f(\frac{s-bt}{a},t)=f_X(\frac{s-bt}{a})f_Y(t) $ e o resultado segue.

Quando $ a $ e $ b $ são iguais a $ 1 $ então $ f_{Z}(s) $ é chamada de convolução das distribuições $ f_X $ e $ f_Y $.

Exemplo 2.8.2: 

Seja 0\leq x \leq 1, 0\leq y \leq 1 \ \text{e} \ x+y\leq 1\} $, ou seja, A é um triângulo. Suponha que $ X $ e $ Y $ tenham densidade conjunta dada por

 

\[f(x,y)=\left\{\begin{array}{l} 2, \ \text{se} \ (x,y) \in A \\ 0, \ \text{caso contrário.} \end{array}\right.\]

 

Qual a distribuição de $ Z = X+Y $

Para calcular essa distribuição basta usarmos o teorema 2.8.2 no qual $ a=1 $ e $ b=2 $, então neste caso


\[F_Z(z)=\int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right) dt ds=\int_{0}^{z}\int_{0}^{z-x}2 dy dx=z^{2}\]

 

Teorema 2.8.3: 

Seja $ X $ uma variável aleatória com densidade de probabilidade $ f_X $. Então a densidade de probabilidade de $ X^{2n} $ é dada por

 

\[f(z)=\left\{\begin{array}{l} \displaystyle \frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\]

 

no qual o conjunto $ A $ depende da variável aleatória $ X $.

Seja $ Z=X^{2n} $. Temos então que:


\[F_Z(z)=\mathbb{P}(Z\leq z)=\mathbb{P}(X^{2n}\leq z)=\mathbb{P}(|X|\leq z^{\frac{1}{2n}})=\mathbb{P}(-z^{\frac{1}{2n}}\leq X \leq z^{\frac{1}{2n}})\]

 

de onde segue que


\[F_Z(z)=\int_{-z^{\frac{2}{2n}}}^{-z^{\frac{2}{2n}}}f_X(t)dt=\int_{-z^{\frac{2}{2n}}}^{0}f_X(t)+\int_{0}^{-z^{\frac{2}{2n}}}f_X(t)\]

 

e, utilizando o teorema de cálculo de mudança de variável, segue que 


\[\int_{-z^{\frac{2}{2n}}}^{0}f_X(t)dt+\int_{0}^{-z^{\frac{2}{2n}}}f_X(t)dt=\int_{0}^{z}\frac{f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}+\int_{0}^{z}\frac{f_X(z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}=\int_{0}^{z}\frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}.\]

 

 

Assim a fdp de $ Z $ é dada por


\[f(z)=\left\{\begin{array}{l} \frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array}, \right.\]

 

em que $ A $ depende da variável aleatória $ X $.

Teorema 2.8.4: 

Seja $ X $ uma variável aleatória com densidade de probabilidade $ f_X $. Então a densidade de probabilidade de $ X^2 $ é dada por


\[f(z)=\left\{\begin{array}{l}\frac{f_X(\sqrt{z})+f_X(-\sqrt{z})}{2\sqrt{z}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\]

 

 

em que $ A $ depende da variável aleatória $ X $.

Demonstração:

Basta aplicar o Teorema 2.8.3 com $ n=1 $ e o resultado segue.

Exemplo 2.8.3: 

Suponha que $ X $ é uma variável aleatória com densidade de probabilidade dada por


\[f(x)=\left\{\begin{array}{l} 1, \ \text{se} -1\leq x \leq 1\\ 0, \ \text{caso contrário.} \end{array}\right.\]

 

Qual a densidade de probabilidade de $ X^4 $?

Para resolvermos este exemplo basta utilizar o Teorema 2.8.3 com $ n=2 $, assim temos que a função densidade de probabilidade de $ Z = X^4 $ é dada por


\[f(z)=\left\{\begin{array}{l} \frac{f_X(z^{\frac{1}{4}})+f_X(-z^{\frac{1}{4}})}{4z^{\frac{4-1}{4}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\]

 

ou seja,


\[f(z)=\left\{\begin{array}{l} \frac{2}{4z^{\frac{3}{4}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array}\right.\]

 

em que $ A $ depende da variável aleatória $ X $, e neste caso $ A=\{z \in \mathbb{R}| 0\leq z \leq 1\} $.

 

Teorema 2.8.5: 

Suponha que $ X $ é uma variável aleatória com densidade de probabilidade $ f_X $. Então a densidade de probabilidade de $ Y = |X| $ é dada por


\[f(y)=\left\{\begin{array}{l} f_X(y)+f_X(-y), \ \text{se} \ y\in A \\ 0, \ \text{caso contrário. }\end{array},\right.\]

 

em que $ A $ depende da variável aleatória $ X $.

Seja $ Y=|X| $, então


\[F_Y(y)=\mathbb{P}(Y\leq y)=\mathbb{P}(|X|\leq y)=\mathbb{P}(-y\leq X \leq y)=\int_{-y}^{y}f_X(t)dt=\int_{0}^{y}f_X(t)dt+\int_{-y}^{0}f_X(t)dt\]

 

de onde segue que


\[F_Y(y)=\int_{0}^{y}f(t)+f(-t)dt.\]

 

Portanto a fdp de $ Y $ é dada por


\[f(y)=\left\{\begin{array}{l} f_X(y)+f_X(-y), \ \text{se} \ y\in A \\ 0, \ \text{caso contrário. }\end{array},\right.\]

 

em que o conjunto $ A $ depende da variável aleatória $ X $.

 

Exemplo 2.8.4

Sejam $ X $ e $ Y $ variáveis aleatórias independentes com distribuição uniforme em $ [\Theta -1/2, \Theta+1/2] $, no qual $ \Theta \in \mathbb{R} $. Prove que a distribuição de $ X-Y $ não depende de $ \Theta $, achando sua densidade.
$ X $ e $ Y $ independentes implica que

$$f_{X,Y}(x,y)=f_X(x)f_Y(y)=\left\{\begin{array}{c}1,(x,y)\in [\Theta-1/2,\Theta+1/2]^2 \\ \\ 0, \quad se\quad k\leq -1 \end{array}\right.$$

Assim, considere $ k\leq 0 $:

$$\mathbb{P}(X-Y\leq k)=\left\{\begin{array}{l}\displaystyle \int_A\int 1dx dy=\frac{1}{2}(1+k)^2, se \quad \quad -1\leq k\leq 0 \\ \\ 0, \text{Caso Contrário} \end{array}\right.$$

Analogamente, por simetria para $ k\textgreater 0 $

$$\mathbb{P}(X-Y\leq k)=\left\{\begin{array}{c}1-\frac{1}{2}(1+k)^2, se \quad \quad 0\leq k\leq 1 \\ 0, se \quad \quad k\textgreater 1. \end{array}\right.$$

Então,

$$f(t)=\left\{\begin{array}{l}1+t, se \quad \quad -1 \leq t\leq 0 \\ \\ (1-t), se \quad \quad 0\textless t\textless 1\\ \\ 0, t\in (-\infty,-1)\cup(1,\infty). \end{array}\right.$$

 

Exemplo 2.8.5:

Sejam as variáveis aleatórias $ X_1, \dots, X_n $ independentes e exponenciais com parâmetros $ \alpha_1, \dots, \alpha_n $.
(a) Mostre que a distribuição de $ Y=\min_{1\leq i\leq n} X_i $ é exponencial. Qual o parâmetro ?
Considere $ y\textgreater 0 $

$$\mathbb{P}(Y\textgreater y)=\mathbb{P}(X_1\textgreater y,\dots, X_n\textgreater)=\prod_{i=1}^n \mathbb{P}(X_i\textgreater y)=e^{-(\sum_{i=1}^n\alpha_i)y}$$

o que implica que

$$\mathbb{P}(Y\leq y)=1-e^{-(\sum_{n}^\infty \alpha_i)y}$$

Agora considere $ y\leq 0 $

$$\mathbb{P}(Y\textgreater y)=1$$

o que implica que

$$\mathbb{P}(Y\leq y)=0$$

Então $ Y\sim Exp\left(\sum_{i=1}^n \alpha_i \right) $

(b) Prove que para $ k=1,\dots,n $

$$\mathbb{P}(X_k=\min_{1\leq i\leq n} X_i)=\frac{\alpha_k}{\alpha_1+\dots+\alpha_n}.$$

Temos que o evento

$$[X_k=\min_{1\leq i\leq n} Y_i]=[X_k\leq \min_{i\neq k}]$$

Agora, fazendo $ U_k=\min_{i\neq k} X_i $, temos que $ X_k $ e $ U_k $ são independentes então

$$f_{X_k,U_k}(x,u)=f_{X_k}(x)f_{U_k}(u)=\left\{\begin{array}{c} \alpha_k \sum_{i\neq k}\alpha_i e^{-\left[(\sum_{i\neq k}\alpha_i)u+\alpha_k x\right]}, x\textgreater 0\\ 0, \text{ Caso Contrário .}\end{array}\right.$$

Então

$$\mathbb{P}\left(X_k=\min_{1\leq i \leq n} X_i\right)=\mathbb{P}\left([X_k\leq U_k]\right)=\int_0^\infty \int_0^u \alpha_u\left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u}e^{-\alpha_k x}dx du$$

$$=\int_0^\infty \left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u}\left[-e^{-\alpha_u x}\right]_0^u du= \int_0^\infty \left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u} \left(1-e^{-\alpha_k u}\right)du $$

$$=1-\frac{\sum_{i\neq k}\alpha_i }{\sum_{i=1}^n \alpha_i}=\frac{\alpha_k}{\alpha_1+\dots +\alpha_n}$$

 

Exemplo 2.8.6:

Seja $ X $ uma variável aleatória cuja função de distribuição F é uma função contínua na reta. Prove que a distribuição de $ Y=F(X) $ é $ U[0,1] $.

Suponha que $ F $ é estritamente crescente e contínua, então existe inversa

[0,1]\rightarrow \mathbb{R}$$

e portanto sejam $ a,b\in [0,1] $, $ a\textless b $:

$$\mathbb{P}(a\textless Y \leq b)=\mathbb{P}(a\textless F(X)\leq b)=\mathbb{P}(F^{-1}(a)\textless X\leq F^{-1}(b))=F(F^{-1}(b))-F(F^{-1}(a))=b-a$$

então como $ \mathbb{P}(0\leq Y\leq 1)=1 $, temos que $ Y\sim U[0,1] $.

Caso geral, se $ F $ é contínua, não-decrescente em $ \mathbb{F} $ e contínua, com $ \lim_{x\rightarrow \infty}F(x)=1 $ e $ \lim_{x\rightarrow -\infty}F(x)=0 $. Então $ F $ será constante em uma união disjuntas enumerável de intervalos fechados, ou seja no conjunto

$$A=\bigcup_{i} I_i$$

no qual $ I_i=[a_i,b_i] $, com $ a_i\textless b_i\textless a_{i+1}\textless b_{i+1} $, para todo $ i \in \mathbb{N} $. E também $ F $ será estritamente em

$$B=\mathbb{R}-A=\bigcup_j J_j$$

no qual $ J_j=(b_j,a_{j+1}) $. Então, $ F $ é estritamente crescente quando restrita a B. Se $ x\in \mathbb{R} $ e $ x\notin B $, o que implica que existe um $ i_2 $ tal que $ a_{i_2}\leq x\leq b_{i_2} $ com $ F(x)=F(a_{i_2})=F(b_{i_2}) $. Desta forma,

$$\left\{\begin{array}{l} x\in A \Rightarrow F(x)\in F(a_1), F(a_2)\dots \\ \\ x\in B\Rightarrow F(x)\in \underbrace{[0,1]-\{F(a_1),F(a_2),\dots \}}_{B}\end{array}\right.$$

Desta forma temos que a função
 B\rightarrow F(B) $, então $ F|_B $ é contínua e estritamente crescente, o que implica que existe uma função

[0,1]\rightarrow B.$$

Agora, sejam $ w,z\in [0,1] $ e $ w\textless z $. Então,

$$\mathbb{P}(w\textless Y\leq z)=\mathbb{P}(w\textless F(X)\leq z)$$

temos então 4 possibilidades

$$\left\{\begin{array}{l} I) w,z \in F(B) \\ \\ II) w \in F(B), z\notin F(B)\\ \\ III) w\notin F(B), z\in F(B)\\ \\ IV) w\notin F(B), z\notin F(B)\end{array}\right.$$

$$I) \mathbb{P}(w\textless F(x)\leq z)=\mathbb{P}((F|_B)^{-1}(w)\textless X\leq (F|_B)^{-1}(z))=F((F|_B)^{-1}(z))-F((F|_B)^{-1}(w))=z-w$$

$$II) \mathbb{P}(w\textless F(x)\leq z)=\mathbb{P}(w\textless F(X)\textless z)+\mathbb{P}(F(X)=z)=\mathbb{P}(w\textless F(X)\textless z)$$

$$= \mathbb{P}((F|_B)^{-1}(w)\textless X\textless (F|_B)^{-1}(z-))=F((F|_B)^{-1}(z))-F((F|_B)^{-1}(w))=z-w$$

observe que $ \mathbb{P}(F(X)=z)=0 $, pois
$ \mathbb{P}(F(X)=z)=\mathbb{P}(a_{i_j}\leq X\leq b_{i_j})=F(b_{i_j})-F(a_{i_j})=0 $
Para o caso $ III $ e $ IV $, é analogo, com isso temos que  $ Y\sim U[0,1] $.

 

Exemplo 2.8.7:

(a) As variáveis $ X,Y $ e $ Z $ são independentes, cada uma uniformemente distribuída no intervalo $ [0,1] $. Determine

$$\mathbb{P}(X\textless Y \textless Z)$$

e

$$\mathbb{P}(X\leq Y\leq Z)?$$

Como $ X,Y $ e $ Z $ são independentes então

$$f(x,y,z)=f_X(x)f_Y(y)f_Z(z)=\left\{\begin{array}{l} 1, 0\leq x\leq 1, 0\leq y\leq 1 \quad e\quad 0\leq z\leq 1 \\ \\ 0, \text{Caso Contrário} \end{array}\right.$$

então:

$$\mathbb{P}(X\leq Y\leq Z)=\mathbb{P}(X\leq Y\leq Z)=\mathbb{P}(X\textless Y\textless Z)=\int_0^1\int_0^z\int_0^y 1dxdydz=\int_0^1\int_0^z ydydz=\int_0^1\frac{z^2}{2}dz=\frac{1}{6}$$

(b) Se $ X,Y $ e $ Z $ são independentes e independentes e identicamente distribuídas, e a função de distribuição comum F é contínua, qual é

$$\mathbb{P}(X\textless Y\textless Z)?$$

Temos

$$\mathbb{P}(X\textless Y\textless Z)=\mathbb{P}(X\leq Y \leq Z)$$

pois é absolutamente contínua. Como $ F $ contínua não decrescente e $ F(x)\geq 0 $, para $ \forall x $.

$$\mathbb{P}(F(x)\leq F(y)\leq F(z))=\frac{1}{6}$$

pelo exemplo 2.8.6 pelo item (a).

 

Exemplo 2.8.8:

(a) Sejam X e Y independentes com distribuições de Poisson tendo, respectivamente, parâmetro $ \lambda_1 $ e $ \lambda_2 $. Mostre que $ X+Y \sim Poisson(\lambda_1+\lambda_2) $.

$$[X+Y=k]=\bigcup_{n=0}^k ([X=n]\cap[Y=k-n]), k=0,1,2,\dots$$

então

$$\mathbb{P}(X+Y=k)=\sum_{n=0}^k \mathbb{P}(X=n,Y=k-n)=\sum_{n=0}^k \mathbb{P}(X=n)\mathbb{P}(Y=k-n)=\sum_{n=0}^k \frac{\lambda_1^n}{n!}e^{-\lambda_1}\frac{\lambda_2^{k-n}}{(k-n)!}e^{-\lambda_2}$$

$$=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{n=0}^k \left(\frac{k!}{n!(k-n)!}\lambda_1^n\lambda_2^{k-n}\right)=\frac{e^{-(\lambda_1+\lambda_2)}}{k!} \sum_{n=0}^k\binom{k}{n}\lambda_1^n \lambda_2^{k-n}=\frac{(\lambda_1+\lambda_2)^k}{k!}e^{-(\lambda_1+\lambda_2)}, k=0,1,2, \dots$$

Assim, $ X+Y\sim Poisson(\lambda_1+\lambda_2) $.

(b)Mostre que se $ X_1, \dots, X_n $ são independentes tais que $ X_i\sim Poisson(\lambda_i) $, $ i=1, \dots, n $, então $ X_1+\dots +X_n \sim Poisson(\lambda_1+\dots+ \lambda_n) $.

Temos pelo item(a) que $ X_1+X_2\sim Poisson(\lambda_1+\lambda_2) $. Agora, suponhamos que $ (2\textless m\textless n) $ e

$$X_1+X_2+\dots +X_m\sim Poisson(\lambda_1+\dots +\lambda_m).$$

Então, como $ (X_1+X_2+\dots +X_m) $ e $ X_{m+1} $ são independentes (pela propriedade hereditária) então pelo item (a)

$$X_1+X_2+\dots+X_{m+1}\sim Poisson(\lambda_1+\lambda_2+\dots+\lambda_{m+1})$$

Então por indução:

$$X_1+X_2+\dots+X_n\sim Poisson(\lambda_1+\dots+\lambda_n)$$

E portanto o resultado segue.

 

Exemplo 2.8.9:

Certo supermercado tem duas entradas, A e B. Fregueses entram pela entrada A conforme um processo de Poisson com taxa média de 15 fregueses por minuto. Pela entrada B, entram fregueses conforme outro processo de Poisson, independente do primeiro, a uma taxa média de 10 por minuto.
(a) Seja $ X_t $ o número total de fregueses que entram no supermercado até o instante $ t $ (inclusive), para $ t\geq 0 $. Então t\geq 0\} $ também é processo de Poisson. Qual o parâmetro deste processo?

É um processo de Poisson com parâmetro $ \lambda=\lambda_1+\lambda_2=10+15=25 $. O parâmetro de t\geq 0\} $ é $ \lambda=\lambda_1+\lambda_2 $, pois fixando um determinado t, temos

$$X_t=A_t+B_t$$

no qual

$$A_t=\{\text{ Variável do número de fregueses que entram até } t \text{ por } A\}$$

$$B_t=\{\text{ Variável do número de fregueses que entram até } t \text{ por } B\}$$

$ A_t\sim Poisson(\lambda_1 t) $ e $ B_t\sim Poisson(\lambda_1 t) $ e $ A_t $ independente de $ B_t $
pelo item (a) do exemplo 2.8.8. O que implica que $ X_t\sim Poisson[(\lambda_1+\lambda_2)t]=25t $.

(b) Seja $ T_1 $ o tempo em que o primeiro freguês entra pela entrada A, com $ V_1 $ o tempo em que o primeiro freguês entra pela entrada $ B $. Ache a distribuição de $ \min(T_1,V_1) $, o mínimo dos dois tempos.

Temos $ T_1\sim Exp(\lambda_1) $ e $ V_1\sim Exp(\lambda_2) $ com $ T_1 $ independente de $ V_1 $. Assim, para $ m\textgreater 0 $, temos

$$\mathbb{P}(M=\min(T_1,V_1)\textgreater m)=\mathbb{P}(T_1\textgreater m, V_1\textgreater m)=\mathbb{P}(T_1\textgreater m)\mathbb{P}(V_1\textgreater m)=e^{-\lambda_1 m}e^{-\lambda_2 m}=e^{-(\lambda_1+\lambda_2)m}$$

o que implica que $ M\sim Exp(\lambda_1+\lambda_2=25) $

(c)Determine a probabilidade de que o primeiro freguês a entrar no mercado entre pela entrada A.

$$\mathbb{P}(T_1=\min(T_1,V_1))=\frac{\lambda_1}{\lambda_1+\lambda_2}=\frac{15}{10+15}=\frac{3}{5}$$

no qual a primeira igualdade segue do exemplo 2.8.5.

 

Exemplo 2.8.10:

Seja A o seguinte triângulo:

Suponha que X e Y tenham densidade conjunta $ f(x,y)=c\mathds{1}_A(x,y) $.

(a) Determine o valor da constante c.
Temos que

$$1=\int_{-\infty}^\infty \int_{-\infty}^\infty f(x,y)dxdy=c\int_{A}\int dxdy=c Area(A)=c\frac{1}{2}\Rightarrow c=2.$$

(b) Calcule a distribuição de X, a de Y e a de $ Z=X+Y $.
A distribuição de X:

$$F_X(x)=\int_{-\infty}^{\infty}\int_{-\infty}^{t-x}f(x,y)dydx=2\int_0^t\int_{0}^{t-x}dydx=2\int_0^t(t-x)dx=2\left[tx-\frac{x^2}{2}\right]_0^t=t^2, \quad \quad 0\leq t\leq 1.$$

$$\left\{\begin{array}{l}0, \quad t\textless 0\\ \\ t^2, \quad 0\leq t\leq 1\\ \\ 1, \quad t\textgreater 1.\end{array}\right.$$

(c) X e Y são independentes ? Por que ?
Não, pois

 f_{X,Y}(x,y)\neq f_X(x)f_Y(y)\right\}\right]\textgreater 0$$

Pois,

$$2(1-x)2(1-y)=4(1-x)(1-y)\neq 2 \Rightarrow (1-x)(1-y)\neq \frac{1}{2}$$

e

(1-x)(1-y)\neq \frac{1}{2}\right\}\right]\textgreater 0.$$

 

Exemplo 2.8.11:

Se $ X $ e $ Y $ são as coordenadas de um ponto selecionado, ao acaso, do circulo unitário  x^2+y^2\leq 1\} $, qual a distribuição da variável aleatória

$$Z=X^2+Y^2?$$

Seja x^2+y^2\leq 1\} $ então $ (x,y)\sim U[A] $, o que implica que

$$f_{X,Y}(x,y)=f(x,y)=\left\{\frac{1}{Area(A)}=\frac{1}{2}, \quad x\in A \\ 0,\quad x\notin A\right.$$

então $ 0\leq z\leq 1 $.

$$\mathbb{P}(Z\leq z)=\mathbb{P}(X^2+Y^2\leq z)=\int_{x^2+y^2\leq z}\int f_{X,Y}(x,y)dxdy=$$

x^2+y^2\leq z\}\cap A\right]=\frac{\pi z^2}{\pi}=z^2$$

Portanto, temos que $ Z\sim U[0,1] $.

 

Exemplo 2.8.12:

Sejam $ X $ e $ Y $ variáveis aleatórias independentes, tendo distribuição comum $ U[0,1] $.
(a) Qual a densidade da variável aleatória $ Z=X+Y $?

Para $ 0\leq z\leq 1 $, temos

$$P(X+Y\leq z)=\int_{z-1}^1\int_0^{z-x}1dydx=\left[zx-\frac{x^2}{2}\right]^{1}_{z-1}=-\frac{1}{2}\left(1-z(z-1)\right)$$

e $ z\textless 0 $, para

$$\mathbb{P}(X+Y\leq z)=0$$

e para $ z\textgreater 0 $, temos

$$\mathbb{P}(X+Y\leq z)=1$$

então

$$f_{X+Y}(z)=\left\{\begin{array}{l}0, \quad z\textless 0\\ \\ z, \quad 0\leq z\leq 1\\ \\ 1-2z, \quad \quad 1\leq z\leq 2 \\ \\ 0, \quad z\textgreater 2\end{array}\right.$$

(b) Ache a probabilidade da equação quadrático $ Xt^2+Yt+Z=0 $ ter raízes reais.
Temos que $ Xt^2+Yt+Z $ tem raizes reais se

$$Y^2-4XZ=Y^2-4X(X+Y)\textgreater 0$$

o que implica que

$$Y^2-4XY-4X\textgreater 0$$

raizes

$$y_k=\frac{4X\pm \sqrt{16X^2+16X^2}}{2}=2X(1\pm \sqrt{2})$$


Então, seja $ E $ o evento $ Xt^2+Yt+Z $ tem reais

$$\mathbb{P}(E)=\int_B\int f_{X,Y}(x,y)dxdy=\int_B\int dxdy=Area(B)=\frac{1}{4(1+\sqrt{2})}=0,10355$$

 

Exemplo 2.8.13:

Dizemos que X tem distribuição de Weibull com parâmetro $ \alpha $ e $ \lambda $ se $ X $ tem densidade

$$f_X(x)=\lambda \alpha x^{\alpha-1}e^{-\lambda x^\alpha}\mathds{1}_{(0,\infty)}(x),$$

onde $ \alpha\textgreater 0 $ e $ \lambda \textgreater 0 $. Suponha que a vida útil de certo tipo de máquina i.e, o tempo que ele funciona até pifar, possua distribuição $ Weibull(\alpha,\lambda) $. Colocam-se em funcionamento, simultaneamente, n dessas máquinas. Qual a distribuição do tempo de espera até alguma máquina pifar?

Temos $ X_1, X_2, \dots, X_n $ variáveis aleatórias  independentes que designam a vida útil das $ n $ máquinas

$$\mathbb{P}(X_1\textgreater x_1)=\int_{x_1}^\infty f_{X_1}(x)dx$$

se $ x_1\textgreater 0 $ então

$$\mathbb{P}(X_1\textgreater x_1)=\int_{x_1}^\infty \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}dx$$

fazendo uma mudança de variável $ y=\lambda x^{\alpha} $ e $ dy=\lambda x^{\alpha-1}dx $ então temos

$$\int_{x_1}^\infty \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}dx=\int_{\lambda x_1^\alpha}^\infty \lambda e^{-\lambda y}dy=\left[\right]_{\lambda x_1^\alpha}^\infty =e^{-\lambda x_1^\alpha}, x_1\textgreater 0$$

Desta forma temos que

$$\mathbb{P}(X_1\textgreater x_1)=\left\{\begin{array}{l} e^{-\lambda x_1^\alpha}, \quad x_1\textgreater 0\\ 1, x_1\leq 0.\end{array}\right.$$

Agora $ Z=\min(X_1,\dots,X_n) $ tempo até alguma máquina pifar.

$$\mathbb{P}(Z\textless z)=\left\{\begin{array}{l} \mathbb{P}(X_1\textgreater z,\dots, X_n\textgreater z)= \prod_{i=1}^n \mathbb{P}(X_1\textgreater z)=\left[\mathbb{P}(X_1\textgreater z)\right]^n=e^{-\lambda n z^\alpha}, \quad z\textgreater 0\\ \\ 0, z\leq 0.\end{array}\right.$$

então,

$$f_Z(z)=(\lambda n)z^{\alpha-1}e^{-(\lambda n)z^{\alpha}}\mathds{1}_{(0,\infty)}(z)$$

o que implica que
$ Z\sim Weibull(\alpha,n\lambda) $.

 

Exemplo 2.8.14:

Sejam $ X $ e $ Y $ variáveis aleatórias independentes, X tendo distribuição de Poisson com parâmetro $ \lambda=5 $, e $ Y $ tendo distribuição uniforme em $ [0,1] $. Ache a densidade de $ Z=X+Y $.

Primeiramente definimos $ \lceil x\rceil $ como sendo a parte inteira de $ x $. Assim, temos que

$$[X+Y\leq z]=[X\leq \lceil z\rceil-1] \bigcup [X=\lceil z\rceil,y\leq z-\lceil z\rceil ]$$

então se $ z\textgreater 0 $ temos

$$F_Z(z)= \mathbb{P}(X\leq \lceil z\rceil -1 )+\mathbb{P}(X= \lceil z\rceil, 0\leq y\leq z- \lceil z\rceil)$$

Pela independência, temos que

$$\sum_{k=0}^{ \lceil z\rceil-1} \frac{\lambda^k}{k!}e^{-5}+\frac{\lambda^{ \lceil z\rceil}}{ \lceil z\rceil!}e^{-5}(z- \lceil z\rceil)$$

Agora, se $ z\leq 0 $ então $ F_{Z}(z)=0 $
Desta forma temos que

$$f_{Z}(z)=\left\{\begin{array}{c} \frac{\lambda^{ \lceil z\rceil}}{ \lceil z\rceil!}e^{-5}, z\textgreater 0\\ \\ 0, z\leq 0. \end{array}\right.$$

 

 

Exemplo 2.8.15:

Lança-se um dado equilibrado duas vezes, independentemente. Sejam $ X $ e $ Y $ as variáveis aleatórias que representam os números obtidos em respectivamente, o primeiro e o segundo lançamento.

(a) Determine $ \mathbb{P}(X=Y) $

$ X $ independente $ Y $ pelo exemplo 2.5.5 e

$$\mathbb{P}(X=x, Y=y)=\frac{1}{36}$$

para qualquer $ x,y\in \{1,2,\dots, 6\} $. Então,

$$\mathbb{P}(X=Y)=\sum_{k=1}^{6}\mathbb{P}(X=k,Y=k)=6\frac{1}{36}=\frac{1}{6}$$

(b) Descreva a distribuição de $ W=|X-Y| $

$$\mathbb{P}(W=0)=6\frac{1}{36}=\frac{1}{6}$$

$$\mathbb{P}(W=1)=2\frac{5}{36}=\frac{5}{18}$$

$$\mathbb{P}(W=2)=2\frac{4}{36}=\frac{2}{9}$$

$$\mathbb{P}(W=3)=2\frac{3}{36}=\frac{1}{6}$$

$$\mathbb{P}(W=4)=2\frac{2}{36}=\frac{1}{9}$$

$$\mathbb{P}(W=6)=2\frac{1}{36}=\frac{1}{18}$$

$$\mathbb{P}(W\in \{0,1,2,3,4,5,6\})=0$$

(c) Seja

$$Z=\left\{\begin{array}{c} 1, \quad \quad se \quad \quad X+Y \text{é par }\\ 0 , \quad \quad se \quad \quad X+Y \text{é impar}.\end{array}\right.$$

Explique por que X e Z são, ou não são, independentes.

Temos $ \mathbb{P}(Z=0)=\mathbb{P}(Z=1)=\frac{(5\cdot 3)+(3\cdot 3)}{36}=\frac{1}{2} $
e ainda

$$\mathbb{P}(X=x,Z=1)=\frac{3}{36}=\frac{1}{12}=\mathbb{P}(X=x)\mathbb{P}(Z=1)=\frac{1}{6}\frac{1}{2}$$

e

$$\mathbb{P}(X=x,Z=0)=\frac{3}{36}=\frac{1}{12}=\mathbb{P}(X=x)\mathbb{P}(Z=1)=\frac{1}{6}\frac{1}{2}$$

Então, pelo exercício 22 implica que X e Z são independentes.

 

Exemplo 2.8.16:

Escolhe-se um ponto ao acaso(i.e. conforme a distribuição uniforme) dos lados do quadrado de vértices $ (1,1);(1,-1);(-1,-1) $ e $ (-1,1) $. Sejam $ X $ e $ Y $ as coordenadas do ponto escolhido.
(a) Determine a distribuição de $ X+Y $.

Temos que

$$\mathbb{P}(A)=\frac{Comp(A\cap L)}{L}$$

no qual (|x|=1 \text{ ou } |y|=1) \text{ e } x^2+y^2\leq 1\} $ e $ Comp(L)=8 $. Então,

$$F_{Z}(z)=\mathbb{P}(X+Y\leq z)=\left\{\begin{array}{l}0,z\textless -2\\ \\ \frac{2+z}{4},-2\leq z\leq 0\\ \\ \frac{8-2(2-z)}{8}=\frac{1}{2}+\frac{1}{4}z, 0\textless z\leq 2\\ \\ 1, z\textgreater 2\end{array}\right.$$

(b) Ache $ \mathbb{P}(W\textgreater 0) $, no qual $ W $ é o máximo de $ X $ e $ Y $.

$$\mathbb{P}(W\textgreater 0)=\frac{Comp(C\cap L)}{L}$$

com x\leq 0 \text{ e } y\leq 0 \} $ então $ Comp(C\cap L)=6 $ o que implica que

$$\mathbb{P}(W\textgreater 0)=\frac{Comp(C\cap L)}{L}=\frac{6}{8}=\frac{3}{4}$$

 

Exemplo 2.8.17:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $ N(0,1) $. Mostre que $ U=\frac{X+Y}{\sqrt{2}} $ e $ V=\frac{X-Y}{\sqrt{2}} $ também são independentes e $ N(0,1) $.

$$f_{X,Y}(x,y)=\frac{1}{2\pi}e^{-\frac{1}{2}(x^2+y^2)}, \quad -\infty\textless x,y\textless \infty$$

Agora, seja $ U=\frac{X+Y}{\sqrt{2}} $$ V=\frac{X-Y}{\sqrt{2}} $ e então temos $ X=\frac{U+V}{\sqrt{2}} $ e $ Y=\frac{U-V}{\sqrt{2}} $. Assim,

$$J_{(X,Y);(U,V)}=\Bigg|\begin{array}{l}\frac{1}{\sqrt{2}}\quad \quad \quad \quad\frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}}\quad\quad \quad -\frac{1}{\sqrt{2}}\end{array}\Bigg|=\frac{1}{2}+\frac{1}{2}=1$$

Então:

$$f_{U,V}(u,v)=\bigg| J_{(X,Y),(U,V)}\bigg|f_{X,Y}\left(\frac{u+v}{\sqrt{2}},\frac{u-v}{\sqrt{2}}\right)=\frac{1}{2\pi} e^{-\frac{1}{2}\left(\frac{(u+v)^2}{2}+\frac{(u-v)^2}{2}\right)}=\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}u^2} \frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}v^2}$$

com $ -\infty\textless u\textless \infty $ e $ -\infty\textless v\textless \infty $
Então $ U\sim N(0,1) $ e $ V\sim N(0,1) $ e U independente V.

 

Exemplo 2.8.18:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $ U[0,1] $. Ache a densidade conjunta de $ W $ e $ Z $, onde $ W=X+Y $ e $ Z=X-Y $. $ W $ e $ Z $ são independentes ?
Temos $ X\sim U[0,1] $ e $ Y\sim U[0,1] $ com X e Y independente o que implica que

$$f_{X,Y}(x,y)=\left\{\begin{array}{l} 1, \quad 0\leq x\leq 1, \quad 0\leq y\leq 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Usando o método Jacobiano temos
$ W=X+Y $ e $ Z=X-Y $ o que implica que $ X=\displaystyle \frac{W+Z}{2} $, $ Y=\frac{W-Z}{2} $ e

$$J_{(X,Y), (W,Z)}=\Bigg|\begin{array}{l}\frac{1}{2}\quad \quad \quad \quad\frac{1}{2}\\ \frac{1}{2}\quad\quad \quad -\frac{1}{2}\end{array}\Bigg|=\frac{1}{2}$$

Então,

0\leq \frac{w+z}{2}\leq 1 \text{ e } 0\leq \frac{w-z}{2}\leq 1\}\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Assim,

$$f_{W,Z}(w,z)=\frac{1}{2}\mathds{1}_{A}(w,z)$$

Temos que W e Z não são independentes, é análogo ao exemplo 2.5.15.

 

Exemplo 2.8.19:

Suponha que $ X $ seja uma variável aleatória com distribuição $ N(0,1) $. Calcule a densidade de $ Y=X^4 $ e a $ Z=1/X $. Y e Z possuem densidade conjunta? Por que?
Como $ X\sim N(0,1) $ o que implica que $ f_X(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} $ com $ -\infty \textless x\textless \infty $.
(a) $ Y=X^4 $

Seja $ G_0=(0,\infty) $, $ G_1=(0,\infty) $ e $ G_2=(-\infty,0) $ então,
 G_1\rightarrow G_0 $ temos que $ y_1=x^4 $ o que implica que $ h^{-1}_1(y)=y_1^{1/4} $ e  G_2\rightarrow G_0 $ e $ y_2=x^4 $ o que implica que $ h^{-1}_2(y)=-(y)^{1/4} $.

Assim

$$J_1(x,y)=\frac{dh^{-1}_1}{dy}=\frac{1}{4}y^{-3/4}$$

e

$$J_2(x,y)=\frac{dh^{-1}_2}{dy}=-\frac{1}{4}y^{-3/4}$$

então

$$f_Y=\bigg|J_1(x,y)\bigg|f_X(h^{-1}_1 (y))\bigg|J_2(x,y)\bigg|f_X(h^{-1}_2 (y))$$

então temos que

$$f_Y(y)=\left\{\begin{array}{l}\frac{1}{2}\frac{1}{\sqrt{2}}e^{-\frac{y^{1/2}}{2}}+\frac{1}{2}\frac{1}{\sqrt{2}}e^{-\frac{y^{1/2}}{2}}= \frac{1}{\sqrt{2\pi}}e^{-\frac{\sqrt{y}}{2}}, y \textgreater 0 \\ \\ 0, y\leq 0\end{array}\right.$$

(b) $ Z=\frac{1}{X} $ o que implica que $ h^{-1}(z)=\frac{1}{z} $ o que implica que $ J_{X,Z}=-\frac{1}{z^2} $, então

$$f_Z(z)=\bigg|J(x,z)\bigg|f_Z(h^{-1}(z))=\frac{1}{z^2}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2z^2}}, -\infty \textless z \textless \infty$$

Temos que $ Y $ e $ Z $ não possuem densidade conjunta pois $ (Y,Z) $ possui distribuição singular. Isto acontece pois existe um conjunto

$$A\subset \mathbb{R}$$

tal que $ \mathbb{P}((Y,Z)\in A)=1 $ e $ \lambda^2(A)=0 $ onde  z^4 y=1\} $

 

Exemplo 2.8.20:

Seja X uma variável aleatória possuindo densidade $ f(x) $.
(a) Ache a densidade de $ Y=|X| $ pelo método básico, obtendo a função de distribuição de X e derivando-a.
Temo que

$$\mathbb{P}(Y\leq y)=\mathbb{P}(|X|\leq y)=\mathbb{P}(-y\leq X\leq y)$$

como $ X $ é uma variável contínua então

$$\mathbb{P}(-y\leq X\leq y)=\mathbb{P}(-y\textless X\leq y)=F_X(y)-F_X(-y), y\textgreater 0$$

e $ \mathbb{P}(Y\leq y)=0 $, $ y\textless 0 $ então

$$f_Y(y)=\left\{\begin{array}{l}f_X(y)+f_X(-y), \quad y\textgreater 0\\ \\ 0 , \text{Caso Contrário}\end{array}\right.$$

(b) Ache a densidade de Y pelo método do jacobiano.
Considere $ G_0=(0,\infty) $, $ G_1=(0,\infty) $, $ G_2=(-\infty,0) $. Assim defina

 G_1\rightarrow G_0$$

com $ y_1=x $, o que implica que $ h_1^{-1}(y)=y $ então $ J(x,y_1)=1 $. Da mesma forma, defina

 G_2\rightarrow G_0$$

com $ y_2=-x $, o que implica que $ h_1^{-1}(y)=-y $ então $ J(x,y_2)=-1 $. Então,

$$f_Y(y)=\bigg|J(x,y_1)\bigg|f_X(h^{-1}_1(y))+\bigg|J(x,y_2)\bigg|f_X(h^{-1}_2(y))=\left\{\begin{array}{l}f_X(y)+f_X(-y), \quad y \textgreater 0\\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$

 

Exemplo 2.8.21:

Suponha que $ X,Y $ e $ Z $ possuam densidade conjunta

$$f(x,y,z)=\left\{\begin{array}{l}\frac{6}{(1+x+y+z)^4}, \text{ se } x\textgreater 0, y\textgreater 0 \quad e \quad z\textgreater 0\\ \\ 0, \text{Caso Contrário.}\end{array}\right.$$

Obtenha a densidade da variável aleatória $ W=X+Y+Z $ de duas maneiras diferentes.

Primeiramente vamos fazer usando o método básico:

$$\mathbb{P}(W\leq  w)=\mathbb{P}(X+Y+Z\leq w)=\int_0^w\int_0^{w-x}\int_{0}^{w-(x+y)}\frac{6}{1+x+y+z} dz dy dx$$

Então, a primeira integral é dada por

$$I=\int_0^{w-(x+y)}\frac{6}{1+x+y+z}dz$$

fazendo uma mudança de variável $ v=1+x+y+z $ e $ dv=dz $ então

$$I=\int_0^{w-(x+y)}\frac{6}{1+x+y+z}dz=6\int_{1+x+y}^{w+1}\frac{1}{v}dv=6\left(\ln(v)\right)_{1+x+y}^{w+1}=6\left[\ln(w+1)-\ln( 1+x+y)\right]$$

a segunda integral

$$II=\int_0^{w-x}6\left[\ln(w+1)-\ln( 1+x+y)\right]dy=6\left\{(\ln(w+1))(w-x)+\int_0^{w-x}\ln(1+x+y)dy\right\}$$

Novamente fazendo uma mudança de variável $ v=1+x+y $ e $ dv=dx $ temos que

$$\int_{1+x}^{w+1}\ln(v)dv=\left[v \ln(v)-v\right]_{1+x}^{w+1}=(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)$$

então temos que

$$II=6\left\{(\ln(w+1))(w-x)+(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)\right\}$$

e por fim, a terceira integral

$$III=\int_0^w 6\left\{(\ln(w+1))(w-x)+(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)\right\}dx= 6\left\{xw(\ln(w+1))-\frac{x^2}{2}\ln(w+1)+x(w+1)\ln(w+1)-x(w+1)+x+\frac{x^2}{2}\right\}_0^{w}=3(2w+1)^2\ln(w+1)-\frac{9}{2}w^2+3w-3$$

Então,

$$\mathbb{P}(W\leq w)=\left\{\begin{array}{l}3(2w+1)^2\ln(w+1)-\frac{9}{2}w^2+3w-3, \quad w \textgreater 0\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Método Jacobiano:

Definimos $ W=X+Y+Z $, $ U=X $ e $ T=Y $ então $ X=U $, $ Y=T $ e $ Z=W-U-T $ e

$$J_{(X,Y,Z),(U,T,W)}=\Biggl| \begin{array}{l}\quad 1 \quad \quad 0 \quad \quad 0 \\ \quad 0 \quad \quad 1 \quad \quad 0 \\ -1 \quad -1 \quad \quad 1\end{array}\Biggl|=1$$

então

$$f_{W,U,T}(w,u,t)=\bigg|J_{(X,Y,Z),(U,T,W)}\bigg|f_{X,Y,Z}(u,t,w-u-t)=\left\{ \begin{array}{l}\frac{6}{(1+w)^4},\quad u\textgreater 0, t\textgreater 0\\ \\ 0, \text{Caso Contrário} \end{array}\right.$$

Então

$$f_W(w)=\int_{-\infty}^\infty \int_{-\infty}^\infty f_{W,U,T}(w,u,t)=\int_0^{w}\int^{w-u}_0\frac{6}{(1+w)^4}dtdu=$$

$$6\int_0^w \left[\frac{w}{(1+w)^4}-\frac{u}{(1+w)^4}\right]du=6\left[\frac{w}{(1+w)4}u-\frac{u^2}{2(1+w)^4}\right]_0^w=3\frac{w^2}{(1+w)^4}$$

o que implica que

$$f_W(w)=\left\{\begin{array}{l}3\frac{w^2}{(1+w)^4}, w\geq 0 \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.22:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $ exp(\lambda) $. Prove que $ Z=\frac{X}{X+Y}\sim U[0,1] $.
Usando, o método do Jacobiano e fazendo:
$ W=X $ e $ Z=\frac{X}{X+Y} $ o que implica que $ X=W $ e $ Y=W\left(\frac{1}{z}-1\right) $ então

$$J_{(X,Y),(W,Z)}=\Biggl|\begin{array}{l}\quad 1 \quad\quad\quad\quad 0 \\ \frac{1}{z}-1 \quad\quad -\frac{w}{z^2} \end{array}\Biggl|=-\frac{w}{z^2}$$

Agora,

$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\lambda^2 e^{-\lambda (x+y)}, \quad x\textgreater 0, y\textgreater 0\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

Assim,

$$f_{Z}(z)=\int_{-\infty}^{\infty}f_{W,Z}(w,z)dz.$$

Então, para $ 0\textless z \textless 1 $ temos que

$$f_{Z}(z)=\int_{0}^{\infty}\frac{w}{z^2}\lambda^2 e^{-\lambda \left(\frac{w}{z}\right)}dz$$

fazendo uma mudança $ v=\frac{\lambda w}{z} $ e $ dv=\frac{\lambda}{z}dw $ então

$$f_{Z}(z)=\int_0^{\infty}v e^{-v}dv=1$$

Então, $ Z\sim U[0,1] $, pois f caracteriza a lei de Z.

 

Exemplo 2.8.23:(Extensão do método do jacobiano para o caso de k infinito.)

Seja $ Y=g(X) $, no qual $ X=(X_1,X_2, \dots , X_n) $ e $ Y=(Y_1,Y_2, \dots, Y_n) $. Suponhamos que $ G,G_1, G_2, \dots $ sejam sub-regiões abertas de $ \mathbb{R}^n $ tais que $ G_1,G_2,\dots $ sejam disjuntas e

$$\mathbb{P}\left(X\in \bigcup_n G_n\right)=1$$

e tais que $ g\big|_{G_n} $ seja uma correspondência biunívoca entre $ G_n $ e $ G $, $ \forall n\geq 1 $. Demonstre o seguinte teorema: se a função $ h^{(n)} $, a inversa de $ g\big|_{G_n} $, satisfaz as condições da função $ h $ do Teorema 2.1, $ \forall n\geq 1 $, então $ Y $ tem densidade

$$f_Y(y)=\left\{\begin{array}{l}\displaystyle  \sum_{n=1}^\infty f(h^{(n)}(y))\big|J_n(x,y)\big|, y \in G\\ \\ 0, y\notin G,\end{array}\right.$$

no qual $ J_n(x,y) $ é o jacobiano de $ h^{(n)} $.

Seja $ B\subset G $, sob as condições acima, temos:

$$\mathbb{P}(Y\in B)=\mathbb{P}(g(X)\in B)=\sum_{\ell =1}^{\infty}\mathbb{P}(g(X)\in B, X \in G_\ell)=\sum_{\ell=1}^\infty \mathbb{P}(X \in h^{\ell}(B))=$$

$$\sum_{\ell=1}^\infty \int\dots_{h^{\ell}(B)}\int f(x_1,x_2,\dots, x_n)dx_1dx_2\dots dx_n$$

$$=\sum_{\ell=1}^\infty \int\dots_B \int f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n$$

como o integrando é contínuo e limitador temos que

$$\sum_{\ell=1}^\infty \int\dots_B \int f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n=\int\dots_B \int \sum_{\ell=1}^\infty  f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n$$

portanto o resultado segue.

 

Exemplo 2.8.24:

Se $ X $ possui densidade $ f(x) $, qual a densidade de $ Y=\cos(X) $?
Defina, $ G=(0,\infty) $ e $ G_k=(k\pi, (k+1)\pi) $. Assim, $ \mathbb{P}\left(X\in \bigcup_{k\in \mathbb{Z}}\right)=1 $ pois temos que X é absolutamente contínua então a $ \mathbb{P}\left(X=k\pi,k\in \mathbb{Z}\right)=0 $. Temos também que $ Y=cosX $ é biunívoca em $ G_k $, então a função inversa existe e é dada por $ X=h^{(k)}(y)=\arccos(y-k\pi) $

$$\frac{dh^{(k)}}{dy}=-\frac{1}{\sqrt{1-y^2}}$$

que é contínua em $ G $, para todo $ k \in \mathbb{Z} $. Então, valem as condições do exemplo 2.8.23 e portanto temos que

$$f_Y(y)=\left\{\begin{array}{l}\sum_{k\in \mathbb{Z}}f(\arccos(y-k\pi))\frac{1}{\sqrt{1-y^2}}=\frac{1}{\sqrt{1-y^2}}\sum_{k=1}^\infty \left[f(\arccos(y-k\pi))+f(\arccos(y+k\pi))\right], \text{ se } 0\textless y\textless 1\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.25:

Sejam X e Y variável aleatória independentes, tendo distribuição comum $ U[0,1] $, e sejam $ R=\sqrt{2\log(1/(1-X))} $ e $ \Theta = \pi(2Y-1) $.
(a) Mostre que $ \Theta \sim U[-\pi,\pi] $ e que $ R $  tem distribuição de Rayleigh com densidade

$$f(r)=\left\{\begin{array}{l} re^{-r^2/2}, r\geq 0\\ \\ 0, r\leq 0.\end{array}\right.$$

Inicialmente considere $ X,Y \sim U[0,1] $ e independentes o que implica que

$$f_{X,Y}(x,y)=\left\{\begin{array}{l} 1, \text{ se } x\in [0,1], y\in [0,1]\\ \\ 0, \text{ Caso Contrário }.\end{array}\right.$$

Usando o Método do Jacabiano, definimos

$$R=\sqrt{2\log\left(\frac{1}{1-X}\right)}$$

o que implica $ \frac{\mathbb{R}^2}{2}=\log\left(\frac{1}{(1-X)}\right) $ o que implica que

$$X-1=e^{-r^2/2}$$

o que implica que $ x=e^{-r^2/2}-1 $. Definimos também que

$$\Theta=\pi(2Y-1)$$

o que implica que $ 2Y-1 $ o que implica que $ Y=\frac{1}{2}\left(\frac{\Theta}{\pi}+1\right) $. Então:

$$J_{(X,Y)(R,\Theta)}=\Biggl|\begin{array}{l}-re^{-r^2/2} \quad \quad \quad 0 \\ \quad \quad 0 \quad \quad \quad\quad \frac{1}{2\pi} \end{array}\Biggl|=-\frac{r}{2\pi}e^{-r^2/2}$$

Desta forma,

$$f_{R,\Theta}(r,\theta)=\bigg|J_{(X,Z),(R,\Theta)}\bigg|f_{X,Y}\left(e^{-r^2/2}+1,\frac{1}{2}\left(\frac{\theta}{\pi}+1\right)\right) = \frac{r}{2\pi}e^{-r^2/2}f_{X,Y}\left(e^{-r^2/2}+1,\frac{1}{2}\left(\frac{\theta}{\pi}+1\right)\right)$$

o que implica que

$$f_{R,\Theta}(r,\theta)=\left\{\begin{array}{l}\frac{1}{2\pi}re^{-r^2/2}, (r,\theta)\in A \\ \\ 0 , (r,\theta)\notin A\end{array}\right.$$

no qual

 0 \leq e^{-r^2/2}+1\leq 1, 0\leq \frac{1}{2}\left(\frac{\theta}{\pi}+1\leq 1\right)\right\}=\{(r,\theta): r\geq 0, -\pi \leq \theta\leq \pi\}$$

Então, $ R, \Theta $ são independentes com $ \Theta \sim U[-\pi,\pi] $ e $ R\sim Rayleigh  $.

(b) Mostre que $ Z $ e $ W $, defindas por $ Z= R \cos(\Theta) $ e $ W= R\sin(\Theta) $, são independentes com distribuição comum $ N(0,1) $.
Temos que $ Z=R\cos(\Theta) $ e $ W=R\sin(Theta) $, o que implica que o Jacobiano é dado por

$$J_{(Z,W);(R,\Theta)}=\Biggl|\begin{array}{l}\cos(\Theta) \quad \quad \quad -R\sin(\Theta) \\ \sin(\Theta) \quad \quad \quad \quad R\cos(\Theta) \end{array}\Biggl|=R\left(\cos^2(\Theta)+\sin^2(\Theta)\right)=R$$

Então,

$$J_{(R,\Theta);(Z,W)}=\frac{1}{J_{(Z,W);(R,\Theta)}}=\frac{1}{R}$$

Desta forma,

$$f_{Z,W}(z,w)=\bigg|J_{(R,\Theta);(Z,W)}\bigg|f_{R,\Theta}(h^{-1}(r),h^{-1}(\theta))=\frac{1}{r}\frac{1}{2\pi}re^{-\frac{z^2+w^2}{2}} = \frac{1}{\sqrt{2\pi}}e^{-z^2/2}\frac{1}{\sqrt{2\pi}}e^{-w^2/2}, \quad -\infty\textless z\textless \infty, \quad -\infty \textless w\textless \infty$$

Então, Z é independente de W e $ Z,W\sim N(0,1) $

 

Exemplo 2.8.26:

(a) Se $ X $ e $ Y $ tem densidade conjunta $ f(x,y) $, ache a densidade conjunta de $ W $ e $ Z $, no qual $ W=aX+b $ e $ Z=cY+d $, $ a\textgreater 0 $, $ c\textgreater 0 $, $ b,d \in \mathbb{R} $.
Usando o método Jacobiano,  temos que
$ W=aX+b $ o que implica que $ X=\frac{1}{a}\left(W-b\right) $ e $ Z=cY+d $ o que implica que $ Y=\frac{1}{c}(Z-d) $. Então,

$$J_{(X,Y);(W,Z)}=\Biggl|\begin{array}{l}\frac{1}{a} \quad \quad 0 \\ 0 \quad \quad \frac{1}{a} \end{array} \Biggl|=\frac{1}{ac}$$

e portanto,

$$f_{W,Z}(w,z)=\bigg|J_{(X,Y);(W,Z)}\bigg|f_{X,Y}\left(\frac{1}{a}\left(w-b\right),\frac{1}{c}(z-d)\right)= \frac{1}{ab}f_{X,Y}\left(\frac{1}{a}\left(w-b\right),\frac{1}{c}(z-d)\right)$$

para $ -\infty\textless w\textless \infty $ e $ -\infty\textless z\textless \infty $
(b) Seja $ (X,Y) $ um vetor aleatório tendo distribuição normal bivariada com densidade dada no Exemplo 2.1.13. Qual a densidade de

$$(W,Z)=\left(\frac{X-\mu_1}{\sigma_1}, \frac{Y-\mu_2}{\sigma_2}\right)?$$

Que distribuição é essa ?
Temos que

$$f_{X,Y}(x,y)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1-\rho^2)}\left[\left(\frac{X-\mu_1}{\sigma_1}\right)^2- 2\rho\left(\frac{X-\mu_1}{\sigma_1}\right)\left(\frac{y-\mu_2}{\sigma_2}\right)+\left(\frac{y-\mu_2}{\sigma_2}\right)^2\right]\right\},$$

no qual $ \sigma_1\textgreater 0 $, $ \sigma_2\textgreater 0 $, $ -1\textless \rho \textless 1 $, $ \mu_1\in \mathbb{R} $ e $ \mu_2\in \mathbb{R} $.

Agora, temos que $ W=\frac{X-\mu_1}{\sigma_1} $ o que implica que se $ a=\frac{1}{\sigma_1} $ e $ b=-\frac{\mu_1}{\sigma_1} $ o que implica que $ W=aX+b $.
Então, temos que $ Z=\frac{Y-\mu_2}{\sigma_2} $ o que implica que se $ c=\frac{1}{\sigma_2} $ e $ b=-\frac{\mu_2}{\sigma_2} $ o que implica que $ Z=cY+d $.
Usando o item (a) temos que

$$f_{W,Z}(w,z)=\frac{\sigma_1 \sigma_2}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1+\rho^2)}\left[w^2-2\rho wz+z^2\right]\right\} = \frac{1}{2\pi\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1+\rho^2)}\left[w^2-2\rho wz+z^2\right]\right\}$$

com $ -\infty\textless w\textless \infty $ e $ -\infty\textless z\textless \infty $. A qual é um distribuição normal bivariada com coeficiente de correlação $ \rho $. No qual, $ W\sim N(0,1) $ e $ Z\sim N(0,1) $.

(c) Se $ (X,Y) $ tem distribuição uniforme no círculo unitário

 x^2+y^2\leq 1\},$$

qual a distribuição conjunta de $ W $ e $ Z $ (como definidas no item (a))?
Temos que

$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\displaystyle \frac{1}{\pi}, (x,y)\in A\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

no qual  x^2+y^2\leq 1\} $. Então, se $ W=aX+b $ e $ a\textgreater 0 $ e $ Z=cY+b $ e $ c\textgreater 0 $, temos então

\frac{1}{a^2}(w-b)^2+\frac{1}{c^2}(z-d)^2\leq 1\right\}\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.27:

Suponha que $ X $ e $ Y $ sejam independentes com $ X\sim \Gamma (\alpha_1,1) $ e $ Y\sim \Gamma(\alpha_2,1) $, onde $ \alpha_1\textgreater 0 $ e $ \alpha_2\textgreater 0 $. Mostre que $ X+Y $ e $ X/Y $ são independentes e ache as suas distribuições.
Defina $ W=X+Y $ e $ Z=\frac{X}{Y} $ então $ X=\frac{ZW}{Z+1} $ e $ Y=\frac{W}{Z+1} $ o implica que o jacobiano é dado por

$$J_{(X,Y),(W,Z)}=\Biggl|\begin{array}{l}\frac{Z}{Z-1}\quad \quad \quad \frac{W}{(Z+1)^2}\\ \frac{1}{Z+1} \quad \quad -\frac{W}{(1+Z)^2} \end{array}\Biggl|=-\frac{W(Z+1)}{(Z+1)^2}=-\frac{W}{Z+1}=-Y.$$

Agora como $ X\sim \Gamma(\alpha_1,1) $ e $ Y\sim \Gamma(\alpha_2,1) $ e como $ X $ e $ Y $ são independentes temos que

$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\frac{x^{\alpha_1-1}e^{-x}}{\Gamma(\alpha_1)}\frac{y^{\alpha_2-1}e^{-y}}{\Gamma(\alpha_2)}, \quad x\textgreater 0, y\textgreater 0\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Então, pelo método Jacobiano temos que

$$f_{W,Z}(w,z)=\bigg|J_{(X,Y),(W,Z)}(w,z)\bigg|f_{X,Y}\left(\frac{zw}{z+1},\frac{w}{z+1}\right)=$$

$$\left\{ \begin{array}{l} \frac{w\left(\frac{z}{z+1}\right)^{\alpha_1-1}w^{\alpha_1-1}\left(\frac{1}{(z+1)}\right)^{\alpha_2-1}w^{\alpha_2-1}}{(z+1)\Gamma(\alpha_1)\Gamma(\alpha_2)} e^{-w}= \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)}\frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)}, w\textgreater 0, z\textgreater 0 \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

Note que

$$\int_0^{\infty}\frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)}dw=1$$

pois é a densidade da $ \Gamma(\alpha_1+\alpha_2,1) $. Além disso, temos que

$$\int_0^\infty \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} dz = \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} \int_0^\infty \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} dz=1$$

Então, $ W=X+Y $ e $ Z=\frac{X}{Y} $ são independentes com

$$f_W(w)=\left\{\begin{array}{l}\displaystyle \frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)} ,w\geq 0 \\ \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

e

$$f_Z(z)=\left\{\begin{array}{l}\displaystyle \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} ,z\geq 0 \\ \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.28:

Suponha que $ X_1,X_2,\dots, X_n $ formem uma amostra aleatória de uma distribuição com densidade $ f(x) $. Mostre que

$$\mathbb{P}(X_1\textless \dots \textless X_n)=\frac{1}{n!}$$

e que

$$\mathbb{P}(X_i=X_j \text{ para algum par } (i,j) \text{ tal que } i \neq j)=0$$

Temos que se $ X_1,X_2, \dots X_n $ são uma amostra aleatória, então são variáveis aleatórias independentes e identicamente distribuídas então $ X_1,X_2, \dots X_n $ é invariantes para permutações e possuem densidade conjunta $ [f(X_1),f(X_2),\dots, f(X_n)] $ assim pelo exemplo 2.4.9(b) temos que

$$\mathbb{P}(X_1\textless \dots \textless X_n)=\frac{1}{n!}$$

e

$$\mathbb{P}(X_i=X_j \text{ para algum par } (i,j) \text{ tal que } i \neq j)=0$$

 

Exemplo 2.8.29:

Suponha que $ X_1,X_2, \dots X_n $ sejam independentes e identicamente distribuídas, com densidade comum $ f $. Mostre que a densidade conjunta de

$$U=\min_{1\leq i\leq n} X_i \quad \quad\quad \quad  e \quad \quad \quad \quad V=\max_{1\leq i \leq n}X_i$$

é

$$f_{U,V}(u,v)=\left\{\begin{array}{l}n(n-1)[F(v)-F(u)]^{n-2}f(u)f(v), \quad \quad se \quad \quad  u\textless v  \\ \\ \\ 0, u\geq v.\end{array}\right.$$

Temos que

$$\mathbb{P}(V\leq v)=\mathbb{P}(X_1\textless v, \dots, X_n\textless v)=\left[\mathbb{P}(X_1\leq v)\right]^n=\left[F(v)\right]^n$$

isso devido ser independente e identicamente distribuídos. Então, temos que

$$F_{U,V}(u,v)=\mathbb{P}(U\leq u, V\leq v)=\mathbb{P}(V\leq v)-\mathbb{P}(U\textgreater u, V\leq v)=\left[F(v)\right]^n -\mathbb{P}(U\textgreater u, V\leq v)$$

Agora, temos que

$$\mathbb{P}(U\textgreater u, V\leq v)=\mathbb{P}(u\textless X_1\leq v, u\textless X_2\leq v, \dots , u\textless X_n\leq v)$$

como é independente e identicamente distribuídos  temos que

$$\mathbb{P}(U\textgreater u, V\leq v)=\left[\mathbb{P}(u\textless X_1\leq v)\right]^n =\left[F(v)-F(u)\right]^n$$

Portanto temos que

$$F_{U,V}(u,v)=\left\{\begin{array}{l}\left[F(v)\right]^n -[F(v)-F(u)]^{n}, \quad \quad se \quad \quad  u\textless v  \\ \\ \\ 0, u\geq v \end{array}\right.$$

então

$$f_{U,V}(u,v)=\frac{d^2F_{U,V}(u,v)}{dudv}=\left\{\begin{array}{l}\frac{d}{dv}\left(n[F(v)-F(u)]^{n-1}f(u)\right)=n(n-1)[F(v)-F(u)]^{n-2}f(u)f(v), \quad \quad se \quad \quad  u\textless v  \\ \\ \\ 0, u\geq v.\end{array}\right.$$

 

Exemplo 2.8.30

Sejam $ X_1,X_2, \dots X_n $ variáveis independentes e identicamente distribuídas, com densidade $ U[0,\theta] $, no qual $ \theta \textgreater 0 $. Sejam

$$U=\min_{1\leq i\leq n} X_i \quad \quad\quad \quad  e \quad \quad \quad \quad V=\max_{1\leq i \leq n}X_i$$

(a)Prove que a densidade conjunta de $ (U,V) $ é

$$f_{U,V}(u,v)=\left\{\begin{array}{l}\frac{n(n-1)(v-u)^{n-2}}{\theta^n}, \quad 0\leq u\textless v \leq \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

Como $ X_1\sim U[0,\theta] $ então

$$F_{X_1}(x)=F(x)=\left\{\begin{array}{l}0, x\textless \\ \\ \\ \displaystyle \frac{x}{\theta}, 0\leq x \textless \theta \\ \\ \\ 1 , x\geq \theta \end{array}\right.$$

e

$$f_{X_1}(x)=f(x)=\left\{\begin{array}{l}\frac{1}{\theta}, 0\leq x\leq \theta \\ \\ \\  0 , \text{ Caso Contrário } \end{array}\right.$$

Aplicando o resultado do exemplo 2.8.29, temos que

$$f(u,v)=\left\{\begin{array}{l}\frac{n(n-1)(v-u)^{n-2}}{\theta^n}, 0\leq u\textless v \textless \theta \\ \\ \\  0 , \text{ Caso Contrário } \end{array}\right.$$

(b) Prove que a densidade de $ V-U $ está dada por

$$f(w)=\left\{\begin{array}{l}\frac{n(n-1)(w)^{n-2}}{\theta^{n-1}}\left(1-\frac{w}{\theta}\right), \quad 0\leq w\textless \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

Temos que

$$F_W(w)=\mathbb{P}(W\leq w)=\mathbb{P}(V-U\leq w)=\int_0^w \int_0^v f(u,v)du dv+\int_w^\theta \int_{v-w}^v f(u,v)dudv$$

no qual

$$\int_0^w \int_0^v f(u,v)du dv= \int_0^w \int_0^v\frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv$$

fazendo uma mudança de variável $ x=v-u $ e $ dx=-du $ então

$$\int_0^w \int_0^v\frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv=\int_0^w \frac{n(n-1)}{\theta^n}\int_{0}^v x^{n-2}dx=\int_0^w \frac{n(n-1)}{\theta^n(n-1)}v^{n-1}dv=\left[\frac{w}{\theta^n}\frac{v^n}{n}\right]_0^w=\left(\frac{w}{\theta}\right)^n $$

Também temos que

$$\int_w^\theta \int_{v-w}^v f(u,v)dudv=\int_w^\theta \int_{v-w}^v \frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv$$

fazendo novamente uma mudança de variável $ x=v-u $ e $ dx=-du $ então

$$\int_w^\theta \int_{v-w}^v \frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv=\int_w^\theta \frac{n(n-1)}{\theta^n}\int_0^w x^{n-2}dx=\frac{n(n-1)}{\theta^n(n-1)}\int_w^\theta w^{n-1}dv=\frac{nw^{n-1}}{\theta^n}(\theta-w)=n\left(\frac{w^{n-1}}{\theta^{n-1}}-\frac{w^n}{\theta^n}\right)$$

Então,

$$F_W(w)=\left\{\begin{array}{l} -\frac{(n-1)w^n}{\theta^n}+ n\frac{w^{n-1}}{\theta^{n-1}}, 0\leq w\leq \theta\\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

Então derivando temos que

$$f(w)=\frac{dF_W(w)}{dw}=\left\{\begin{array}{l}-n(n-1)\frac{w^{n-1}}{\theta^{n-1}}+n(n-1)\frac{w^{n-2}}{\theta^n}  =\frac{n(n-1)(w)^{n-2}}{\theta^{n-1}}\left(1-\frac{w}{\theta}\right), \quad 0\leq w\textless \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.31:

Se $ X_1,X_2, \dots, X_n $ são independentes com distribuição comum $ U[0,1] $, mostre que

$$-2n\ln Y\sim \chi^2(2n),$$

no qual Y é a média geométrica das $ X_i $ definida por

$$Y=\left(\prod_{i=1}^n X_i\right)^{1/n}$$

Temos que se $ X_1\sim U[0,1] $ então pelo exemplo 2.4.6,  $ \ln(X_1) \sim Exp(1)=\Gamma(1,1) $ (ver Observação 6.12.2 ).
Então:

$$n\ln(Y)=-\ln(Y^n)=-\ln\left(\prod_{i=1}^n X_i\right)=-\sum_{i=1}^n \ln(X_i).$$

Agora pela propriedade hereditária da independência e com distribuição $ \Gamma(1,1) $. Assim,

$$-n\ln(Y)\sim \Gamma(n,1)$$

Agora, fazendo $ Z=-n\ln(Y) $. Então, seja $ W=2Z $.

$$f_W(w)=\frac{1}{2}f_Z(w/2)=\frac{1}{2}\frac{1}{\Gamma(n)}\left(\frac{w}{2}\right)^{n-1}e^{-w/2}, \quad \quad w\textgreater 0.$$

Então, $ W=2n\ln Y\sim \Gamma\left(n,\frac{1}{2}\right) $. Agora como $ \chi^2(n) $ tem a mesma distribuição de $ \Gamma\left(\frac{n}{2},\frac{1}{2}\right) $(Observação 6.3.1 ) .
Além disso, temos que $ \chi^2(2n) $ tem a mesma distribuição de $ \Gamma\left(n,\frac{1}{2}\right) $, o que implica que $ -2n\ln(Y)\sim \chi^2(2n) $

 

Exemplo 2.8.32:

Mostre que se $ X\sim t(1) $, então X tem distribuição de Cauchy

Pela definição da variável t de student temos que se $ Z $ e $ Y $ independentes com $ Z\sim N(0,1) $ e $ Y\sim \chi^2(n) $ então

$$\frac{Z}{\sqrt{Y/n}}\sim t(n)$$

Agora  se $ n=1 $, defina $ W=\sqrt{Y} $ o que implica que $ Y=W^2 $, usando o método Jacobiano temos que $ J_{(Y,W)}=2W $ e então:

$$f_W(w)=2wf_Y(w^2)=\left\{\begin{array}{l}\displaystyle2w\frac{1}{\sqrt{2\pi w^2}}e^{-w^2/2}=\frac{2}{\sqrt{2\pi}}e^{-w^2/2}, \quad \quad w\textgreater 0\\ \\ \\ 0, \quad \quad \quad \text{Caso Contrário }\end{array}\right.$$

\end{example}
se Z e W são independentes o que implica

$$f_{Z,W}(z,w)=\left\{\begin{array}{l}\displaystyle \frac{2}{\sqrt{2\pi}}e^{-w^2/2}\frac{1}{\sqrt{\pi}}e^{-z^2/2}, \quad \quad w\textgreater 0 \quad \quad \quad -\infty \textless z\textless \infty\\ \\ \\ 0, \quad \quad \quad \text{Caso Contrário }\end{array}\right.$$

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]