2.8 - Distribuição de probabilidade conjunta de funções de variáveis aleatórias

Você está aqui

Sejam $X_1$ e $X_2$ variáveis aleatórias conjuntamente contínuas com densidade de probabilidade conjunta $f_{X_1,X_2}$. Algumas vezes estamos interessados em obter a distribuição conjunta das variáveis aleatórias $Y_1$ e $Y_2$ que são funções de $X_1$ e $X_2$. Especificamente, suponha que $Y_1=g_1(X_1,X_2)$ e $Y_2=g_2(X_1,X_2)$ para funções $g_1$ e $g_2$.

Assuma que as funções $g_1$ e $g_2$ satisfaçam as seguintes condições:

  1. As equações $y_1=g_1(x_1,x_2)$ e $y_2=g_2(x_1,x_2)$ podem ser unicamente resolvidas para $x_1$ e $x_2$ nos termos de $y_1$ e $y_2$ com soluções dadas por, digamos, $x_1=h_1(y_1,y_2)$ e $x_2=h_2(y_1,y_2)$
  2. As funções $g_1$ e $g_2$ tem derivadas parciais contínuas em todos os pontos $(x_1,x_2)$ e são tais que o seguinte determinante $2×2$

\[J(x_1,x_2)=\left|\begin{array}{c}\frac{\partial g_1}{\partial x_1} \ \frac{\partial g_1}{\partial x_2}\\ \frac{\partial g_2}{\partial x_1} \ \frac{\partial g_2}{\partial x_2}\end{array}\right|=\frac{\partial g_1}{\partial x_1}\frac{\partial g_2}{\partial x_2}-\frac{\partial g_1}{\partial x_2}\frac{\partial g_2}{\partial x_1}\neq0\]

 

para todos os pontos $(x_1,x_2)$. Sob essas duas condições podemos mostrar que as variáveis aleatórias $Y_1$ e $Y_2$ são continuamente conjuntas com função densidade conjunta dada por

\[f_{Y_1Y_2}(y_1,y_2)=f_{X_1,X_2}(x_1,x_2)|J(x_1,x_2)|^{-1}\]

 

em que $x_1=h_1(y_1,y_2)$ e $x_2=h_2(y_1,y_2)$.

Exemplo 2.8.1:

Sejam $X_1$ e $X_2$ variáveis aleatórias conjuntamente contínuas com função densidade de probabilidade conjunta $f_{X_1,X_2}$. Sejam $Y_1=X_1+X_2$ e $Y_2=X_1-X_2$. Encontre a função densidade acumulada de $Y_1$ e $Y_2$ em termos de $f_{X_1,X_2}$.

Seja $g_1(x_1,x_2)=x_1+x_2$ e $g_2(x_1,x_2)=x_1-x_2$. Então

\[J(x_1,x_2)=\left|\begin{array}{c} 1 \ \ \ \ \ 1\\ 1 \ -1\end{array}\right|=-2\]

 

Além disso, as equações $y_1=x_1+x_2$ e $y_2=x_1-x_2$ têm como soluções $x_1=(y_1+y_2)/2$ e $x_2=(y_1-y_2)/2$ e então, segue que a densidade desejada é dada por

\[f_{Y_1,Y_2}(y_1,y_2)=\frac{1}{2}f_{X_1,X_2}\left(\frac{y_1+y_2}{2},\frac{y_1-y_2}{2}\right)\]

 

Soma de variáveis aleatórias e multiplicação por constante 

É importante ser capaz de calcular a distribuição de $aX + bY$ a partir das distribuições de $X$ e $Y$ quando $X$ e $Y$ são independentes, e $a$ e $b$ são constantes.

Teorema 2.8.1: 

Suponha que $X$ e $Y$ são variáveis aleatórias contínuas com função densidade de probabilidade conjunta $f$ e seja $Z=aX+bY$. Então

\[F_Z(z)= \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dtds.\]

 

Demonstração:

De fato, temos que

\[F_Z(z)=\mathbb{P}(Z\leq z)=\mathbb{P}(aX+bY \leq z)=\int_{ax+by\leq z}f(t)dt= \int_{-\infty}^{\infty}\int_{- \infty}^{\frac{z-by}{a}}f(x,y)dx dy.\]

 

Considerando a mudança de variável $s=ax+by$ e $t=y$, temos que $s=ax+bt \Rightarrow x=\frac{s-bt}{a}$ e que além disso o determinante da matriz jacobiana é dado por

\[J=\left|\begin{array}{c}\frac{\partial x}{\partial s} \ \frac{\partial x}{\partial t} \\ \frac{\partial y}{\partial s} \ \frac{\partial y}{\partial t} \end{array} \right|=\left|\begin{array}{c}\frac{1}{a} \ -\frac{b}{a} \\ 0 \ 1 \end{array} \right| = \frac{1}{a}.\] 

 

portanto

\[\int_{-\infty}^{\infty}\int_{- \infty}^{z}\left|\frac{1}{a}\right| f\left(\frac{s-bt}{a},t\right)ds dt= \int_{-\infty}^{z}\int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dt ds\]

 

e, assim concluímos que a fdp da variável aleatória $Z = aX+bY$ é dada por

\[f_Z(s)=\int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dt,\]

 

e que a sua função de distribuição acumulada é dada por 

\[F_Z(z)= \displaystyle \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right)dtds.\]

 

Teorema 2.8.2: 

Suponha que $X$ e $Y$ são variáveis aleatórias contínuas independentes com funções densidades de probabilidades $f_X$ e $f_Y$ e seja $Z=aX+bY$. Então

\[F_Z(z)= \int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f_X\left(\frac{s-bt}{a}\right)f_Y(t)dtds.\]

 

Para verificar que este teorema é verdadeiro, basta aplicars o Teorema 2.8.1 e utilizarmos a hipótese de independência das variáveis $X$ e $Y$. Portanto $f(\frac{s-bt}{a},t)=f_X(\frac{s-bt}{a})f_Y(t)$ e o resultado segue.

Quando $a$ e $b$ são iguais a $1$ então $f_{Z}(s)$ é chamada de convolução das distribuições $f_X$ e $f_Y$.

Exemplo 2.8.2: 

Seja $A=\{(x,y):0\leq x \leq 1, 0\leq y \leq 1 \ \text{e} \ x+y\leq 1\}$, ou seja, A é um triângulo. Suponha que $X$ e $Y$ tenham densidade conjunta dada por

 \[f(x,y)=\left\{\begin{array}{l} 2, \ \text{se} \ (x,y) \in A \\ 0, \ \text{caso contrário.} \end{array}\right.\]

 

Qual a distribuição de $Z = X+Y$? 

Para calcular essa distribuição basta usarmos o teorema 2.8.2 no qual $a=1$ e $b=2$, então neste caso

\[F_Z(z)=\int_{-\infty}^{z} \int_{- \infty}^{\infty}\frac{1}{|a|}f\left(\frac{s-bt}{a},t\right) dt ds=\int_{0}^{z}\int_{0}^{z-x}2 dy dx=z^{2}\]

 

Teorema 2.8.3: 

Seja $X$ uma variável aleatória com densidade de probabilidade $f_X$. Então a densidade de probabilidade de $X^{2n}$ é dada por

 \[f(z)=\left\{\begin{array}{l} \displaystyle \frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\]

 

no qual o conjunto $A$ depende da variável aleatória $X$.

Seja $Z=X^{2n}$. Temos então que:

\[F_Z(z)=\mathbb{P}(Z\leq z)=\mathbb{P}(X^{2n}\leq z)=\mathbb{P}(|X|\leq z^{\frac{1}{2n}})=\mathbb{P}(-z^{\frac{1}{2n}}\leq X \leq z^{\frac{1}{2n}})\]

 

de onde segue que

\[F_Z(z)=\int_{-z^{\frac{2}{2n}}}^{-z^{\frac{2}{2n}}}f_X(t)dt=\int_{-z^{\frac{2}{2n}}}^{0}f_X(t)+\int_{0}^{-z^{\frac{2}{2n}}}f_X(t)\]

 

e, utilizando o teorema de cálculo de mudança de variável, segue que 

\[\int_{-z^{\frac{2}{2n}}}^{0}f_X(t)dt+\int_{0}^{-z^{\frac{2}{2n}}}f_X(t)dt=\int_{0}^{z}\frac{f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}+\int_{0}^{z}\frac{f_X(z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}=\int_{0}^{z}\frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}.\] 

 

Assim a fdp de $Z$ é dada por

\[f(z)=\left\{\begin{array}{l} \frac{f_X(z^{\frac{1}{2n}})+f_X(-z^{\frac{1}{2n}})}{2nz^{\frac{2n-1}{2n}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array}, \right.\]

 

em que $A$ depende da variável aleatória $X$.

Teorema 2.8.4: 

Seja $X$ uma variável aleatória com densidade de probabilidade $f_X$. Então a densidade de probabilidade de $X^2$ é dada por

\[f(z)=\left\{\begin{array}{l}\frac{f_X(\sqrt{z})+f_X(-\sqrt{z})}{2\sqrt{z}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\] 

 

em que $A$ depende da variável aleatória $X$.

Demonstração:

Basta aplicar o Teorema 2.8.3 com $n=1$ e o resultado segue.

Exemplo 2.8.3: 

Suponha que $X$ é uma variável aleatória com densidade de probabilidade dada por

\[f(x)=\left\{\begin{array}{l} 1, \ \text{se} -1\leq x \leq 1\\ 0, \ \text{caso contrário.} \end{array}\right.\]

 

Qual a densidade de probabilidade de $X^4$?

Para resolvermos este exemplo basta utilizar o Teorema 2.8.3 com $n=2$, assim temos que a função densidade de probabilidade de $Z = X^4$ é dada por

\[f(z)=\left\{\begin{array}{l} \frac{f_X(z^{\frac{1}{4}})+f_X(-z^{\frac{1}{4}})}{4z^{\frac{4-1}{4}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array},\right.\]

 

ou seja,

\[f(z)=\left\{\begin{array}{l} \frac{2}{4z^{\frac{3}{4}}}, \ \text{se} \ z\in A \\ 0, \ \text{caso contrário.}\end{array}\right.\]

 

em que $A$ depende da variável aleatória $X$, e neste caso $A=\{z \in \mathbb{R}| 0\leq z \leq 1\}$.

 

Teorema 2.8.5: 

Suponha que $X$ é uma variável aleatória com densidade de probabilidade $f_X$. Então a densidade de probabilidade de $Y = |X|$ é dada por

\[f(y)=\left\{\begin{array}{l} f_X(y)+f_X(-y), \ \text{se} \ y\in A \\ 0, \ \text{caso contrário. }\end{array},\right.\]

 

em que $A$ depende da variável aleatória $X$.

Seja $Y=|X|$, então

\[F_Y(y)=\mathbb{P}(Y\leq y)=\mathbb{P}(|X|\leq y)=\mathbb{P}(-y\leq X \leq y)=\int_{-y}^{y}f_X(t)dt=\int_{0}^{y}f_X(t)dt+\int_{-y}^{0}f_X(t)dt\]

 

de onde segue que

\[F_Y(y)=\int_{0}^{y}f(t)+f(-t)dt.\]

 

Portanto a fdp de $Y$ é dada por

\[f(y)=\left\{\begin{array}{l} f_X(y)+f_X(-y), \ \text{se} \ y\in A \\ 0, \ \text{caso contrário. }\end{array},\right.\]

 

em que o conjunto $A$ depende da variável aleatória $X$.

 

Exemplo 2.8.4

Sejam $X$ e $Y$ variáveis aleatórias independentes com distribuição uniforme em $[\Theta -1/2, \Theta+1/2]$, no qual $\Theta \in \mathbb{R}$. Prove que a distribuição de $X-Y$ não depende de $\Theta$, achando sua densidade.
$X$ e $Y$ independentes implica que
$$f_{X,Y}(x,y)=f_X(x)f_Y(y)=\left\{\begin{array}{c}1,(x,y)\in [\Theta-1/2,\Theta+1/2]^2 \\ \\ 0, \quad se\quad k\leq -1 \end{array}\right.$$
Assim, considere $k\leq 0$:

$$\mathbb{P}(X-Y\leq k)=\left\{\begin{array}{l}\displaystyle \int_A\int 1dx dy=\frac{1}{2}(1+k)^2, se \quad \quad -1\leq k\leq 0 \\ \\ 0, \text{Caso Contrário} \end{array}\right.$$
Analogamente, por simetria para $k> 0$
$$\mathbb{P}(X-Y\leq k)=\left\{\begin{array}{c}1-\frac{1}{2}(1+k)^2, se \quad \quad 0\leq k\leq 1 \\ 0, se \quad \quad k> 1. \end{array}\right.$$
Então,
$$f(t)=\left\{\begin{array}{l}1+t, se \quad \quad -1 \leq t\leq 0 \\ \\ (1-t), se \quad \quad 0< t< 1\\ \\ 0, t\in (-\infty,-1)\cup(1,\infty). \end{array}\right.$$

 

Exemplo 2.8.5:

Sejam as variáveis aleatórias $X_1, \dots, X_n$ independentes e exponenciais com parâmetros $\alpha_1, \dots, \alpha_n$.
(a) Mostre que a distribuição de $Y=\min_{1\leq i\leq n} X_i$ é exponencial. Qual o parâmetro ?
Considere $y> 0$
$$\mathbb{P}(Y> y)=\mathbb{P}(X_1> y,\dots, X_n>)=\prod_{i=1}^n \mathbb{P}(X_i> y)=e^{-(\sum_{i=1}^n\alpha_i)y}$$
o que implica que
$$\mathbb{P}(Y\leq y)=1-e^{-(\sum_{n}^\infty \alpha_i)y}$$
Agora considere $y\leq 0$
$$\mathbb{P}(Y> y)=1$$
o que implica que
$$\mathbb{P}(Y\leq y)=0$$
Então $Y\sim Exp\left(\sum_{i=1}^n \alpha_i \right)$

(b) Prove que para $k=1,\dots,n$
$$\mathbb{P}(X_k=\min_{1\leq i\leq n} X_i)=\frac{\alpha_k}{\alpha_1+\dots+\alpha_n}.$$
Temos que o evento
$$[X_k=\min_{1\leq i\leq n} Y_i]=[X_k\leq \min_{i\neq k}]$$
Agora, fazendo $U_k=\min_{i\neq k} X_i$, temos que $X_k$ e $U_k$ são independentes então
$$f_{X_k,U_k}(x,u)=f_{X_k}(x)f_{U_k}(u)=\left\{\begin{array}{c} \alpha_k \sum_{i\neq k}\alpha_i e^{-\left[(\sum_{i\neq k}\alpha_i)u+\alpha_k x\right]}, x> 0\\ 0, \text{ Caso Contrário .}\end{array}\right.$$
Então
$$\mathbb{P}\left(X_k=\min_{1\leq i \leq n} X_i\right)=\mathbb{P}\left([X_k\leq U_k]\right)=\int_0^\infty \int_0^u \alpha_u\left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u}e^{-\alpha_k x}dx du$$
$$=\int_0^\infty \left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u}\left[-e^{-\alpha_u x}\right]_0^u du= \int_0^\infty \left(\sum_{i\neq k}\alpha_i\right)e^{-\left(\sum_{i\neq k}\alpha_i\right)u} \left(1-e^{-\alpha_k u}\right)du $$
$$=1-\frac{\sum_{i\neq k}\alpha_i }{\sum_{i=1}^n \alpha_i}=\frac{\alpha_k}{\alpha_1+\dots +\alpha_n}$$

 

Exemplo 2.8.6:

Seja $X$ uma variável aleatória cuja função de distribuição F é uma função contínua na reta. Prove que a distribuição de $Y=F(X)$ é $U[0,1]$.

Suponha que $F$ é estritamente crescente e contínua, então existe inversa
$$F^{-1}:[0,1]\rightarrow \mathbb{R}$$
e portanto sejam $a,b\in [0,1]$, $a< b$:
$$\mathbb{P}(a< Y \leq b)=\mathbb{P}(a< F(X)\leq b)=\mathbb{P}(F^{-1}(a)< X\leq F^{-1}(b))=F(F^{-1}(b))-F(F^{-1}(a))=b-a$$
então como $\mathbb{P}(0\leq Y\leq 1)=1$, temos que $Y\sim U[0,1]$.

Caso geral, se $F$ é contínua, não-decrescente em $\mathbb{F}$ e contínua, com $\lim_{x\rightarrow \infty}F(x)=1$ e $\lim_{x\rightarrow -\infty}F(x)=0$. Então $F$ será constante em uma união disjuntas enumerável de intervalos fechados, ou seja no conjunto
$$A=\bigcup_{i} I_i$$
no qual $I_i=[a_i,b_i]$, com $a_i< b_i< a_{i+1}< b_{i+1}$, para todo $i \in \mathbb{N}$. E também $F$ será estritamente em
$$B=\mathbb{R}-A=\bigcup_j J_j$$
no qual $J_j=(b_j,a_{j+1})$. Então, $F$ é estritamente crescente quando restrita a B. Se $x\in \mathbb{R}$ e $x\notin B$, o que implica que existe um $i_2$ tal que $a_{i_2}\leq x\leq b_{i_2}$ com $F(x)=F(a_{i_2})=F(b_{i_2})$. Desta forma,
$$\left\{\begin{array}{l} x\in A \Rightarrow F(x)\in F(a_1), F(a_2)\dots \\ \\ x\in B\Rightarrow F(x)\in \underbrace{[0,1]-\{F(a_1),F(a_2),\dots \}}_{B}\end{array}\right.$$
Desta forma temos que a função
$F|_B: B\rightarrow F(B)$, então $F|_B$ é contínua e estritamente crescente, o que implica que existe uma função
$$(F|_B)^{-1}:[0,1]\rightarrow B.$$
Agora, sejam $w,z\in [0,1]$ e $w< z$. Então,
$$\mathbb{P}(w< Y\leq z)=\mathbb{P}(w< F(X)\leq z)$$
temos então 4 possibilidades
$$\left\{\begin{array}{l} I) w,z \in F(B) \\ \\ II) w \in F(B), z\notin F(B)\\ \\ III) w\notin F(B), z\in F(B)\\ \\ IV) w\notin F(B), z\notin F(B)\end{array}\right.$$

$$I) \mathbb{P}(w< F(x)\leq z)=\mathbb{P}((F|_B)^{-1}(w)< X\leq (F|_B)^{-1}(z))=F((F|_B)^{-1}(z))-F((F|_B)^{-1}(w))=z-w$$

$$II) \mathbb{P}(w< F(x)\leq z)=\mathbb{P}(w< F(X)< z)+\mathbb{P}(F(X)=z)=\mathbb{P}(w< F(X)< z)$$

$$= \mathbb{P}((F|_B)^{-1}(w)< X< (F|_B)^{-1}(z-))=F((F|_B)^{-1}(z))-F((F|_B)^{-1}(w))=z-w$$
observe que $\mathbb{P}(F(X)=z)=0$, pois
$\mathbb{P}(F(X)=z)=\mathbb{P}(a_{i_j}\leq X\leq b_{i_j})=F(b_{i_j})-F(a_{i_j})=0$
Para o caso $III$ e $IV$, é analogo, com isso temos que  $Y\sim U[0,1]$.

 

Exemplo 2.8.7:

(a) As variáveis $X,Y$ e $Z$ são independentes, cada uma uniformemente distribuída no intervalo $[0,1]$. Determine
$$\mathbb{P}(X< Y < Z)$$
e
$$\mathbb{P}(X\leq Y\leq Z)?$$

Como $X,Y$ e $Z$ são independentes então
$$f(x,y,z)=f_X(x)f_Y(y)f_Z(z)=\left\{\begin{array}{l} 1, 0\leq x\leq 1, 0\leq y\leq 1 \quad e\quad 0\leq z\leq 1 \\ \\ 0, \text{Caso Contrário} \end{array}\right.$$
então:
$$\mathbb{P}(X\leq Y\leq Z)=\mathbb{P}(X\leq Y\leq Z)=\mathbb{P}(X< Y< Z)=\int_0^1\int_0^z\int_0^y 1dxdydz=\int_0^1\int_0^z ydydz=\int_0^1\frac{z^2}{2}dz=\frac{1}{6}$$

(b) Se $X,Y$ e $Z$ são independentes e independentes e identicamente distribuídas, e a função de distribuição comum F é contínua, qual é
$$\mathbb{P}(X< Y< Z)?$$
Temos
$$\mathbb{P}(X< Y< Z)=\mathbb{P}(X\leq Y \leq Z)$$
pois é absolutamente contínua. Como $F$ contínua não decrescente e $F(x)\geq 0$, para $\forall x$.
$$\mathbb{P}(F(x)\leq F(y)\leq F(z))=\frac{1}{6}$$
pelo exemplo 2.8.6 pelo item (a).

 

Exemplo 2.8.8:

(a) Sejam X e Y independentes com distribuições de Poisson tendo, respectivamente, parâmetro $\lambda_1$ e $\lambda_2$. Mostre que $X+Y \sim Poisson(\lambda_1+\lambda_2)$.

$$[X+Y=k]=\bigcup_{n=0}^k ([X=n]\cap[Y=k-n]), k=0,1,2,\dots$$
então
$$\mathbb{P}(X+Y=k)=\sum_{n=0}^k \mathbb{P}(X=n,Y=k-n)=\sum_{n=0}^k \mathbb{P}(X=n)\mathbb{P}(Y=k-n)=\sum_{n=0}^k \frac{\lambda_1^n}{n!}e^{-\lambda_1}\frac{\lambda_2^{k-n}}{(k-n)!}e^{-\lambda_2}$$
$$=\frac{e^{-(\lambda_1+\lambda_2)}}{k!}\sum_{n=0}^k \left(\frac{k!}{n!(k-n)!}\lambda_1^n\lambda_2^{k-n}\right)=\frac{e^{-(\lambda_1+\lambda_2)}}{k!} \sum_{n=0}^k\binom{k}{n}\lambda_1^n \lambda_2^{k-n}=\frac{(\lambda_1+\lambda_2)^k}{k!}e^{-(\lambda_1+\lambda_2)}, k=0,1,2, \dots$$
Assim, $X+Y\sim Poisson(\lambda_1+\lambda_2)$.

(b)Mostre que se $X_1, \dots, X_n$ são independentes tais que $X_i\sim Poisson(\lambda_i)$, $i=1, \dots, n$, então $X_1+\dots +X_n \sim Poisson(\lambda_1+\dots+ \lambda_n)$.

Temos pelo item(a) que $X_1+X_2\sim Poisson(\lambda_1+\lambda_2)$. Agora, suponhamos que $(2< m< n)$ e
$$X_1+X_2+\dots +X_m\sim Poisson(\lambda_1+\dots +\lambda_m).$$
Então, como $(X_1+X_2+\dots +X_m)$ e $X_{m+1}$ são independentes (pela propriedade hereditária) então pelo item (a)
$$X_1+X_2+\dots+X_{m+1}\sim Poisson(\lambda_1+\lambda_2+\dots+\lambda_{m+1})$$
Então por indução:
$$X_1+X_2+\dots+X_n\sim Poisson(\lambda_1+\dots+\lambda_n)$$
E portanto o resultado segue.

 

Exemplo 2.8.9:

Certo supermercado tem duas entradas, A e B. Fregueses entram pela entrada A conforme um processo de Poisson com taxa média de 15 fregueses por minuto. Pela entrada B, entram fregueses conforme outro processo de Poisson, independente do primeiro, a uma taxa média de 10 por minuto.
(a) Seja $X_t$ o número total de fregueses que entram no supermercado até o instante $t$ (inclusive), para $t\geq 0$. Então $\{X_t:t\geq 0\}$ também é processo de Poisson. Qual o parâmetro deste processo?

É um processo de Poisson com parâmetro $\lambda=\lambda_1+\lambda_2=10+15=25$. O parâmetro de $\{X_t:t\geq 0\}$ é $\lambda=\lambda_1+\lambda_2$, pois fixando um determinado t, temos
$$X_t=A_t+B_t$$
no qual
$$A_t=\{\text{ Variável do número de fregueses que entram até } t \text{ por } A\}$$
$$B_t=\{\text{ Variável do número de fregueses que entram até } t \text{ por } B\}$$
$A_t\sim Poisson(\lambda_1 t)$ e $B_t\sim Poisson(\lambda_1 t)$ e $A_t$ independente de $B_t$
pelo item (a) do exemplo 2.8.8. O que implica que $X_t\sim Poisson[(\lambda_1+\lambda_2)t]=25t$.

(b) Seja $T_1$ o tempo em que o primeiro freguês entra pela entrada A, com $V_1$ o tempo em que o primeiro freguês entra pela entrada $B$. Ache a distribuição de $\min(T_1,V_1)$, o mínimo dos dois tempos.

Temos $T_1\sim Exp(\lambda_1)$ e $V_1\sim Exp(\lambda_2)$ com $T_1$ independente de $V_1$. Assim, para $m> 0$, temos
$$\mathbb{P}(M=\min(T_1,V_1)> m)=\mathbb{P}(T_1> m, V_1> m)=\mathbb{P}(T_1> m)\mathbb{P}(V_1> m)=e^{-\lambda_1 m}e^{-\lambda_2 m}=e^{-(\lambda_1+\lambda_2)m}$$
o que implica que $M\sim Exp(\lambda_1+\lambda_2=25)$

(c)Determine a probabilidade de que o primeiro freguês a entrar no mercado entre pela entrada A.
$$\mathbb{P}(T_1=\min(T_1,V_1))=\frac{\lambda_1}{\lambda_1+\lambda_2}=\frac{15}{10+15}=\frac{3}{5}$$
no qual a primeira igualdade segue do exemplo 2.8.5.

 

Exemplo 2.8.10:

Seja A o seguinte triângulo:

Suponha que X e Y tenham densidade conjunta $f(x,y)=c\mathbb{I}_A(x,y)$.

(a) Determine o valor da constante c.
Temos que
$$1=\int_{-\infty}^\infty \int_{-\infty}^\infty f(x,y)dxdy=c\int_{A}\int dxdy=c Area(A)=c\frac{1}{2}\Rightarrow c=2.$$
(b) Calcule a distribuição de X, a de Y e a de $Z=X+Y$.
A distribuição de X:
$$F_X(x)=\int_{-\infty}^{\infty}\int_{-\infty}^{t-x}f(x,y)dydx=2\int_0^t\int_{0}^{t-x}dydx=2\int_0^t(t-x)dx=2\left[tx-\frac{x^2}{2}\right]_0^t=t^2, \quad \quad 0\leq t\leq 1.$$

$$\left\{\begin{array}{l}0, \quad t< 0\\ \\ t^2, \quad 0\leq t\leq 1\\ \\ 1, \quad t> 1.\end{array}\right.$$

(c) X e Y são independentes ? Por que ?
Não, pois
$$\lambda^2\left[\left\{(x,y): f_{X,Y}(x,y)\neq f_X(x)f_Y(y)\right\}\right]> 0$$
Pois,
$$2(1-x)2(1-y)=4(1-x)(1-y)\neq 2 \Rightarrow (1-x)(1-y)\neq \frac{1}{2}$$
e
$$\lambda^2\left[\left\{(x,y):0\leq x\leq 1, 0\leq y\leq 1-x\right\}\cap \left\{(x,y):(1-x)(1-y)\neq \frac{1}{2}\right\}\right]> 0.$$

 

Exemplo 2.8.11:

Se $X$ e $Y$ são as coordenadas de um ponto selecionado, ao acaso, do circulo unitário $\{(x,y): x^2+y^2\leq 1\}$, qual a distribuição da variável aleatória
$$Z=X^2+Y^2?$$
Seja $A=\{(x,y):x^2+y^2\leq 1\}$ então $(x,y)\sim U[A]$, o que implica que
$$f_{X,Y}(x,y)=f(x,y)=\left\{\frac{1}{Area(A)}=\frac{1}{2}, \quad x\in A \\ 0,\quad x\notin A\right.$$
então $0\leq z\leq 1$.
$$\mathbb{P}(Z\leq z)=\mathbb{P}(X^2+Y^2\leq z)=\int_{x^2+y^2\leq z}\int f_{X,Y}(x,y)dxdy=$$

$$\int_{x^2+y^2\leq z}\int \frac{1}{\pi}\mathbb{I}_A dxdy=\frac{1}{\pi}Area\left[\{(x,y):x^2+y^2\leq z\}\cap A\right]=\frac{\pi z^2}{\pi}=z^2$$
Portanto, temos que $Z\sim U[0,1]$.

 

Exemplo 2.8.12:

Sejam $X$ e $Y$ variáveis aleatórias independentes, tendo distribuição comum $U[0,1]$.
(a) Qual a densidade da variável aleatória $Z=X+Y$?

Para $0\leq z\leq 1$, temos
$$P(X+Y\leq z)=\int_{z-1}^1\int_0^{z-x}1dydx=\left[zx-\frac{x^2}{2}\right]^{1}_{z-1}=-\frac{1}{2}\left(1-z(z-1)\right)$$
e $z< 0$, para
$$\mathbb{P}(X+Y\leq z)=0$$
e para $z> 0$, temos
$$\mathbb{P}(X+Y\leq z)=1$$
então
$$f_{X+Y}(z)=\left\{\begin{array}{l}0, \quad z< 0\\ \\ z, \quad 0\leq z\leq 1\\ \\ 1-2z, \quad \quad 1\leq z\leq 2 \\ \\ 0, \quad z> 2\end{array}\right.$$
(b) Ache a probabilidade da equação quadrático $Xt^2+Yt+Z=0$ ter raízes reais.
Temos que $Xt^2+Yt+Z$ tem raizes reais se
$$Y^2-4XZ=Y^2-4X(X+Y)> 0$$
o que implica que
$$Y^2-4XY-4X> 0$$
raizes
$$y_k=\frac{4X\pm \sqrt{16X^2+16X^2}}{2}=2X(1\pm \sqrt{2})$$

Então, seja $E$ o evento $Xt^2+Yt+Z$ tem reais
$$\mathbb{P}(E)=\int_B\int f_{X,Y}(x,y)dxdy=\int_B\int dxdy=Area(B)=\frac{1}{4(1+\sqrt{2})}=0,10355$$

 

Exemplo 2.8.13:

Dizemos que X tem distribuição de Weibull com parâmetro $\alpha$ e $\lambda$ se $X$ tem densidade
$$f_X(x)=\lambda \alpha x^{\alpha-1}e^{-\lambda x^\alpha}\mathbb{I}_{(0,\infty)}(x),$$
onde $\alpha> 0$ e $\lambda > 0$. Suponha que a vida útil de certo tipo de máquina i.e, o tempo que ele funciona até pifar, possua distribuição $Weibull(\alpha,\lambda)$. Colocam-se em funcionamento, simultaneamente, n dessas máquinas. Qual a distribuição do tempo de espera até alguma máquina pifar?

Temos $X_1, X_2, \dots, X_n$ variáveis aleatórias  independentes que designam a vida útil das $n$ máquinas
$$\mathbb{P}(X_1> x_1)=\int_{x_1}^\infty f_{X_1}(x)dx$$
se $x_1> 0$ então
$$\mathbb{P}(X_1> x_1)=\int_{x_1}^\infty \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}dx$$
fazendo uma mudança de variável $y=\lambda x^{\alpha}$ e $dy=\lambda x^{\alpha-1}dx$ então temos
$$\int_{x_1}^\infty \lambda \alpha x^{\alpha-1} e^{-\lambda x^\alpha}dx=\int_{\lambda x_1^\alpha}^\infty \lambda e^{-\lambda y}dy=\left[\right]_{\lambda x_1^\alpha}^\infty =e^{-\lambda x_1^\alpha}, x_1> 0$$
Desta forma temos que
$$\mathbb{P}(X_1> x_1)=\left\{\begin{array}{l} e^{-\lambda x_1^\alpha}, \quad x_1> 0\\ 1, x_1\leq 0.\end{array}\right.$$
Agora $Z=\min(X_1,\dots,X_n)$ tempo até alguma máquina pifar.
$$\mathbb{P}(Z< z)=\left\{\begin{array}{l} \mathbb{P}(X_1> z,\dots, X_n> z)= \prod_{i=1}^n \mathbb{P}(X_1> z)=\left[\mathbb{P}(X_1> z)\right]^n=e^{-\lambda n z^\alpha}, \quad z> 0\\ \\ 0, z\leq 0.\end{array}\right.$$
então,
$$f_Z(z)=(\lambda n)z^{\alpha-1}e^{-(\lambda n)z^{\alpha}}\mathbb{I}_{(0,\infty)}(z)$$
o que implica que
$Z\sim Weibull(\alpha,n\lambda)$.

 

Exemplo 2.8.14:

Sejam $X$ e $Y$ variáveis aleatórias independentes, X tendo distribuição de Poisson com parâmetro $\lambda=5$, e $Y$ tendo distribuição uniforme em $[0,1]$. Ache a densidade de $Z=X+Y$.

Primeiramente definimos $\lceil x\rceil$ como sendo a parte inteira de $x$. Assim, temos que
$$[X+Y\leq z]=[X\leq \lceil z\rceil-1] \bigcup [X=\lceil z\rceil,y\leq z-\lceil z\rceil ]$$
então se $z> 0$ temos
$$F_Z(z)= \mathbb{P}(X\leq \lceil z\rceil -1 )+\mathbb{P}(X= \lceil z\rceil, 0\leq y\leq z- \lceil z\rceil)$$
Pela independência, temos que
$$\sum_{k=0}^{ \lceil z\rceil-1} \frac{\lambda^k}{k!}e^{-5}+\frac{\lambda^{ \lceil z\rceil}}{ \lceil z\rceil!}e^{-5}(z- \lceil z\rceil)$$
Agora, se $z\leq 0$ então $F_{Z}(z)=0$
Desta forma temos que
$$f_{Z}(z)=\left\{\begin{array}{c} \frac{\lambda^{ \lceil z\rceil}}{ \lceil z\rceil!}e^{-5}, z> 0\\ \\ 0, z\leq 0. \end{array}\right.$$
 

 

Exemplo 2.8.15:

Lança-se um dado equilibrado duas vezes, independentemente. Sejam $X$ e $Y$ as variáveis aleatórias que representam os números obtidos em respectivamente, o primeiro e o segundo lançamento.

(a) Determine $\mathbb{P}(X=Y)$

$X$ independente $Y$ pelo exemplo 2.5.5 e

$$\mathbb{P}(X=x, Y=y)=\frac{1}{36}$$
para qualquer $x,y\in \{1,2,\dots, 6\}$. Então,
$$\mathbb{P}(X=Y)=\sum_{k=1}^{6}\mathbb{P}(X=k,Y=k)=6\frac{1}{36}=\frac{1}{6}$$

(b) Descreva a distribuição de $W=|X-Y|$
$$\mathbb{P}(W=0)=6\frac{1}{36}=\frac{1}{6}$$
$$\mathbb{P}(W=1)=2\frac{5}{36}=\frac{5}{18}$$
$$\mathbb{P}(W=2)=2\frac{4}{36}=\frac{2}{9}$$
$$\mathbb{P}(W=3)=2\frac{3}{36}=\frac{1}{6}$$
$$\mathbb{P}(W=4)=2\frac{2}{36}=\frac{1}{9}$$
$$\mathbb{P}(W=6)=2\frac{1}{36}=\frac{1}{18}$$
$$\mathbb{P}(W\in \{0,1,2,3,4,5,6\})=0$$

(c) Seja
$$Z=\left\{\begin{array}{c} 1, \quad \quad se \quad \quad X+Y \text{é par }\\ 0 , \quad \quad se \quad \quad X+Y \text{é impar}.\end{array}\right.$$
Explique por que X e Z são, ou não são, independentes.

Temos $\mathbb{P}(Z=0)=\mathbb{P}(Z=1)=\frac{(5\cdot 3)+(3\cdot 3)}{36}=\frac{1}{2}$
e ainda
$$\mathbb{P}(X=x,Z=1)=\frac{3}{36}=\frac{1}{12}=\mathbb{P}(X=x)\mathbb{P}(Z=1)=\frac{1}{6}\frac{1}{2}$$
e
$$\mathbb{P}(X=x,Z=0)=\frac{3}{36}=\frac{1}{12}=\mathbb{P}(X=x)\mathbb{P}(Z=1)=\frac{1}{6}\frac{1}{2}$$
Então, pelo exercício 22 implica que X e Z são independentes.

 

Exemplo 2.8.16:

Escolhe-se um ponto ao acaso(i.e. conforme a distribuição uniforme) dos lados do quadrado de vértices $(1,1);(1,-1);(-1,-1)$ e $(-1,1)$. Sejam $X$ e $Y$ as coordenadas do ponto escolhido.
(a) Determine a distribuição de $X+Y$.

Temos que
$$\mathbb{P}(A)=\frac{Comp(A\cap L)}{L}$$
no qual $L=\{(x,y):(|x|=1 \text{ ou } |y|=1) \text{ e } x^2+y^2\leq 1\}$ e $Comp(L)=8$. Então,
$$F_{Z}(z)=\mathbb{P}(X+Y\leq z)=\left\{\begin{array}{l}0,z< -2\\ \\ \frac{2+z}{4},-2\leq z\leq 0\\ \\ \frac{8-2(2-z)}{8}=\frac{1}{2}+\frac{1}{4}z, 0< z\leq 2\\ \\ 1, z> 2\end{array}\right.$$

(b) Ache $\mathbb{P}(W> 0)$, no qual $W$ é o máximo de $X$ e $Y$.
$$\mathbb{P}(W> 0)=\frac{Comp(C\cap L)}{L}$$
com $C=\{(-1,1)\times (-1,1)\}-\{(x,y):x\leq 0 \text{ e } y\leq 0 \}$ então $Comp(C\cap L)=6$ o que implica que
$$\mathbb{P}(W> 0)=\frac{Comp(C\cap L)}{L}=\frac{6}{8}=\frac{3}{4}$$

 

Exemplo 2.8.17:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $N(0,1)$. Mostre que $U=\frac{X+Y}{\sqrt{2}}$ e $V=\frac{X-Y}{\sqrt{2}}$ também são independentes e $N(0,1)$.

$$f_{X,Y}(x,y)=\frac{1}{2\pi}e^{-\frac{1}{2}(x^2+y^2)}, \quad -\infty< x,y< \infty$$
Agora, seja $U=\frac{X+Y}{\sqrt{2}}$ $V=\frac{X-Y}{\sqrt{2}}$ e então temos $X=\frac{U+V}{\sqrt{2}}$ e $Y=\frac{U-V}{\sqrt{2}}$. Assim,

$$J_{(X,Y);(U,V)}=\Bigg|\begin{array}{l}\frac{1}{\sqrt{2}}\quad \quad \quad \quad\frac{1}{\sqrt{2}}\\ \frac{1}{\sqrt{2}}\quad\quad \quad -\frac{1}{\sqrt{2}}\end{array}\Bigg|=\frac{1}{2}+\frac{1}{2}=1$$
Então:
$$f_{U,V}(u,v)=\bigg| J_{(X,Y),(U,V)}\bigg|f_{X,Y}\left(\frac{u+v}{\sqrt{2}},\frac{u-v}{\sqrt{2}}\right)=\frac{1}{2\pi} e^{-\frac{1}{2}\left(\frac{(u+v)^2}{2}+\frac{(u-v)^2}{2}\right)}=\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}u^2} \frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2}v^2}$$
com $-\infty< u< \infty$ e $-\infty< v< \infty$
Então $U\sim N(0,1)$ e $V\sim N(0,1)$ e U independente V.

 

Exemplo 2.8.18:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $U[0,1]$. Ache a densidade conjunta de $W$ e $Z$, onde $W=X+Y$ e $Z=X-Y$. $W$ e $Z$ são independentes ?
Temos $X\sim U[0,1]$ e $Y\sim U[0,1]$ com X e Y independente o que implica que
$$f_{X,Y}(x,y)=\left\{\begin{array}{l} 1, \quad 0\leq x\leq 1, \quad 0\leq y\leq 1 \\ \\ 0, \text{Caso Contrário}\end{array}\right.$$
Usando o método Jacobiano temos
$W=X+Y$ e $Z=X-Y$ o que implica que $X=\displaystyle \frac{W+Z}{2}$, $Y=\frac{W-Z}{2}$ e
$$J_{(X,Y), (W,Z)}=\Bigg|\begin{array}{l}\frac{1}{2}\quad \quad \quad \quad\frac{1}{2}\\ \frac{1}{2}\quad\quad \quad -\frac{1}{2}\end{array}\Bigg|=\frac{1}{2}$$
Então,
$$f_{W,Z}(w,z)=\bigg| J_{(X,Y),(W,Z)}\bigg|f_{X,Y}\left(h^{-1}_2(x),h^{-1}_2(y)\right)=\left\{\begin{array}{l}\frac{1}{2}, \quad (w,z)\in \{(w,z):0\leq \frac{w+z}{2}\leq 1 \text{ e } 0\leq \frac{w-z}{2}\leq 1\}\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Assim,
$$f_{W,Z}(w,z)=\frac{1}{2}\mathbb{I}_{A}(w,z)$$
Temos que W e Z não são independentes, é análogo ao exemplo 2.5.15.

 

Exemplo 2.8.19:

Suponha que $X$ seja uma variável aleatória com distribuição $N(0,1)$. Calcule a densidade de $Y=X^4$ e a $Z=1/X$. Y e Z possuem densidade conjunta? Por que?
Como $X\sim N(0,1)$ o que implica que $f_X(x)=\frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}$ com $-\infty < x< \infty$.
(a) $Y=X^4$

Seja $G_0=(0,\infty)$, $G_1=(0,\infty)$ e $G_2=(-\infty,0)$ então,
$Y_1: G_1\rightarrow G_0$ temos que $y_1=x^4$ o que implica que $h^{-1}_1(y)=y_1^{1/4}$ e $Y_2: G_2\rightarrow G_0$ e $y_2=x^4$ o que implica que $h^{-1}_2(y)=-(y)^{1/4}$.

Assim
$$J_1(x,y)=\frac{dh^{-1}_1}{dy}=\frac{1}{4}y^{-3/4}$$
e
$$J_2(x,y)=\frac{dh^{-1}_2}{dy}=-\frac{1}{4}y^{-3/4}$$
então
$$f_Y=\bigg|J_1(x,y)\bigg|f_X(h^{-1}_1 (y))\bigg|J_2(x,y)\bigg|f_X(h^{-1}_2 (y))$$
então temos que
$$f_Y(y)=\left\{\begin{array}{l}\frac{1}{2}\frac{1}{\sqrt{2}}e^{-\frac{y^{1/2}}{2}}+\frac{1}{2}\frac{1}{\sqrt{2}}e^{-\frac{y^{1/2}}{2}}= \frac{1}{\sqrt{2\pi}}e^{-\frac{\sqrt{y}}{2}}, y > 0 \\ \\ 0, y\leq 0\end{array}\right.$$

(b) $Z=\frac{1}{X}$ o que implica que $h^{-1}(z)=\frac{1}{z}$ o que implica que $J_{X,Z}=-\frac{1}{z^2}$, então
$$f_Z(z)=\bigg|J(x,z)\bigg|f_Z(h^{-1}(z))=\frac{1}{z^2}\frac{1}{\sqrt{2\pi}}e^{-\frac{1}{2z^2}}, -\infty < z < \infty$$
Temos que $Y$ e $Z$ não possuem densidade conjunta pois $(Y,Z)$ possui distribuição singular. Isto acontece pois existe um conjunto
$$A\subset \mathbb{R}$$
tal que $\mathbb{P}((Y,Z)\in A)=1$ e $\lambda^2(A)=0$ onde $A=\{(y,z): z^4 y=1\}$

 

Exemplo 2.8.20:

Seja X uma variável aleatória possuindo densidade $f(x)$.
(a) Ache a densidade de $Y=|X|$ pelo método básico, obtendo a função de distribuição de X e derivando-a.
Temo que
$$\mathbb{P}(Y\leq y)=\mathbb{P}(|X|\leq y)=\mathbb{P}(-y\leq X\leq y)$$
como $X$ é uma variável contínua então
$$\mathbb{P}(-y\leq X\leq y)=\mathbb{P}(-y< X\leq y)=F_X(y)-F_X(-y), y> 0$$
e $\mathbb{P}(Y\leq y)=0$, $y< 0$ então
$$f_Y(y)=\left\{\begin{array}{l}f_X(y)+f_X(-y), \quad y> 0\\ \\ 0 , \text{Caso Contrário}\end{array}\right.$$

(b) Ache a densidade de Y pelo método do jacobiano.
Considere $G_0=(0,\infty)$, $G_1=(0,\infty)$, $G_2=(-\infty,0)$. Assim defina
$$Y_1: G_1\rightarrow G_0$$
com $y_1=x$, o que implica que $h_1^{-1}(y)=y$ então $J(x,y_1)=1$. Da mesma forma, defina
$$Y_2: G_2\rightarrow G_0$$
com $y_2=-x$, o que implica que $h_1^{-1}(y)=-y$ então $J(x,y_2)=-1$. Então,
$$f_Y(y)=\bigg|J(x,y_1)\bigg|f_X(h^{-1}_1(y))+\bigg|J(x,y_2)\bigg|f_X(h^{-1}_2(y))=\left\{\begin{array}{l}f_X(y)+f_X(-y), \quad y > 0\\ \\ 0, \text{ Caso Contrário.}\end{array}\right.$$

 

Exemplo 2.8.21:

Suponha que $X,Y$ e $Z$ possuam densidade conjunta
$$f(x,y,z)=\left\{\begin{array}{l}\frac{6}{(1+x+y+z)^4}, \text{ se } x> 0, y> 0 \quad e \quad z> 0\\ \\ 0, \text{Caso Contrário.}\end{array}\right.$$
Obtenha a densidade da variável aleatória $W=X+Y+Z$ de duas maneiras diferentes.

Primeiramente vamos fazer usando o método básico:
$$\mathbb{P}(W\leq  w)=\mathbb{P}(X+Y+Z\leq w)=\int_0^w\int_0^{w-x}\int_{0}^{w-(x+y)}\frac{6}{1+x+y+z} dz dy dx$$
Então, a primeira integral é dada por
$$I=\int_0^{w-(x+y)}\frac{6}{1+x+y+z}dz$$
fazendo uma mudança de variável $v=1+x+y+z$ e $dv=dz$ então
$$I=\int_0^{w-(x+y)}\frac{6}{1+x+y+z}dz=6\int_{1+x+y}^{w+1}\frac{1}{v}dv=6\left(\ln(v)\right)_{1+x+y}^{w+1}=6\left[\ln(w+1)-\ln( 1+x+y)\right]$$
a segunda integral
$$II=\int_0^{w-x}6\left[\ln(w+1)-\ln( 1+x+y)\right]dy=6\left\{(\ln(w+1))(w-x)+\int_0^{w-x}\ln(1+x+y)dy\right\}$$
Novamente fazendo uma mudança de variável $v=1+x+y$ e $dv=dx$ temos que
$$\int_{1+x}^{w+1}\ln(v)dv=\left[v \ln(v)-v\right]_{1+x}^{w+1}=(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)$$
então temos que
$$II=6\left\{(\ln(w+1))(w-x)+(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)\right\}$$
e por fim, a terceira integral
$$III=\int_0^w 6\left\{(\ln(w+1))(w-x)+(w+1)\ln(w+1)-(w+1)-(1+x)\ln(1+x)+(1+x)\right\}dx= 6\left\{xw(\ln(w+1))-\frac{x^2}{2}\ln(w+1)+x(w+1)\ln(w+1)-x(w+1)+x+\frac{x^2}{2}\right\}_0^{w}=3(2w+1)^2\ln(w+1)-\frac{9}{2}w^2+3w-3$$
Então,
$$\mathbb{P}(W\leq w)=\left\{\begin{array}{l}3(2w+1)^2\ln(w+1)-\frac{9}{2}w^2+3w-3, \quad w > 0\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$

Método Jacobiano:

Definimos $W=X+Y+Z$, $U=X$ e $T=Y$ então $X=U$, $Y=T$ e $Z=W-U-T$ e
$$J_{(X,Y,Z),(U,T,W)}=\Biggl| \begin{array}{l}\quad 1 \quad \quad 0 \quad \quad 0 \\ \quad 0 \quad \quad 1 \quad \quad 0 \\ -1 \quad -1 \quad \quad 1\end{array}\Biggl|=1$$
então
$$f_{W,U,T}(w,u,t)=\bigg|J_{(X,Y,Z),(U,T,W)}\bigg|f_{X,Y,Z}(u,t,w-u-t)=\left\{ \begin{array}{l}\frac{6}{(1+w)^4},\quad u> 0, t> 0\\ \\ 0, \text{Caso Contrário} \end{array}\right.$$
Então
$$f_W(w)=\int_{-\infty}^\infty \int_{-\infty}^\infty f_{W,U,T}(w,u,t)=\int_0^{w}\int^{w-u}_0\frac{6}{(1+w)^4}dtdu=$$

$$6\int_0^w \left[\frac{w}{(1+w)^4}-\frac{u}{(1+w)^4}\right]du=6\left[\frac{w}{(1+w)4}u-\frac{u^2}{2(1+w)^4}\right]_0^w=3\frac{w^2}{(1+w)^4}$$
o que implica que
$$f_W(w)=\left\{\begin{array}{l}3\frac{w^2}{(1+w)^4}, w\geq 0 \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.22:

Sejam X e Y variáveis aleatórias independentes com distribuição comum $exp(\lambda)$. Prove que $Z=\frac{X}{X+Y}\sim U[0,1]$.
Usando, o método do Jacobiano e fazendo:
$W=X$ e $Z=\frac{X}{X+Y}$ o que implica que $X=W$ e $Y=W\left(\frac{1}{z}-1\right)$ então
$$J_{(X,Y),(W,Z)}=\Biggl|\begin{array}{l}\quad 1 \quad\quad\quad\quad 0 \\ \frac{1}{z}-1 \quad\quad -\frac{w}{z^2} \end{array}\Biggl|=-\frac{w}{z^2}$$
Agora,
$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\lambda^2 e^{-\lambda (x+y)}, \quad x> 0, y> 0\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$
Assim,
$$f_{Z}(z)=\int_{-\infty}^{\infty}f_{W,Z}(w,z)dz.$$
Então, para $0< z < 1$ temos que
$$f_{Z}(z)=\int_{0}^{\infty}\frac{w}{z^2}\lambda^2 e^{-\lambda \left(\frac{w}{z}\right)}dz$$
fazendo uma mudança $v=\frac{\lambda w}{z}$ e $dv=\frac{\lambda}{z}dw$ então
$$f_{Z}(z)=\int_0^{\infty}v e^{-v}dv=1$$
Então, $Z\sim U[0,1]$, pois f caracteriza a lei de Z.

 

Exemplo 2.8.23:(Extensão do método do jacobiano para o caso de k infinito.)

Seja $Y=g(X)$, no qual $X=(X_1,X_2, \dots , X_n)$ e $Y=(Y_1,Y_2, \dots, Y_n)$. Suponhamos que $G,G_1, G_2, \dots$ sejam sub-regiões abertas de $\mathbb{R}^n$ tais que $G_1,G_2,\dots$ sejam disjuntas e
$$\mathbb{P}\left(X\in \bigcup_n G_n\right)=1$$
e tais que $g\big|_{G_n}$ seja uma correspondência biunívoca entre $G_n$ e $G$, $\forall n\geq 1$. Demonstre o seguinte teorema: se a função $h^{(n)}$, a inversa de $g\big|_{G_n}$, satisfaz as condições da função $h$ do Teorema 2.1, $\forall n\geq 1$, então $Y$ tem densidade

$$f_Y(y)=\left\{\begin{array}{l}\displaystyle  \sum_{n=1}^\infty f(h^{(n)}(y))\big|J_n(x,y)\big|, y \in G\\ \\ 0, y\notin G,\end{array}\right.$$
no qual $J_n(x,y)$ é o jacobiano de $h^{(n)}$.

Seja $B\subset G$, sob as condições acima, temos:
$$\mathbb{P}(Y\in B)=\mathbb{P}(g(X)\in B)=\sum_{\ell =1}^{\infty}\mathbb{P}(g(X)\in B, X \in G_\ell)=\sum_{\ell=1}^\infty \mathbb{P}(X \in h^{\ell}(B))=$$

$$\sum_{\ell=1}^\infty \int\dots_{h^{\ell}(B)}\int f(x_1,x_2,\dots, x_n)dx_1dx_2\dots dx_n$$
$$=\sum_{\ell=1}^\infty \int\dots_B \int f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n$$
como o integrando é contínuo e limitador temos que
$$\sum_{\ell=1}^\infty \int\dots_B \int f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n=\int\dots_B \int \sum_{\ell=1}^\infty  f(h^{(\ell)}(y))|J_\ell(x,y)|dy_1dy_2\dots dy_n$$
portanto o resultado segue.

 

Exemplo 2.8.24:

Se $X$ possui densidade $f(x)$, qual a densidade de $Y=\cos(X)$?
Defina, $G=(0,\infty)$ e $G_k=(k\pi, (k+1)\pi)$. Assim, $\mathbb{P}\left(X\in \bigcup_{k\in \mathbb{Z}}\right)=1$ pois temos que X é absolutamente contínua então a $\mathbb{P}\left(X=k\pi,k\in \mathbb{Z}\right)=0$. Temos também que $Y=cosX$ é biunívoca em $G_k$, então a função inversa existe e é dada por $X=h^{(k)}(y)=\arccos(y-k\pi)$
$$\frac{dh^{(k)}}{dy}=-\frac{1}{\sqrt{1-y^2}}$$
que é contínua em $G$, para todo $k \in \mathbb{Z}$. Então, valem as condições do exemplo 2.8.23 e portanto temos que
$$f_Y(y)=\left\{\begin{array}{l}\sum_{k\in \mathbb{Z}}f(\arccos(y-k\pi))\frac{1}{\sqrt{1-y^2}}=\frac{1}{\sqrt{1-y^2}}\sum_{k=1}^\infty \left[f(\arccos(y-k\pi))+f(\arccos(y+k\pi))\right], \text{ se } 0< y< 1\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.25:

Sejam X e Y variável aleatória independentes, tendo distribuição comum $U[0,1]$, e sejam $R=\sqrt{2\log(1/(1-X))}$ e $\Theta = \pi(2Y-1)$.
(a) Mostre que $\Theta \sim U[-\pi,\pi]$ e que $R$  tem distribuição de Rayleigh com densidade
$$f(r)=\left\{\begin{array}{l} re^{-r^2/2}, r\geq 0\\ \\ 0, r\leq 0.\end{array}\right.$$
Inicialmente considere $X,Y \sim U[0,1]$ e independentes o que implica que
$$f_{X,Y}(x,y)=\left\{\begin{array}{l} 1, \text{ se } x\in [0,1], y\in [0,1]\\ \\ 0, \text{ Caso Contrário }.\end{array}\right.$$
Usando o Método do Jacabiano, definimos
$$R=\sqrt{2\log\left(\frac{1}{1-X}\right)}$$
o que implica $\frac{\mathbb{R}^2}{2}=\log\left(\frac{1}{(1-X)}\right)$ o que implica que
$$X-1=e^{-r^2/2}$$
o que implica que $x=e^{-r^2/2}-1$. Definimos também que
$$\Theta=\pi(2Y-1)$$
o que implica que $2Y-1$ o que implica que $Y=\frac{1}{2}\left(\frac{\Theta}{\pi}+1\right)$. Então:
$$J_{(X,Y)(R,\Theta)}=\Biggl|\begin{array}{l}-re^{-r^2/2} \quad \quad \quad 0 \\ \quad \quad 0 \quad \quad \quad\quad \frac{1}{2\pi} \end{array}\Biggl|=-\frac{r}{2\pi}e^{-r^2/2}$$
Desta forma,
$$f_{R,\Theta}(r,\theta)=\bigg|J_{(X,Z),(R,\Theta)}\bigg|f_{X,Y}\left(e^{-r^2/2}+1,\frac{1}{2}\left(\frac{\theta}{\pi}+1\right)\right) = \frac{r}{2\pi}e^{-r^2/2}f_{X,Y}\left(e^{-r^2/2}+1,\frac{1}{2}\left(\frac{\theta}{\pi}+1\right)\right)$$
o que implica que
$$f_{R,\Theta}(r,\theta)=\left\{\begin{array}{l}\frac{1}{2\pi}re^{-r^2/2}, (r,\theta)\in A \\ \\ 0 , (r,\theta)\notin A\end{array}\right.$$
no qual
$$A=\left\{(r,\theta): 0 \leq e^{-r^2/2}+1\leq 1, 0\leq \frac{1}{2}\left(\frac{\theta}{\pi}+1\leq 1\right)\right\}=\{(r,\theta): r\geq 0, -\pi \leq \theta\leq \pi\}$$
Então, $R, \Theta$ são independentes com $\Theta \sim U[-\pi,\pi]$ e $R\sim Rayleigh $.

(b) Mostre que $Z$ e $W$, defindas por $Z= R \cos(\Theta)$ e $W= R\sin(\Theta)$, são independentes com distribuição comum $N(0,1)$.
Temos que $Z=R\cos(\Theta)$ e $W=R\sin(Theta)$, o que implica que o Jacobiano é dado por

$$J_{(Z,W);(R,\Theta)}=\Biggl|\begin{array}{l}\cos(\Theta) \quad \quad \quad -R\sin(\Theta) \\ \sin(\Theta) \quad \quad \quad \quad R\cos(\Theta) \end{array}\Biggl|=R\left(\cos^2(\Theta)+\sin^2(\Theta)\right)=R$$
Então,
$$J_{(R,\Theta);(Z,W)}=\frac{1}{J_{(Z,W);(R,\Theta)}}=\frac{1}{R}$$
Desta forma,
$$f_{Z,W}(z,w)=\bigg|J_{(R,\Theta);(Z,W)}\bigg|f_{R,\Theta}(h^{-1}(r),h^{-1}(\theta))=\frac{1}{r}\frac{1}{2\pi}re^{-\frac{z^2+w^2}{2}} = \frac{1}{\sqrt{2\pi}}e^{-z^2/2}\frac{1}{\sqrt{2\pi}}e^{-w^2/2}, \quad -\infty< z< \infty, \quad -\infty < w< \infty$$
Então, Z é independente de W e $Z,W\sim N(0,1)$

 

Exemplo 2.8.26:

(a) Se $X$ e $Y$ tem densidade conjunta $f(x,y)$, ache a densidade conjunta de $W$ e $Z$, no qual $W=aX+b$ e $Z=cY+d$, $a> 0$, $c> 0$, $b,d \in \mathbb{R}$.
Usando o método Jacobiano,  temos que
$W=aX+b$ o que implica que $X=\frac{1}{a}\left(W-b\right)$ e $Z=cY+d$ o que implica que $Y=\frac{1}{c}(Z-d)$. Então,
$$J_{(X,Y);(W,Z)}=\Biggl|\begin{array}{l}\frac{1}{a} \quad \quad 0 \\ 0 \quad \quad \frac{1}{a} \end{array} \Biggl|=\frac{1}{ac}$$
e portanto,
$$f_{W,Z}(w,z)=\bigg|J_{(X,Y);(W,Z)}\bigg|f_{X,Y}\left(\frac{1}{a}\left(w-b\right),\frac{1}{c}(z-d)\right)= \frac{1}{ab}f_{X,Y}\left(\frac{1}{a}\left(w-b\right),\frac{1}{c}(z-d)\right)$$
para $-\infty< w< \infty$ e $-\infty< z< \infty$
(b) Seja $(X,Y)$ um vetor aleatório tendo distribuição normal bivariada com densidade dada no Exemplo 2.1.13. Qual a densidade de
$$(W,Z)=\left(\frac{X-\mu_1}{\sigma_1}, \frac{Y-\mu_2}{\sigma_2}\right)?$$
Que distribuição é essa ?
Temos que
$$f_{X,Y}(x,y)=\frac{1}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1-\rho^2)}\left[\left(\frac{X-\mu_1}{\sigma_1}\right)^2- 2\rho\left(\frac{X-\mu_1}{\sigma_1}\right)\left(\frac{y-\mu_2}{\sigma_2}\right)+\left(\frac{y-\mu_2}{\sigma_2}\right)^2\right]\right\},$$
no qual $\sigma_1> 0$, $\sigma_2> 0$, $-1< \rho < 1$, $\mu_1\in \mathbb{R}$ e $\mu_2\in \mathbb{R}$.

Agora, temos que $W=\frac{X-\mu_1}{\sigma_1}$ o que implica que se $a=\frac{1}{\sigma_1}$ e $b=-\frac{\mu_1}{\sigma_1}$ o que implica que $W=aX+b$.
Então, temos que $Z=\frac{Y-\mu_2}{\sigma_2}$ o que implica que se $c=\frac{1}{\sigma_2}$ e $b=-\frac{\mu_2}{\sigma_2}$ o que implica que $Z=cY+d$.
Usando o item (a) temos que
$$f_{W,Z}(w,z)=\frac{\sigma_1 \sigma_2}{2\pi\sigma_1\sigma_2\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1+\rho^2)}\left[w^2-2\rho wz+z^2\right]\right\} = \frac{1}{2\pi\sqrt{1-\rho^2}}\exp\left\{-\frac{1}{2(1+\rho^2)}\left[w^2-2\rho wz+z^2\right]\right\}$$
com $-\infty< w< \infty$ e $-\infty< z< \infty$. A qual é um distribuição normal bivariada com coeficiente de correlação $\rho$. No qual, $W\sim N(0,1)$ e $Z\sim N(0,1)$.

(c) Se $(X,Y)$ tem distribuição uniforme no círculo unitário
$$\{(x,y)\in \mathbb{R}^2: x^2+y^2\leq 1\},$$
qual a distribuição conjunta de $W$ e $Z$ (como definidas no item (a))?
Temos que
$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\displaystyle \frac{1}{\pi}, (x,y)\in A\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$
no qual $A=\{(x,y): x^2+y^2\leq 1\}$. Então, se $W=aX+b$ e $a> 0$ e $Z=cY+b$ e $c> 0$, temos então
$$f_{W,Z}(w,z)=\left\{\begin{array}{l}\displaystyle \frac{1}{ac}\frac{1}{\pi}, (w,z)\in \left\{(w,z):\frac{1}{a^2}(w-b)^2+\frac{1}{c^2}(z-d)^2\leq 1\right\}\\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.27:

Suponha que $X$ e $Y$ sejam independentes com $X\sim \Gamma (\alpha_1,1)$ e $Y\sim \Gamma(\alpha_2,1)$, onde $\alpha_1> 0$ e $\alpha_2> 0$. Mostre que $X+Y$ e $X/Y$ são independentes e ache as suas distribuições.
Defina $W=X+Y$ e $Z=\frac{X}{Y}$ então $X=\frac{ZW}{Z+1}$ e $Y=\frac{W}{Z+1}$ o implica que o jacobiano é dado por
$$J_{(X,Y),(W,Z)}=\Biggl|\begin{array}{l}\frac{Z}{Z-1}\quad \quad \quad \frac{W}{(Z+1)^2}\\ \frac{1}{Z+1} \quad \quad -\frac{W}{(1+Z)^2} \end{array}\Biggl|=-\frac{W(Z+1)}{(Z+1)^2}=-\frac{W}{Z+1}=-Y.$$
Agora como $X\sim \Gamma(\alpha_1,1)$ e $Y\sim \Gamma(\alpha_2,1)$ e como $X$ e $Y$ são independentes temos que
$$f_{X,Y}(x,y)=\left\{\begin{array}{l}\frac{x^{\alpha_1-1}e^{-x}}{\Gamma(\alpha_1)}\frac{y^{\alpha_2-1}e^{-y}}{\Gamma(\alpha_2)}, \quad x> 0, y> 0\\ \\ 0, \text{Caso Contrário}\end{array}\right.$$
Então, pelo método Jacobiano temos que
$$f_{W,Z}(w,z)=\bigg|J_{(X,Y),(W,Z)}(w,z)\bigg|f_{X,Y}\left(\frac{zw}{z+1},\frac{w}{z+1}\right)=$$

$$\left\{ \begin{array}{l} \frac{w\left(\frac{z}{z+1}\right)^{\alpha_1-1}w^{\alpha_1-1}\left(\frac{1}{(z+1)}\right)^{\alpha_2-1}w^{\alpha_2-1}}{(z+1)\Gamma(\alpha_1)\Gamma(\alpha_2)} e^{-w}= \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)}\frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)}, w> 0, z> 0 \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$
Note que
$$\int_0^{\infty}\frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)}dw=1$$
pois é a densidade da $\Gamma(\alpha_1+\alpha_2,1)$. Além disso, temos que
$$\int_0^\infty \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} dz = \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} \int_0^\infty \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} dz=1$$

Então, $W=X+Y$ e $Z=\frac{X}{Y}$ são independentes com
$$f_W(w)=\left\{\begin{array}{l}\displaystyle \frac{w^{(\alpha_1+\alpha_2)-1}e^{-w}}{\Gamma(\alpha_1+\alpha_2)} ,w\geq 0 \\ \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$
e
$$f_Z(z)=\left\{\begin{array}{l}\displaystyle \frac{\Gamma(\alpha_1+\alpha_2)}{\Gamma(\alpha)\Gamma(\alpha_2)} \frac{z^{\alpha_1-1}}{(1+z)^{\alpha_1+\alpha_2-1}} ,z\geq 0 \\ \\ \\ 0, \text{ Caso Contrário }\end{array}\right.$$
 

Exemplo 2.8.28:

Suponha que $X_1,X_2,\dots, X_n$ formem uma amostra aleatória de uma distribuição com densidade $f(x)$. Mostre que
$$\mathbb{P}(X_1< \dots < X_n)=\frac{1}{n!}$$
e que
$$\mathbb{P}(X_i=X_j \text{ para algum par } (i,j) \text{ tal que } i \neq j)=0$$

Temos que se $X_1,X_2, \dots X_n$ são uma amostra aleatória, então são variáveis aleatórias independentes e identicamente distribuídas então $X_1,X_2, \dots X_n$ é invariantes para permutações e possuem densidade conjunta $[f(X_1),f(X_2),\dots, f(X_n)]$ assim pelo exemplo 2.4.9(b) temos que
$$\mathbb{P}(X_1< \dots < X_n)=\frac{1}{n!}$$
e
$$\mathbb{P}(X_i=X_j \text{ para algum par } (i,j) \text{ tal que } i \neq j)=0$$

 

Exemplo 2.8.29:

Suponha que $X_1,X_2, \dots X_n$ sejam independentes e identicamente distribuídas, com densidade comum $f$. Mostre que a densidade conjunta de
$$U=\min_{1\leq i\leq n} X_i \quad \quad\quad \quad  e \quad \quad \quad \quad V=\max_{1\leq i \leq n}X_i$$
é
$$f_{U,V}(u,v)=\left\{\begin{array}{l}n(n-1)[F(v)-F(u)]^{n-2}f(u)f(v), \quad \quad se \quad \quad  u< v  \\ \\ \\ 0, u\geq v.\end{array}\right.$$

Temos que
$$\mathbb{P}(V\leq v)=\mathbb{P}(X_1< v, \dots, X_n< v)=\left[\mathbb{P}(X_1\leq v)\right]^n=\left[F(v)\right]^n$$
isso devido ser independente e identicamente distribuídos. Então, temos que
$$F_{U,V}(u,v)=\mathbb{P}(U\leq u, V\leq v)=\mathbb{P}(V\leq v)-\mathbb{P}(U> u, V\leq v)=\left[F(v)\right]^n -\mathbb{P}(U> u, V\leq v)$$
Agora, temos que
$$\mathbb{P}(U> u, V\leq v)=\mathbb{P}(u< X_1\leq v, u< X_2\leq v, \dots , u< X_n\leq v)$$
como é independente e identicamente distribuídos  temos que
$$\mathbb{P}(U> u, V\leq v)=\left[\mathbb{P}(u< X_1\leq v)\right]^n =\left[F(v)-F(u)\right]^n$$
Portanto temos que
$$F_{U,V}(u,v)=\left\{\begin{array}{l}\left[F(v)\right]^n -[F(v)-F(u)]^{n}, \quad \quad se \quad \quad  u< v  \\ \\ \\ 0, u\geq v \end{array}\right.$$
então
$$f_{U,V}(u,v)=\frac{d^2F_{U,V}(u,v)}{dudv}=\left\{\begin{array}{l}\frac{d}{dv}\left(n[F(v)-F(u)]^{n-1}f(u)\right)=n(n-1)[F(v)-F(u)]^{n-2}f(u)f(v), \quad \quad se \quad \quad  u< v  \\ \\ \\ 0, u\geq v.\end{array}\right.$$

 

Exemplo 2.8.30

Sejam $X_1,X_2, \dots X_n$ variáveis independentes e identicamente distribuídas, com densidade $U[0,\theta]$, no qual $\theta > 0$. Sejam
$$U=\min_{1\leq i\leq n} X_i \quad \quad\quad \quad  e \quad \quad \quad \quad V=\max_{1\leq i \leq n}X_i$$

(a)Prove que a densidade conjunta de $(U,V)$ é
$$f_{U,V}(u,v)=\left\{\begin{array}{l}\frac{n(n-1)(v-u)^{n-2}}{\theta^n}, \quad 0\leq u< v \leq \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

Como $X_1\sim U[0,\theta]$ então
$$F_{X_1}(x)=F(x)=\left\{\begin{array}{l}0, x< \\ \\ \\ \displaystyle \frac{x}{\theta}, 0\leq x < \theta \\ \\ \\ 1 , x\geq \theta \end{array}\right.$$
e
$$f_{X_1}(x)=f(x)=\left\{\begin{array}{l}\frac{1}{\theta}, 0\leq x\leq \theta \\ \\ \\  0 , \text{ Caso Contrário } \end{array}\right.$$
Aplicando o resultado do exemplo 2.8.29, temos que
$$f(u,v)=\left\{\begin{array}{l}\frac{n(n-1)(v-u)^{n-2}}{\theta^n}, 0\leq u< v < \theta \\ \\ \\  0 , \text{ Caso Contrário } \end{array}\right.$$

(b) Prove que a densidade de $V-U$ está dada por
$$f(w)=\left\{\begin{array}{l}\frac{n(n-1)(w)^{n-2}}{\theta^{n-1}}\left(1-\frac{w}{\theta}\right), \quad 0\leq w< \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$
Temos que
$$F_W(w)=\mathbb{P}(W\leq w)=\mathbb{P}(V-U\leq w)=\int_0^w \int_0^v f(u,v)du dv+\int_w^\theta \int_{v-w}^v f(u,v)dudv$$
no qual
$$\int_0^w \int_0^v f(u,v)du dv= \int_0^w \int_0^v\frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv$$
fazendo uma mudança de variável $x=v-u$ e $dx=-du$ então
$$\int_0^w \int_0^v\frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv=\int_0^w \frac{n(n-1)}{\theta^n}\int_{0}^v x^{n-2}dx=\int_0^w \frac{n(n-1)}{\theta^n(n-1)}v^{n-1}dv=\left[\frac{w}{\theta^n}\frac{v^n}{n}\right]_0^w=\left(\frac{w}{\theta}\right)^n $$
Também temos que
$$\int_w^\theta \int_{v-w}^v f(u,v)dudv=\int_w^\theta \int_{v-w}^v \frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv$$
fazendo novamente uma mudança de variável $x=v-u$ e $dx=-du$ então
$$\int_w^\theta \int_{v-w}^v \frac{n(n-1)(v-u)^{n-2}}{\theta^n}dudv=\int_w^\theta \frac{n(n-1)}{\theta^n}\int_0^w x^{n-2}dx=\frac{n(n-1)}{\theta^n(n-1)}\int_w^\theta w^{n-1}dv=\frac{nw^{n-1}}{\theta^n}(\theta-w)=n\left(\frac{w^{n-1}}{\theta^{n-1}}-\frac{w^n}{\theta^n}\right)$$
Então,
$$F_W(w)=\left\{\begin{array}{l} -\frac{(n-1)w^n}{\theta^n}+ n\frac{w^{n-1}}{\theta^{n-1}}, 0\leq w\leq \theta\\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$
Então derivando temos que
$$f(w)=\frac{dF_W(w)}{dw}=\left\{\begin{array}{l}-n(n-1)\frac{w^{n-1}}{\theta^{n-1}}+n(n-1)\frac{w^{n-2}}{\theta^n}  =\frac{n(n-1)(w)^{n-2}}{\theta^{n-1}}\left(1-\frac{w}{\theta}\right), \quad 0\leq w< \theta \\ \\ \\ 0, \text{Caso Contrário }\end{array}\right.$$

 

Exemplo 2.8.31:

Se $X_1,X_2, \dots, X_n$ são independentes com distribuição comum $U[0,1]$, mostre que
$$-2n\ln Y\sim \chi^2(2n),$$
no qual Y é a média geométrica das $X_i$ definida por
$$Y=\left(\prod_{i=1}^n X_i\right)^{1/n}$$

Temos que se $X_1\sim U[0,1]$ então pelo exemplo 2.4.6,  $\ln(X_1) \sim Exp(1)=\Gamma(1,1)$ (ver Observação 6.12.2 ).
Então:
$$n\ln(Y)=-\ln(Y^n)=-\ln\left(\prod_{i=1}^n X_i\right)=-\sum_{i=1}^n \ln(X_i).$$
Agora pela propriedade hereditária da independência e com distribuição $\Gamma(1,1)$. Assim,
$$-n\ln(Y)\sim \Gamma(n,1)$$
Agora, fazendo $Z=-n\ln(Y)$. Então, seja $W=2Z$.
$$f_W(w)=\frac{1}{2}f_Z(w/2)=\frac{1}{2}\frac{1}{\Gamma(n)}\left(\frac{w}{2}\right)^{n-1}e^{-w/2}, \quad \quad w> 0.$$
Então, $W=2n\ln Y\sim \Gamma\left(n,\frac{1}{2}\right)$. Agora como $\chi^2(n)$ tem a mesma distribuição de $\Gamma\left(\frac{n}{2},\frac{1}{2}\right)$(Observação 6.3.1 ) .
Além disso, temos que $\chi^2(2n)$ tem a mesma distribuição de $\Gamma\left(n,\frac{1}{2}\right)$, o que implica que $-2n\ln(Y)\sim \chi^2(2n)$

 

Exemplo 2.8.32:

Mostre que se $X\sim t(1)$, então X tem distribuição de Cauchy

Pela definição da variável t de student temos que se $Z$ e $Y$ independentes com $Z\sim N(0,1)$ e $Y\sim \chi^2(n)$ então
$$\frac{Z}{\sqrt{Y/n}}\sim t(n)$$
Agora  se $n=1$, defina $W=\sqrt{Y}$ o que implica que $Y=W^2$, usando o método Jacobiano temos que $J_{(Y,W)}=2W$ e então:

$$f_W(w)=2wf_Y(w^2)=\left\{\begin{array}{l}\displaystyle2w\frac{1}{\sqrt{2\pi w^2}}e^{-w^2/2}=\frac{2}{\sqrt{2\pi}}e^{-w^2/2}, \quad \quad w> 0\\ \\ \\ 0, \quad \quad \quad \text{Caso Contrário }\end{array}\right.$$
\end{example}
se Z e W são independentes o que implica
$$f_{Z,W}(z,w)=\left\{\begin{array}{l}\displaystyle \frac{2}{\sqrt{2\pi}}e^{-w^2/2}\frac{1}{\sqrt{\pi}}e^{-z^2/2}, \quad \quad w> 0 \quad \quad \quad -\infty < z< \infty\\ \\ \\ 0, \quad \quad \quad \text{Caso Contrário }\end{array}\right.$$

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]