- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
A distribuição gama é uma das mais gerais distribuições, pois diversas distribuições são caso particular dela como por exemplo a exponencial, a qui-quadrado, entre outras. Essa distribuição tem como suas principais aplicações à análise de tempo de vida de produtos.
Uma variável aleatória $X$ tem distribuição Gama com parâmetros $\alpha \ > \ 0$ (também denominado parâmetro de forma) e $\beta \ > \ 0$ (parâmetro de taxa), denotando-se $X \sim \ \text{Gama}(\alpha,\beta)$, se sua função densidade é dada por
\[f(x)=\left\{\begin{array}{l}\dfrac{\beta^{\alpha}x^{\alpha-1}e^{-\beta x}}{\Gamma({\alpha})} \ \hbox{se} \ x\geq0\\ 0, \ \hbox{caso contrário}\end{array}\right.\]
Os gráficos aproximados das funções de distribuição e de densidade para $\alpha = 2$ e $\beta = 0,5$ são apresentados, respectivamente, nas seguintes figuras
Em algumas referências, é usado um parâmetro de escala $\theta \ > \ 0$ equivalente ao inverso do parâmetro de taxa, isto é, $\beta=\frac{1}{\theta}$. E a função densidade anterior é escrita como
\[f(x)=\left\{\begin{array}{l}\frac{x^{\alpha-1}e^{\frac{-x}{\theta}}}{\Gamma(\alpha)\theta^{\alpha}} \ \text{se} \ x\geq 0\\0 \ \text{caso contrário}\end{array}\right.\]
Suponha que $\{X_i\}_i$ seja uma sequência de variáveis aleatórias independentes, tais que $X_i\sim \ \text{Gama}(\alpha_i,\beta)$. Então
\[\sum_{i=1}^{k}X_i\sim \ \text{Gama}\left(\sum_{i=1}^{k}\alpha_i,\beta\right).\]
Para demonstrar esse fato vamos utilizar da função geradora de momentos, mas antes vamos encontrar a função geradora da distribuição gamma.
\[M_X(t)=E[e^{tX}]=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}.\]
Portanto,
\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]
Assim mostramos que $\displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta)$. De fato,
\[M_{\sum_{i=1}^{k}X_i}(t)=\mathbb{E}\left(e^{t(\sum_{i=1}^{k}x_i)}\right)= \mathbb{E}\left(\prod_{i=1}^{k}e^{tx_i}\right)=\prod_{i=1}^{k}\mathbb{E}\left(e^{tx_i}\right) =\prod_{i=1}^{k}\left(\frac{\beta}{\beta-t}\right)^{\alpha_i}=\left(\frac{\beta}{\beta-t}\right)^{\sum_{i=1}^{k}\alpha_i}.\]
Portanto $\displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta)$.
Com a demonstração deste teorema, mostramos também que soma de distribuições qui-quadradado independentes tem distribuição qui-quadrado, com a soma dos graus de liberdade.
Vamos utilizar a função geradora de momentos para calcular a média e a variância da distribuição gamma. Assim seja $X$ uma variável aleatória, tal que $X\sim \ \text{Gama}(\alpha,\beta)$, então sua função geradora de momentos é dada por:
\[M_X(t)=\mathbb{E}\left(e^{tX}\right)=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}\]
Portanto, concluímos qeu
\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]
Para calcularmos o valor esperado e a variância vamos necessitar do primeiro e do segundo momento, assim basta derivarmos a função geradora de momentos.
\[M^\prime_X(t)=\frac{\alpha}{\beta-t}\left(\frac{\beta}{\beta-t}\right)^\alpha\]
e
\[M^{\prime\prime}_X(t)=\frac{\alpha(\alpha+1)}{(\beta-t)^2}\left(\frac{\beta}{\beta-t}\right)^\alpha.\]
Desta forma, o valor esperado de $X$ é dado por:
\[\mathbb{E}(X)= M^{\prime}_X(0)=\frac{\alpha}{\beta}\left(\frac{\beta}{\beta}\right)^\alpha=\frac{\alpha}{\beta}\]
e sua variância é dada por
\[\text{Var}(X)=\mathbb{E}\left(X^2\right)-\mathbb{E}^2\left(X\right)=M^{\prime\prime}_X(0)-(M^\prime_X(0))^2=\frac{\alpha(\alpha+1)}{\beta^2}-\left(\frac{\alpha}{\beta}\right)^2\displaystyle =\frac{\alpha}{\beta^2}.\]
É importante observar que, no caso em que utilizamos a distribuição Gama com o parâmetro de escala $\theta = \frac{1}{\beta} \ > \ 0$ para a variável aleatória $X$, temos que
\[\mathbb{E}\left(X\right) = \alpha\theta \quad \text{e} \quad \text{Var}\left(X\right) = \alpha\theta^2\]
Exemplo 6.9.1:
Seja $X\sim Gamma(\alpha,\beta)$, então $cX\sim Gamma(\alpha,\beta/c)$.
De fato, pela função geradora de momentos temos que
$$M_{cX}(t)=\mathbb{E}(e^{tcx})=\int_0^\infty e^{tcx}x^{\alpha-1}e^{-\beta x} \frac{\beta^\alpha}{\Gamma(\alpha)} dx$$
$$=\frac{\beta^\alpha}{\Gamma(\alpha)} \int_0^\infty x^{\alpha-1}e^{-(\beta-ct) x} \frac{\beta^\alpha}{\Gamma(\alpha)} dx=\left(\frac{\beta}{(\beta-ct)}\right)^\alpha$$
$$=\left(\frac{\beta/c}{\frac{1}{c}(\beta-ct)}\right)^\alpha=\left(\frac{\beta/c}{(\beta/c-t)}\right)^\alpha$$
Portanto o resultado segue.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.