6.9 - Distribuição Gama

Você está aqui

A distribuição gama é uma das mais gerais distribuições, pois diversas distribuições são caso particular dela como por exemplo a exponencial, a qui-quadrado, entre outras. Essa distribuição tem como suas principais aplicações à análise de tempo de vida de produtos.

Definição 6.9.1:

Uma variável aleatória $ X $ tem distribuição Gama com parâmetros $ \alpha \ \textgreater \ 0 $ (também denominado parâmetro de forma) e $ \beta \ \textgreater \ 0 $ (parâmetro de taxa), denotando-se $ X \sim \ \text{Gama}(\alpha,\beta) $, se sua função densidade é dada por


\[f(x)=\left\{\begin{array}{l}\dfrac{\beta^{\alpha}x^{\alpha-1}e^{-\beta x}}{\Gamma({\alpha})} \ \hbox{se} \ x\geq0\\ 0, \ \hbox{caso contrário}\end{array}\right.\]

 

Os gráficos aproximados das funções de distribuição e de densidade para $ \alpha = 2 $ e $ \beta = 0,5 $ são apresentados, respectivamente, nas seguintes figuras

Observação 6.9.1: 

Em algumas referências, é usado um parâmetro de escala $ \theta \ \textgreater \ 0 $ equivalente ao inverso do parâmetro de taxa, isto é, $ \beta=\frac{1}{\theta} $. E a função densidade anterior é escrita como


\[f(x)=\left\{\begin{array}{l}\frac{x^{\alpha-1}e^{\frac{-x}{\theta}}}{\Gamma(\alpha)\theta^{\alpha}} \ \text{se} \ x\geq 0\\0 \ \text{caso contrário}\end{array}\right.\]

 

Teorema 6.9.1:

Suponha que $ \{X_i\}_i $ seja uma sequência de variáveis aleatórias independentes, tais que $ X_i\sim \ \text{Gama}(\alpha_i,\beta) $. Então


\[\sum_{i=1}^{k}X_i\sim \ \text{Gama}\left(\sum_{i=1}^{k}\alpha_i,\beta\right).\]

 

Para demonstrar esse fato vamos utilizar da função geradora de momentos, mas antes vamos encontrar a função geradora da distribuição gamma.


\[M_X(t)=E[e^{tX}]=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}.\]

 

Portanto,


\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]

 

Assim mostramos que $ \displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta) $. De fato,


\[M_{\sum_{i=1}^{k}X_i}(t)=\mathbb{E}\left(e^{t(\sum_{i=1}^{k}x_i)}\right)= \mathbb{E}\left(\prod_{i=1}^{k}e^{tx_i}\right)=\prod_{i=1}^{k}\mathbb{E}\left(e^{tx_i}\right) =\prod_{i=1}^{k}\left(\frac{\beta}{\beta-t}\right)^{\alpha_i}=\left(\frac{\beta}{\beta-t}\right)^{\sum_{i=1}^{k}\alpha_i}.\]

 

Portanto $ \displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta) $.

Com a demonstração deste teorema mostramos também que soma de exponencial é uma exponencial, basta somarmos os parâmetros e que soma de qui-quadradado é qui-quadrado, basta somarmos os graus de liberdade. Pois como descrito anteriormente essas distribuições são casos particulares da distribuição gamma.

Função Geradora de Momentos, Valor Esperado e Variância

Vamos utilizar a função geradora de momentos para calcular a média e a variância da distribuição gamma. Assim seja $ X $ uma variável aleatória, tal que $ X\sim \ \text{Gama}(\alpha,\beta) $, então sua função geradora de momentos é dada por:


\[M_X(t)=\mathbb{E}\left(e^{tX}\right)=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}\]

 

Portanto, concluímos qeu


\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]

 

Para calcularmos o valor esperado e a variância vamos necessitar do primeiro e do segundo momento, assim basta derivarmos a função geradora de momentos. 


\[M'_X(t)=\frac{\alpha}{\beta-t}\left(\frac{\beta}{\beta-t}\right)^\alpha\]

 

e


\[M''_X(t)=\frac{\alpha(\alpha+1)}{(\beta-t)^2}\left(\frac{\beta}{\beta-t}\right)^\alpha.\]

 

Desta forma, o valor esperado de $ X $ é dado por:


\[\mathbb{E}(X)= M'_X(0)=\frac{\alpha}{\beta}\left(\frac{\beta}{\beta}\right)^\alpha=\frac{\alpha}{\beta}\]

 

e sua variância é dada por 


\[\text{Var}(X)=\mathbb{E}\left(X^2\right)-\mathbb{E}^2\left(X\right)=M''_X(0)-M'_X^2(0)=\frac{\alpha(\alpha+1)}{\beta^2}-\left(\frac{\alpha}{\beta}\right)^2\displaystyle =\frac{\alpha}{\beta^2}.\]

 

Observação 6.9.2:

É importante observar que, no caso em que utilizamos a distribuição Gama com o parâmetro de escala $ \theta = \frac{1}{\beta} \ \textgreater \ 0 $ para a variável aleatória $ X $, temos que


\[\mathbb{E}\left(X\right) = \alpha\theta \quad \text{e} \quad \text{Var}\left(X\right) = \alpha\theta^2\]

Dúvidas sobre esse conteúdo? Comente:

Sobre o Portal Action

O Portal Action é mantido por Estatcamp - Consultoria Estatística e Qualidade e por DIGUP - Desenvolvimento de Sistemas e Consultoria Estatística, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook