Skip to main content

A distribuição gamma é uma das mais gerais distribuições, pois diversas distribuições são caso partiuclar dela como por exemplo a exponencial, a qui-quadrado, entre outras. Essa distribuição tem como suas principais aplicações à análise de tempo de vida de produtos.

Definição 6.9.1: Uma variável aleatória $ X $ tem distribuição Gama com parâmetros $ \alpha $ (também denominado parâmetro de forma) e $ \beta $ (parâmetro de taxa), denotando-se $ X \sim \ \text{Gama}(\alpha,\beta) $, se sua função densidade é dada por

\[f(x)=\left\{\begin{array}{l}\dfrac{\beta^{\alpha}x^{\alpha-1}e^{-\beta x}}{\Gamma({\alpha})} \ \hbox{se} \ x\geq0\\ 0, \ \hbox{caso contrário}\end{array}\right.\]

Os gráficos aproximados das funções de distribuição e de densidade para $ \alpha = 2 $ e $ \beta = 0,5 $ são apresentados, respectivamente, nas seguintes figuras

Em algumas referências, é usado um parâmetro de escala $ \theta $ equivalente ao inverso do parâmetro de taxa, isto é, $ \beta=\frac{1}{\theta} $. E a função densidade anterior é escrita como

\[f(x)=\frac{x^{\alpha-1}e^{\frac{-x}{\theta}}}{\Gamma(\alpha)\theta^{\alpha}}\]

 

Teorema 6.9.1: Suponha que $ \{X_i\}_i $ seja uma sequência de variáveis aleatórias independentes, tais que $ X_i\sim \ \text{Gamma}(\alpha_i,\beta) $. Então

\[\sum_{i=1}^{k}X_i\sim \ \text{Gama}\left(\sum_{i=1}^{k}\alpha_i,\beta\right).\]

Para demonstrar esse fato vamos utilizar da função geradora de momentos, mas antes vamos encontrar a função geradora da distribuição gamma.

\[M_X(t)=E[e^{tX}]=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}.\]

Portanto,

\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]

Assim mostramos que $ \displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta) $. De fato,

\[M_{\sum_{i=1}^{k}X_i}(t)=\mathbb{E}\left(e^{t(\sum_{i=1}^{k}x_i)}\right)= \mathbb{E}\left(\prod_{i=1}^{k}e^{tx_i}\right)=\prod_{i=1}^{k}\mathbb{E}\left(e^{tx_i}\right) =\prod_{i=1}^{k}\left(\frac{\beta}{\beta-t}\right)^{\alpha_i}=\left(\frac{\beta}{\beta-t}\right)^{\sum_{i=1}^{k}\alpha_i}.\]

Portanto $ \displaystyle \sum_{i=1}^{k}X_i\sim \ \text{Gama}(\sum_{i=1}^{k}\alpha_i,\beta) $.

Com a demonstração deste teorema mostramos também que soma de exponencial é uma exponencial, basta somarmos os parâmetros e que soma de qui-quadradado é qui-quadrado, basta somarmos os graus de liberdade. Pois como descrito anteriormente essas distribuições são casos particulares da distribuição gamma.

 

Função Geradora de Momentos, Valor Esperado e Variância

 

Vamos utilizar a função geradora de momentos para calcular a média e a variância da distribuição gamma. Assim seja $ X $ uma variável aleatória, tal que $ X\sim \ \text{Gamma}(\alpha,\beta) $, então sua função geradora de momentos é dada por:

\[M_X(t)=\mathbb{E}\left(e^{tX}\right)=\int_{0}^{\infty}e^{tx}x^{\alpha-1}e^{-\beta x}\frac{\beta^\alpha}{\Gamma(\alpha)}=\frac{\beta^{\alpha}}{\Gamma(\alpha)}\int_{0}^{\infty}x^{\alpha-1}e^{-(\beta-t)x}dx=\frac{\beta^\alpha}{\Gamma(\alpha)}\frac{\Gamma(\alpha)}{(\beta-t)^{\alpha}}\]

Portanto, concluimos qeu

\[M_X(t) =\left(\frac{\beta}{\beta-t}\right)^{\alpha}.\]

Para calcularmos o valor esperado e a variância vamos necessitar do primeiro e do segundo momento, assim basta derivarmos a função geradora de momentos. 

\[M'_X(t)=\frac{\alpha}{\beta-t}\left(\frac{\beta}{\beta-t}\right)^\alpha\]

e

\[M''_X(t)=\frac{\alpha(\alpha+1)}{(\beta-t)^2}\left(\frac{\beta}{\beta-t}\right)^\alpha.\]

Desta forma, o valor esperado de $ X $ é dado por:

\[\mathbb{E}(X)= M'_X(0)=\frac{\alpha}{\beta}\left(\frac{\beta}{\beta}\right)^\alpha=\frac{\alpha}{\beta}\]

e sua variância é dada por 

\[\text{Var}(X)=\mathbb{E}\left(X^2\right)-\mathbb{E}^2\left(X\right)=M''_X(0)-M'_X^2(0)=\frac{\alpha(\alpha+1)}{\beta^2}-\left(\frac{\alpha}{\beta}\right)^2\displaystyle =\frac{\alpha}{\beta^2}.\]