3.2 - Estimadores de Momentos

Você está aqui

Uma outra forma de encontrar estimadores de parâmetros populacionais, como a média e a variância por exemplo, é através do método dos momentos. Este método é baseado nos momentos teóricos e amostrais das variáveis aleatórias envolvidas. Na Seção 3.4 de Probabilidades, temos uma explicação detalhada dos momentos teóricos e da função geradora de momentos. Recordamos aqui a definição de momento teórico.

Definição 3.2.1:

Seja $X$ uma variável aleatória. Para cada inteiro positivo $n$, o n-ésimo momento de $X$, denotado por $\mu_n$, é dado por \[\mu_n = \mathbb{E}(X^n)\]

desde que $\mathbb{E}(X^n)$ exista. Além disso, definimos o n-ésimo momento central como sendo $\mathbb{E}[(X - \mathbb{E}(X))^n]$, caso exista.

Em particular, se $X$ é uma variável aleatória discreta com função de probabilidade $p(x)$, temos que \[\mu_n = \sum x^np(x)\]

e, se $X$ é uma variável aleatória contínua com função densidade de probabilidade $f(x)$, temos que \[\mu_n = \int_{\infty}^\infty x^nf(x)dx.\]

Exemplo 3.2.1: 

Seja $X$ uma variável aleatória com média $\mu$ e variância $\sigma^2$. Neste caso, as seguintes relaçõe são válidas para os dois primeiros momentos populacionais: \[\mathbb{E}(X) = \mu, \quad \mathbb{E}(X^2) = \sigma^2 + \mu^2\]

A primeira igualdade é imediata e a segunda, segue do fato de que $\hbox{Var}(X) = \mathbb{E}(X^2) - \mathbb{E}(X)^2$, de onde segue que $\mathbb{E}(X^2) = \hbox{Var}(X) + \mathbb{E}(X)^2 = \sigma^2 + \mu^2$.

Definição 3.2.2:

Seja $X_1, X_2, \ldots, X_k$ uma amostra de tamanho $k$ da população $X$. Definimos, o n-ésimo momento amostral, denotado por $m_n$, por \[m_n = \frac{1}{k}\sum_{i=1}^kX_i^n, \quad n = 1, 2, \ldots\]

Em particular, temos que $m_1 = \bar{X}$ e $m_2 = \sum_{i=1}^kX_i^2/k$.

Definição 3.2.3:

Dizemos que $\hat{\theta}_1,\ldots, \hat{\theta}_r$ são estimadores obtidos pelo método dos momentos se eles forem soluções das equações \[m_n=\mu_n, \quad n = 1,2,\ldots,r.\]

O procedimento mais adequado para encontrar os estimadores de momentos consiste em substituir os momentos teóricos pelos respectivos momentos amostrais.

Exemplo 3.2.2:

Seja $X$ uma variável aleatória com média $\mu$ e variância $\sigma^2$. Já vimos no Exemplo 3.2.1 que $\mu = \mathbb{E}(X)$ e $\sigma^2 = \mathbb{E}(X^2) - \mathbb{E}(X)^2$. Além disso, os dois primeiros momentos amostrais são dados, respectivamente, por \[m_1 = \frac{1}{k}\sum_{i=1}^kX_i = \overline{X}, \quad m_2 = \frac{1}{k}\sum_{i=1}^kX_i^2.\]

Neste caso, os estimadores para a média populacional $\mu$ e a variância populacional $\sigma^2$ obtidos pelo método dos momentos serão \[\hat{\mu}_M = m_1 = \overline{X},\]

\[\hat{\sigma}^2_M = m_2 - m_1^2 = \frac{1}{k}\sum_{i=1}^kX_i^2 - \overline{X}^2 = \hat{\sigma}^2.\]

Exemplo 3.2.3:

Dependendo da situação, podemos ter mais de um estimador de momentos. Suponha, por exemplo que $X$ seja uma variável aleatória com distribuição de Poisson com parâmetro $\lambda \textgreater 0$. Já vimos na Seção 5.2 de Probabilidades que $\mathbb{E}(X) = \hbox{Var}(X) = \lambda$ e então, utilizando o Exemplo 3.2.2, temos que o parâmetro $\lambda$ pode ser estimado tanto por $\overline{X}$ como por $\sum_{i=i}^k\frac{(X_i - \overline{X})^2}{k}$, ou seja, $\hat{\lambda}_M=\overline{X}$ ou $\hat{\lambda}_M=\hat{\sigma}^2$, que podem resultar em valores muito diferentes.

Exemplo 3.2.4:

Seja $X_1, X_2,\ldots, X_m$ uma amostra aleatória independente igualmente distribuída com distribuição binomial de parâmetros n e p, ou seja, \[\mathbb{P}(X_i = x | n,p) = \left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x}, \quad x = 0,1,\ldots,n.\]

Assumindo que os parâmetros $n$ e $p$ sejam desconhecidos, vamos encontrar estimadores para ambos os parâmetros a partir do método dos momentos. A partir do Exemplo 3.2.1 e usando o fato de que $X_i$ tem média $np$ e variância $np(1-p)$, temos que os dois primeiros momentos populacionais são dados, respectivamente, por \[\mu_1 = \mathbb{E}(X) = np \quad \hbox{e} \quad \mu_2 = \mathbb{E}(X^2) = np(1-p) + n^2p^2\]

Igualando os dois primeiros momentos amostrais $m_1$ e $m_2$ aos dois primeiros momentos populacionais, temos o seguinte sistema de equações  \[\left\{\begin{array}{l}\overline{X} = np \\\frac{1}{m}\sum_{i=1}^mX_i^2 = np(1-p) + n^2p^2\end{array}\right..\]

Resolvendo em $n$ e $p$, obtemos os seguintes estimadores pelo método dos momentos \[\hat{n} = \frac{\overline{X}^2}{\overline{X}-(1/m)\sum_{i=1}^m(X_i-\overline{X})^2} \quad \hbox{e} \quad \hat{p} = \frac{\overline{X}}{\hat{n}}.\]

Este é um típico exemplo em que os estimadores não são os melhores para os parâmetros populacionais de interesse. Na verdade, utilizando estes estimadores, podemos ter estimativas negativas para $n$ e $p$, o que não pode acontecer, já que estes devem ser números positivos.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]