3.2 - Estimadores de Momentos

Você está aqui

Uma outra forma de encontrar estimadores de parâmetros populacionais, como a média e a variância por exemplo, é através do método dos momentos. Este método é baseado nos momentos teóricos e amostrais das variáveis aleatórias envolvidas. Na Seção 3.4 de Probabilidades, temos uma explicação detalhada dos momentos teóricos e da função geradora de momentos. Recordamos aqui a definição de momento teórico.

Definição 3.2.1:

Seja $ X $ uma variável aleatória. Para cada inteiro positivo $ n $, o n-ésimo momento de $ X $, denotado por $ \mu_n $, é dado por 

\[\mu_n = \mathbb{E}(X^n)\]

desde que $ \mathbb{E}(X^n) $ exista. Além disso, definimos o n-ésimo momento central como sendo $ \mathbb{E}[(X - \mathbb{E}(X))^n] $, caso exista.

Em particular, se $ X $ é uma variável aleatória discreta com função de probabilidade $ p(x) $, temos que

\[\mu_n = \sum x^np(x)\]

e, se $ X $ é uma variável aleatória contínua com função densidade de probabilidade $ f(x) $, temos que 

\[\mu_n = \int_{\infty}^\infty x^nf(x)dx.\]

Exemplo 3.2.1: 

Seja $ X $ uma variável aleatória com média $ \mu $ e variância $ \sigma^2 $. Neste caso, as seguintes relaçõe são válidas para os dois primeiros momentos populacionais: 

\[\mathbb{E}(X) = \mu, \quad \mathbb{E}(X^2) = \sigma^2 + \mu^2\]

A primeira igualdade é imediata e a segunda, segue do fato de que $ \hbox{Var}(X) = \mathbb{E}(X^2) - \mathbb{E}(X)^2 $, de onde segue que $ \mathbb{E}(X^2) = \hbox{Var}(X) + \mathbb{E}(X)^2 = \sigma^2 + \mu^2 $.

Definição 3.2.2:

Seja $ X_1, X_2, \ldots, X_k $ uma amostra de tamanho $ k $ da população $ X $. Definimos, o n-ésimo momento amostral, denotado por $ m_n $, por 

\[m_n = \frac{1}{k}\sum_{i=1}^kX_i^n, \quad n = 1, 2, \ldots\]

Em particular, temos que $ m_1 = \bar{X} $ e $ m_2 = \sum_{i=1}^kX_i^2/k $.

Definição 3.2.3:

Dizemos que $ \hat{\theta}_1,\ldots, \hat{\theta}_r $ são estimadores obtidos pelo método dos momentos se eles forem soluções das equações 

\[m_n=\mu_n, \quad n = 1,2,\ldots,r.\]

O procedimento mais adequado para encontrar os estimadores de momentos consiste em substituir os momentos teóricos pelos respectivos momentos amostrais.

Exemplo 3.2.2:

Seja $ X $ uma variável aleatória com média $ \mu $ e variância $ \sigma^2 $. Já vimos no Exemplo 3.2.1 que $ \mu = \mathbb{E}(X) $ e $ \sigma^2 = \mathbb{E}(X^2) - \mathbb{E}(X)^2 $. Além disso, os dois primeiros momentos amostrais são dados, respectivamente, por 

\[m_1 = \frac{1}{k}\sum_{i=1}^kX_i = \overline{X}, \quad m_2 = \frac{1}{k}\sum_{i=1}^kX_i^2.\]

Neste caso, os estimadores para a média populacional $ \mu $ e a variância populacional $ \sigma^2 $ obtidos pelo método dos momentos serão 

\[\hat{\mu}_M = m_1 = \overline{X},\]

\[\hat{\sigma}^2_M = m_2 - m_1^2 = \frac{1}{k}\sum_{i=1}^kX_i^2 - \overline{X}^2 = \hat{\sigma}^2.\]

Exemplo 3.2.3:

Dependendo da situação, podemos ter mais de um estimador de momentos. Suponha, por exemplo que $ X $ seja uma variável aleatória com distribuição de Poisson com parâmetro $ \lambda \textgreater 0 $. Já vimos na Seção 5.2 de Probabilidades que $ \mathbb{E}(X) = \hbox{Var}(X) = \lambda $ e então, utilizando o Exemplo 3.2.2, temos que o parâmetro $ \lambda $ pode ser estimado tanto por $ \overline{X} $ como por $ \sum_{i=i}^k\frac{(X_i - \overline{X})^2}{k} $, ou seja, $ \hat{\lambda}_M=\overline{X} $ ou $ \hat{\lambda}_M=\hat{\sigma}^2 $, que podem resultar em valores muito diferentes.

Exemplo 3.2.4:

Seja $ X_1, X_2,\ldots, X_m $ uma amostra aleatória independente igualmente distribuída com distribuição binomial de parâmetros n e p, ou seja, 

\[\mathbb{P}(X_i = x | n,p) = \left(\begin{array}{c}n\\x\end{array}\right)p^x(1-p)^{n-x}, \quad x = 0,1,\ldots,n.\]

Assumindo que os parâmetros $ n $ e $ p $ sejam desconhecidos, vamos encontrar estimadores para ambos os parâmetros a partir do método dos momentos. A partir do Exemplo 3.2.1 e usando o fato de que $ X_i $ tem média $ np $ e variância $ np(1-p) $, temos que os dois primeiros momentos populacionais são dados, respectivamente, por 

\[\mu_1 = \mathbb{E}(X) = np \quad \hbox{e} \quad \mu_2 = \mathbb{E}(X^2) = np(1-p) + n^2p^2\]

Igualando os dois primeiros momentos amostrais $ m_1 $ e $ m_2 $ aos dois primeiros momentos populacionais, temos o seguinte sistema de equações  

\[\left\{\begin{array}{l}\overline{X} = np \\\frac{1}{m}\sum_{i=1}^mX_i^2 = np(1-p) + n^2p^2\end{array}\right..\]

Resolvendo em $ n $ e $ p $, obtemos os seguintes estimadores pelo método dos momentos 

\[\hat{n} = \frac{\overline{X}^2}{\overline{X}-(1/m)\sum_{i=1}^m(X_i-\overline{X})^2} \quad \hbox{e} \quad \hat{p} = \frac{\overline{X}}{\hat{n}}.\]

Este é um típico exemplo em que os estimadores não são os melhores para os parâmetros populacionais de interesse. Na verdade, utilizando estes estimadores, podemos ter estimativas negativas para $ n $ e $ p $, o que não pode acontecer, já que estes devem ser números positivos.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]