2.1 - Lei Fraca dos Grandes Números e Teorema Central do Limite

Você está aqui

Seja $ f(\cdot,\theta) $ função densidade de probabilidade de uma variável aleatória $ X $ cujo valor esperado é denotado por $ \mu $. Suponha que queremos estimar $ \mu $. Porém em qualquer problema real, podemos somente observar um número finito de valores da variável aleatória $ X $. Será então que, usando somente um número finito de valores de $ X $ (uma amostra aleatória de tamanho $ n $), podemos realizar inferências confiáveis sobre $ \mathbb{E}(X) $? A resposta é sim e isto é o que veremos como aplicação da lei fraca dos grandes números.

A lei fraca dos grandes números estabelece que, para quaisquer dois números suficientemente pequenos $ \epsilon $ e $ \delta $, com $ \epsilon \ \textgreater \ 0 $ e $ 0 \ \textless \ \delta \ \textless \ 1 $, existe um número inteiro $ n $ tal que, se uma amostra aleatória de tamanho $ n $ ou maior que $ n $ é obtida de $ f $, a média amostral está "próxima" de $ \mu $ com probabilidade maior ou igual que $ 1 - \delta $.

Lei Fraca dos Grandes Números

Seja $ f(\cdot) $ uma função densidade com média $ \mu $ e variância $ \sigma^2 $ e seja $ \overline{X} $ a média amostral de uma variável aleatória de tamanho $ n $ com função densidade $ f $. Sejam $ \epsilon $ e $ \delta $ quaisquer dois números especificados que satisfazem  $ \epsilon \ \textgreater \ 0 $ e $ 0 \ \textless \ \delta \ \textless \ 1 $. Se $ n $ é qualquer inteiro maior que $ \frac{\sigma^2}{\epsilon^2\delta} $, então 

\[\mathbb{P}[-\epsilon \ \textless \ \overline{X}-\mu \ \textless \epsilon]\geq 1-\delta.\]

Demonstração:

Sabemos que 

\[\mathbb{P}(g(X)\geq k)\leq \frac{\mathbb{E}(g(x))}{k}\]

para todo $ k \ \textgreater \ 0 $, para toda variável aleatória $ X $ e toda função não negativa $ g $. De maneira equivalente, temos que 

\[\mathbb{P}(g(x) \ \textless \ k)\geq 1-\frac{\mathbb{E}(g(X))}{k}.\]

Vamos tomar $ g(X)=(\overline{X}-\mu)^2 $ e $ k = \epsilon^2 $. Então 

\[\mathbb{P}[-\epsilon \ \textless \ \overline{X}-\mu \ \textless \epsilon]=\mathbb{P}[|\overline{X}-\mu| \ \textless \ \epsilon]=\mathbb{P}[|\overline{X}-\mu|^2 \ \textless \ \epsilon^2].\]

Mas 

\[\mathbb{P}[|\overline{X}-\mu|^2 \ \textless \ \epsilon^2]\geq 1-\frac{\mathbb{E}(\overline{X}-\mu)^2}{\epsilon^2}=1-\frac{(1/n)\sigma^2}{\epsilon^2}\geq 1-\delta.\]

Teorema Central do Limite

Assumir que os dados tem uma distribuição normal é altamente conveniente tanto do ponto de vista teórico como do ponto de vista computacional. Mas isto deixa um problema de fundamental importância: sob quais circunstâncias é razoável assumir que a distribuição normal pode ser usada? Gauss trabalhou neste problema por muito tempo, mas é um resultado de Laplace que é utilizado hoje. Anunciado em 1810, Laplace chamou este resultado de Teorema Central do Limite, que diz que sob a hipótese de amostragem aleatória, quando o tamanho da amostra aumenta, a distribuição de probabilidade da média amostral se aproxima de uma distribuição normal com média $ \mu $ e variância $ \sigma^2/n $, ou seja, se o tamanho amostral é suficientemente grande, podemos assumir que a média amostral tem uma distribuição normal.

Teorema Central do Limite:

Seja $ f $ uma densidade com média $ \mu $ e variância $ \sigma^2 $. Seja $ \overline{X} $ a média amostral de uma amostra aleatória de tamanho $ n $ de $ f $. Então, a distribuição da variável aleatória $ Z_n $ definida por 

\[Z_n=\frac{\overline{X}-E(\overline{X})}{\sqrt{Var(\overline{X})}}=\frac{\overline{X}-\mu}{\sigma/\sqrt{n}}.\]

se aproxima da distribuição normal padrão quando $ n $ tende ao infinito. Em outras palavras, $ Z_n $ tem distribuição aproximadamente normal com média $ 0 $ e variância $ 1 $ quando $ n $ tende ao infinito.

Desse modo, o teorema central do limite nos diz que a distribuição limite de $ Z_n $ é uma distribuição normal padrão ou que $ \overline{X} $ é assintoticamente distribuída como uma distribuição normal com média $ \mu $ e variância $ \sigma^2/n $. O mais impressionante do teorema central do limite é o fato de que nada é dito a respeito da função densidade $ f $. Ou seja, qualquer que seja a função de distribuição, desde que ela tenha variância finita, a média amostral terá uma distribuição aproximadamente normal para amostras suficientemente grandes.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]