3.1.1 - Princípio da Suficiência

Você está aqui

Seja $ \theta $ um parâmetro de interesse. O princípio da suficiência estabelece que uma estatística $ T(\textbf{X}) $ é dita suficiente para o parâmetro $ \theta $ se ela captura toda a informação sobre $ \theta $ contida na amostra, ou seja, se $ X_1, \ldots, X_n $ é uma amostra retirada da população, $ T(\textbf{X}) $ é uma estatística suficiente para $ \theta $ se qualquer inferência sobre $ \theta $ depende da amostra $ \textbf{X} $ somente do valor $ T(\textbf{X}) $, ou seja, se $ \textbf{X} $ e $ \textbf{Y} $ são duas amostras tais que $ T(\textbf{x}) = T(\textbf{y}) $, então a inferência sobre $ \theta $ é a mesma independente da observação $ \textbf{X} $ ou $ \textbf{Y} $.

Definição 3.1.1.1: 

Formalmente, dizemos que uma estatística $ T(\textbf{X}) $ é suficiente para o parâmetro $ \theta $ se a distribuição condicional da amostra $ \textbf{X} $ dado o valor de $ T(\textbf{X}) $ não depende de $ \theta $.

Para o caso em que $ T(\textbf{X}) $ possui uma distribuição contínua, temos que $ P(T(\textbf{X}) = t) = 0 $ para qualquer valor $ t $. Neste caso, é necessário utilizar uma definição um pouco mais sofisticada de probabilidade condicional definida no livro de Processo Estocástico. Os resultados aqui estabelecidos serão realizados para o caso discreto, porém também são verdadeiros para o caso contínuo. Para facilitar o entendimento da Definição 3.1.1.1, seja $ t $ um valor possível de $ T(\textbf{X}) $. O objetivo aqui é considerar a probabilidade condicional $ P(\textbf{X} = \textbf{x}|T(\textbf{X}) = t) $. Neste caso, se $ \textbf{x} $ é tal que se $ T(\textbf{x}) \neq t $ então $ P(\textbf{X} = \textbf{x}|T(\textbf{X} = t) = 0 $. Pela definição, se $ T(\textbf{X}) $ é uma estatística suficiente, a esperança condicional é a mesma para todos os valores de $ \theta $.

Teorema 3.1.1.1:

Se $ p(\textbf{x}|\theta) $ é a função de probabilidade ou função densidade de probabilidade de $ \textbf{X} $ e $ q(t|\theta) $ é a função de probabilidade ou função densidade de probabilidade de $ T(\textbf{X}) $ então $ T(\textbf{X}) $ é uma estatística suficiente para $ \theta $ se, para todo $ \textbf{x} $ no espaço amostral, $ p(\textbf{x}|\theta)/q(T(\textbf{x})|\theta) $ é constante (não depende de $ \theta $).

Exemplo 3.1.1.1:

Seja $ X_1,\ldots,X_n $ uma amostra independente e igualmente distribuída com distribuição de Bernoulli com parâmetro $ \theta $. Neste caso, temos que a estatística $ T(\textbf{X}) = X_1 + \ldots + X_n $ é uma estatística suficiente para $ \theta $.

De fato, temos que $ T(\textbf{X}) $ tem uma distribuição Binomial com parâmetros $ n $ e $ \theta $, isto é, $ T(\textbf{X})\sim \ \hbox{Binomial}(n,\theta) $. Supondo que $ \sum X_i = t $, segue que 

\[\frac{p(\textbf{x}|\theta)}{q(T(\textbf{x})|\theta)} = \frac{\prod_{i = 1}^n\theta^{x_i}(1-\theta)^{1-x_i}}{\left(\begin{array}{c}n\\t\end{array}\right)\theta^t(1-\theta)^{n-t}} = \frac{\theta^{\sum x_i}(1-\theta)^{\sum(1-x_i)}}{\left(\begin{array}{c}n\\t\end{array}\right) \theta^t (1-\theta)^{n-t}} = \frac{\theta^t(1-\theta)^{n-t}}{\left(\begin{array}{c}n\\t\end{array}\right)\theta^t(1-\theta)^{n-t}}=\frac{1}{\left(\begin{array}{c}n\\t\end{array}\right)}.\]

de forma que $ T(\textbf{X}) $ é suficiente para $ \theta $.

Exemplo 3.1.1.2: 

Seja $ X_1,\ldots,X_n $ uma amostra independente e igualmente distribuída com distribuição normal com média $ \mu $ e variância $ \sigma^2 $ conhecida, ou seja $ N(\mu,\sigma^2) $. A média amostral $ T(\textbf{X}) = \bar{X} $ é uma estatística suficiente para $ \mu $.

De fato, a função densidade de probabilidade conjunta da amostra $ \textbf{X} $ é 

\[f(\textbf{x}|\mu) = \prod_{i=1}^n\frac{1}{(2\pi\sigma^2)^{1/2}}\exp\left(\frac{-(x_i-\mu)^2}{2\sigma^2}\right) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\mu)^2}{2\sigma^2}\right).\]

de onde concluímos que 

\[f(\textbf{x}|\mu) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\frac{\left(\sum_{i=1}^n(x_i-\bar{X})^2 + n(\bar{X}-\mu)^2\right)}{2\sigma^2}\right).\]

Também ressaltamos que a estatística $ \bar{X} $ possui distribuição normal com média $ \mu $ e variância $ \sigma^2/n $, de modo que 

\[\frac{f(\textbf{x}|\mu)}{q(T(\textbf{x})|\mu)}=\frac{(2\pi\sigma^2)^{n/2}\exp\left(-\left(\sum_{i=1}^n(x_i-\bar{X})^2+n(\bar{X}-\mu)^2\right)/(2\sigma^2)\right)}{(2\pi\sigma^2/n)^{-1/2}\exp(-n(\bar{X}-\mu)^2/(2\sigma^2))}\]

de onde segue que 

\[\frac{f(\textbf{x}|\mu)}{q(T(\textbf{x})|\mu)}=n^{-1/2}(2\pi\sigma^2)^{-(n-1)/2}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right).\]

que não depende de $ \mu $. Portanto, a média amostral $ \bar{X} $ é uma estatística suficiente para $ \mu $.

Teorema 3.1.1.2 (Teorema da Fatoração):

 Seja $ f(\textbf{x}|\theta) $ a função densidade de probabilidade ou função de probabilidade conjunta de uma amostra $ \textbf{X} $. Uma estatística $ T(\textbf{X}) $ é suficiente para $ \theta $ se, e somente se, existem funções $ g(t|\theta) $ e $ h(\textbf{x}) $ tais que, para qualquer ponto amostral $ \textbf{x} $ e $ \theta $ no espaço paramétrico, vale a igualdade 

\[f(\textbf{x}|\theta)=g(T(\textbf{x})|\theta)h(\textbf{x}).\]

Voltando ao Exemplo 3.1.1.2, temos que $ f(\textbf{x}|\mu) $ pode ser fatorada da seguinte forma 

\[f(\textbf{x}|\mu)=\frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right) \exp\left(-\frac{n(\bar{X}-\mu)^2}{2\sigma^2}\right)\]

e, definindo 

\[h(\textbf{x}) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right)\]

que não depende do parâmetro $ \mu $

\[g(t|\mu) = \exp\left(-\frac{n(t-\mu)^2}{2\sigma^2}\right)\]

que é um fator que contém o parâmetro $ \mu $ e depende da amostra $ \textbf{x} $ pela função $ T(\textbf{x}) = \bar{X} $. Desta forma, segue que 

\[f(\textbf{x}|\mu)=h(\textbf{x}g(T(\textbf{x})|\mu).\]

E então, pelo Teorema da Fatoração, $ T(\textbf{X}) = \bar{X} $ é uma estatística suficiente para $ \mu $.

Exemplo 3.1.1.3:

Sejam $ X_1,\ldots, X_n $ observações independentes e identicamente distribuídas de uma distribuição uniforme discreta em $ 1, \ldots, \theta $. Desta forma, a função de probabilidade de $ X_i $ é 

\[f(x|\theta) = \left\{\begin{array}{l}\frac{1}{\theta}, \ \hbox{se} \ x = 1, 2,\ldots, \theta\\0, \ \hbox{caso contrário}.\end{array}\right.\]

e a função de probabilidade conjunta de $ X_1, \ldots, X_n $ é 

\[f(\textbf{x}|\theta) = \left\{\begin{array}{l}\frac{1}{\theta^n}, \ \hbox{se} \ x_i\in\{1,\ldots,\theta\} \ \hbox{para} \ i = 1,\ldots, n\\0, \ \hbox{caso contrário}\end{array}\right.\]

Considerando a estatística de ordem $ T(\textbf{x}) = x_{(n)} = \max_i x_i $ e as funções $ h(x) $ e $ g(t|\theta) $ dadas, respectivamente, por 

\[h(x) = \left\{\begin{array}{l}1, \ \hbox{se} \ x_i\in\{1,2,\ldots\} \ \hbox{para} \ i = 1,\ldots, n\\0, \ \hbox{caso contrário}\end{array}\right. \quad \hbox{e} \quad g(t|\theta) = \left\{\begin{array}{l}\frac{1}{\theta^n}, \ \hbox{se} \ t\leq\theta\\0, \ \hbox{caso contrário,}\end{array}\right.\]

é imediato verificar que $ f(\textbf{x}|\theta) = g(T(\textbf{x})|\theta)h(\textbf{x}) $ para todo $ \textbf{x} $ e $ \theta $. Portanto, pelo Teorema da Fatoração, $ T(\textbf{X}) $ é uma estatística suficiente.

Exemplo 3.1.1.4:

Assuma novamente que $ X_1,\ldots,X_n $ é uma amostra independente e igualmente distribuída de uma distribuição normal com média $ \mu $ e variância $ \sigma^2 $, porém agora, ambos os parâmetros são desconhecidos. Neste caso temos o vetor de parâmetros $ \theta = (\mu,\sigma^2) $. Neste caso, temos que a função densidade de probabilidade depende da amostra $ \textbf{x} $ somente dos valores $ T_1(\textbf{x}) = \bar{X} $ e $ T_2(\textbf{x}) = s^2 $. De fato, temos que  

\[f(\textbf{x}|\theta) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}-\frac{n(\bar{X}-\mu)^2}{2\sigma^2}\right)\]

de onde segue que 

\[f(\textbf{x}|\theta) =\frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left( -\frac{n(\bar{X}-\mu)^2}{2\sigma^2}-\frac{(n-1)s^2}{2\sigma^2}\right)\]

e então, definindo $ h(\textbf{x}) = 1 $

\[g(t_1,t_2|\theta) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\frac{\left(n(t_1-\mu)^2+(n-1)t_2\right)}{2\sigma^2}\right)\]

segue que 

\[f(\textbf{x}|\mu,\sigma^2) = g(T_1(\textbf{x},T_2(\textbf{x})|\mu,\sigma^2)h(\textbf{x})\]

e, pelo Teorema da Fatoração, $ T(\textbf{X}) = (T_1(\textbf{X},T_2(\textbf{X})) = (\bar{X},s^2) $ é uma estatística suficiente para $ \theta = (\mu,\sigma^2) $.

O Exemplo 3.1.1.4 nos mostra que o resumo dos dados somente pela média amostral e variância amostral é, de fato, uma prática justificada. A estatística suficiente $ (\bar{X}, s^2) $ contém toda a informação sobre os parâmetros $ (\mu,\sigma^2) $ disponível na amostra. O seguinte teorema nos fornece uma maneira bastante eficiente de se encontrar uma estatística suficiente $ T(\textbf{X}) = (T_1(\textbf{X}),\ldots,T_k(\textbf{X})) $ para um vetor de parâmetros $ \theta = (\theta_1,\ldots,\theta_d) $ com $ d\leq k $.

Teorema 3.1.1.3:

Sejam $ X_1,\ldots,X_n $ observações independentes e igualmente distribuída com função de probabilidade ou função densidade de probabilidade $ f(x|\theta) $ que pertence a uma família exponencial, ou seja, $ f(x|\theta) $ pode ser escrita na seguinte forma 

\[f(x|\theta) = h(x)c(\theta)\exp\left(\sum_{i=1}^kw_i(\theta)t_i(x)\right)\]

em que $ \theta = (\theta_1,\ldots,\theta_d) $, $ d\leq k $. Neste caso, temos que 

\[T(\textbf{X}) = \left(\sum_{j=1}^nt_1(X_j),\ldots,\sum_{j=1}^nt_k(X_j)\right)\]

é uma estatística suficiente para $ \theta $.

Exemplo 3.1.1.5:

Seja $ X_1,\ldots,X_n $ uma amostra aleatória independente e igualmente distribuída de uma distribuição de Bernoulli com parâmetro $ 0 \ \textless \ \theta \ \textless \ 1 $. A distribuição de Bernoulli pertence à família exponencial. De fato, temos que 

\[f(x|\theta) = \theta^x(1-\theta)^{1-x} = \exp\left\{\log\left(\theta^x(1-\theta)^{1-x}\right) \right\} = \exp\left\{x\log\theta + (1-x)\log(1-\theta)\right\}\]

de onde podemos escrever 

\[f(x|\theta) = \exp\left\{x\log\left(\frac{\theta}{1-\theta}\right)+\log(1-\theta)\right\} = (1-\theta)\exp\left\{x\log\left(\frac{\theta}{1-\theta}\right)\right\}\]

e então, basta tomar $ c(\theta) = 1-\theta $, $ t(x) = x $ e $ w(\theta) = \log(\frac{\theta}{1-\theta}) $. Como $ t(x) = x $, segue do Teorema 3.1.1.3 que $ T(x) = \sum_{j=1}^nt(X_j) = \sum_{j=1}^nX_j $ é uma estatística suficiente para o parâmetro $ \theta $, comprovando o resultado o Exemplo 3.1.1.1.

Observação 3.1.1.1: 

A amostra completa $ \textbf{X} $ é uma estatística suficiente. De fato, podemos fatorar a função de probabilidade ou função densidade de probabilidade de $ \textbf{X} $ como $ f(\textbf{x}|\theta) = f(T(\textbf{x})|\theta)h(\textbf{x}) $ em que $ T(\textbf{x}) = \textbf{x} $ e $ h(\textbf{x}) = 1 $ para qualquer $ \textbf{x} $.

Observação 3.1.1.2:

Qualquer função bijetora de uma estatística suficiente é uma estatística suficiente. De fato, suponha que $ T(\textbf{X}) $ é uma estatística suficiente e considere $ T^\ast(\textbf{x}) = m(T(\textbf{x})) $ para todo $ \textbf{x} $ em que $ m $ é uma função bijetora com inversa $ m^{-1} $. Temos, pelo Teorema da Fatoração que existem funções $ g $ e $ h $ tais que 

\[f(\textbf{x}|\theta) = g(T(\textbf{x})|\theta)h(\textbf{x}) = g(m^{-1}(T^\ast(\textbf{x}))|\theta)h(\textbf{x})\]

e então, definindo $ g^\ast(t|\theta) = g(m^{-1}(t)|\theta) $, concluímos que 

\[f(\textbf{x}|\theta) = g^\ast(T^\ast(\textbf{x})|\theta)h(\textbf{x})\]

de forma que, pelo Teorema da Fatoração, $ T^\ast(\textbf{X}) $ é uma estatística suficiente.

Definição 3.1.1.2: 

Uma estatística suficiente $ T(\textbf{X}) $ é chamada de estatística suficiente minimal se, para qualquer outra estatística suficiente $ T'(\textbf{X}) $, $ T(\textbf{x}) $ é uma função de $ T'(\textbf{x}) $.

Não é interessante utilizar a Definição 3.1.1.2 para encontrar uma estatística suficiente minimal, assim como não é prático utilizar a Definição 3.1.1.1 para encontrar uma estatística suficiente. O teorema abaixo nos fornece uma maneira prática para encontrar uma estatística suficiente minimal.

Teorema 3.1.1.4:

Seja $ f(\textbf{x}|\theta) $ a função de probabilidade ou função densidade de probabilidade de uma amostra $ \textbf{X} $. Suponha que exista uma função $ T(\textbf{x}) $ tal que, para quaisquer $ \textbf{x} $ e $ \texbf{y} $, a razão $ f(\textbf{x}|\theta)/f(\textbf{y}|\theta) $ é constante se, e somente se, $ T(\textbf{x}) = T(\textbf{y}) $. Então $ T(\textbf{X}) $ é uma estatística suficiente minimal para $ \theta $.

Exemplo 3.1.1.6:

Seja $ X_1,\ldots,X_n $ uma amostra independente e igualmente distribuída de uma distribuição normal com média $ \mu $ e variância $ \sigma^2 $ desconhecidas e sejam $ \textbf{x} $ e $ \textbf{y} $ dois pontos amostrais tais que $ (\bar{x},s^2_{\textbf{x}}) $ e $ (\bar{y},s^2_{\textbf{y}}) $ são as médias e variâncias correspondentes a $ \textbf{x} $ e $ \textbf{y} $ respectivamente. Neste caso, temos que 

\[\frac{f(\textbf{x}|\mu,\sigma^2)}{f(\textbf{y}|\mu,\sigma^2)}=\frac{(2\pi\sigma^2)^{-n/2}\exp\left(-[n(\bar{x}-\mu)^2+(n-1)s^2_{\textbf{x}}]/(2\sigma^2)\right)}{(2\pi\sigma^2)^{-n/2}\exp\left(-[n(\bar{y}-\mu)^2+(n-1)s^2_{\textbf{y}}]/(2\sigma^2)\right)}\]

de onde concluímos que 

\[\frac{f(\textbf{x}|\mu,\sigma^2)}{f(\textbf{y}|\mu,\sigma^2)} = \exp\left([-n(\bar{x}^2-\bar{y}^2)+2n\mu(\bar{x}-\bar{y})-(n-1)(s^2_{\textbf{x}}-s^2_{\textbf{y}})]/(2\sigma^2)\right)\]

que é constante em relação aos parâmetros $ \mu $ e $ \sigma^2 $ se, e somente se $ \bar{x} = \bar{y} $ e $ s^2_{\textbf{x}} = s^2_{\textbf{y}} $. Segue do Teorema de Lehmann-Scheffé que $ (\bar{X}, S^2) $ é uma estatística suficiente minimal para $ (\mu,\sigma^2) $.

Estatística Ancilar

Estatísticas suficientes, como vimos, possuem toda a informação a respeito do parâmetro $ \theta $ disponível na amostra. Em contrapartida, uma estatística ancilar, não contém nenhuma informação a respeito do parâmetro $ \theta $. Neste caso, uma estatística ancilar é uma observação de uma variável aleatória cuja distribuição é fixa e conhecida, além de não relacionada com $ \theta $

Definição 3.1.1.3:

Uma estatística $ S(\textbf{X}) $ cuja distribuição não depende do parâmetro $ \theta $ é chamada de estatística ancilar.

Exemplo 3.1.1.7:

Seja $ X_1,\ldots,X_n $ uma amostra aleatória independente e igualmente distribuída de uma distribuição uniforme no intervalo $ (\theta,\theta+1) $, $ -\infty \ \textless \ \theta \ \textless \ \infty $ e seja $ X_{(1)}\textless\ldots\textless X_{(n)} $ a estatística de ordem da amostra. Neste caso, temos que a amplitude $ R = X_{(n)} - X_{(1)} $ é uma estatística ancilar.

De fato, temos que a função de distribuição acumulada de cada $ X_i $ é dada por 

\[F(x|\theta) = \left\{\begin{array}{l}0, \ \hbox{se} \ x\leq\theta\\ x-\theta \ \hbox{se} \ \theta \ \textless \ x \ \textless \ \theta+1\\ 1, \ \hbox{se} \ x\geq \theta+1\end{array}\right.\]

Assim, a função de distribuição conjunta de $ X_{(1)} $ e $ X_{(n)} $ é dada por 

\[g(x_{(1)},x_{(n)}|\theta) = \left\{\begin{array}{l}n(n-1)(x_{(n)}-x_{(1)})^{n-2}, \ \hbox{se} \ \theta \ \textless \ x_{(1)} \ \textless \ x_{(n)} \ \textless \ \theta+1\\ 0, \ \hbox{caso contrário.}\]

Considerando a transformação $ R = X_{(n)}-X_{(1)} $ e $ M = (X_{(1)}+X_{(n)})/2 $ que tem a transformação inversa $ X_{(1)} = (2M-R)/2 $ e $ X_{(n)} = (2M+R)/2 $ com jacobiano 1, temos que a função densidade de probabilidade conjunta de $ R $ e $ M $ é 

\[h(r,m|\theta) = \left\{\begin{array}{l}n(n-1)r^{n-2}, \ 0 \ \textless \ r \ \textless \ 1, \ \theta + (r/2) \ \textless \ m \ \textless \ \theta+1-(r/2)\\0 \ \hbox{caso contrário}\]

e a função densidade de probabilidade de $ R $ é 

\[h(r|\theta) = \int_{\theta+(r/2)}^{\theta+1-(r/2)}n(n-1)r^{n-2}dm = n(n-1)r^{n-2}(1-r), \ 0 \ \textless \ r \ \textless \ 1\]

que não depende de $ \theta $ e então, $ R $ é uma estatística ancilar.

Definição 3.1.1.4:

Seja $ f(t|\theta) $ uma família de funções de probabilidade ou funções densidade de probabilidade para uma estatística $ T(\textbf{X}) $. A família de distribuições de probabilidade é chamada completa se $ \mathbb{E}(g(T)) = 0 $ para todo $ \theta $ implicar que $ \mathbb{P}(g(T) = 0) = 1 $ para todo $ \theta $. De forma equivalente, $ T(\textbf{X}) $ é uma estatística completa.

Exemplo 3.1.1.8: 

Suponha que $ T $ tenha distribuição Binomial(n,p) com $ 0 \ \textless \ p \ \textless \ 1 $ e seja $ g $ uma função tal que $ \mathbb{E}(g(T)) = 0 $. Então 

\[0 = \mathbb{E}(g(T)) = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)p^t(1-p)^{n-t} = (1-p)^n\sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)\left(\frac{p}{1-p}\right)^t\]

para $ 0 \ \textless \ p \ \textless \ 1 $. Como $ (1-p)^n $ é não nulo para qualquer $ p $, segue que 

\[0 = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)\left(\frac{p}{1-p}\right)^t = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)r^t\]

para todo $ r $ com $ 0 \ \textless \ r \ \textless \ \infty $. Uma vez que nenhum dos termos $ \left(\begin{array}{c}n\\t\end{array}\right) $ é nulo, seque que $ \left(\begin{array}{c}n\\t\end{array}\right) $ é não nulo e então, $ g(t) = 0 $ para todo $ t = 0,1,\ldots,n $. Como, por hipótese, $ T $ assume os valores $ 0, 1, \ldots, n $ com probabilidade 1, segue que $ \mathbb{P}(g(T) = 0) = 1 $ para todo $ p $ e, desta forma, $ T $ é uma estatística completa.

Exemplo 3.1.1.9: 

Sejam $ X_1, \ldots, X_n $ observações independentes e igualmente distribuídas de uma distribuição Uniforme$ (0,\theta) $ com $ 0 \ \textless \ \theta \ \textless \ \infty $. De forma análoga ao Exemplo 3.1.1.3, podemos mostrar que $ T(\textbf{X}) = \max_iX_i $ é uma estatística suficiente e a função densidade de probabilidade de $ T(\textbf{X}) $ é dada por 

\[f(t|\theta) = \left\{\begin{array}{l}nt^{n-1}\theta^{-n}, \ \hbox{se} \ 0 \ \textless \ t \ \thextless \ \infty\\0, \ \hbox{caso contrário.}\end{array}\right.\]

Seja $ g(t) $ uma função que satisfaz $ \mathbb{E}(g(T)) = 0 $ para todo $ \theta $. Uma vez que $ \mathbb{E}(g(T)) $ é constante como função de $ \theta $, sua derivada em relação a $ \theta $ é $ 0 $. Portanto 

\[0 = \frac{d}{d\theta}\mathbb{E}(g(T)) = \frac{d}{d\theta}\int_0^\theta g(t)nt^{n-1}\theta^{-n}dt = (\theta^{-n})\frac{d}{d\theta}\int_0^\theta ng(t)t^{n-1}dt + \left(\frac{d}{d\theta}\theta^{-n}\right)\int_0^\theta ng(t)t^{n-1}dt\]

de onde concluímos que 

\[0 = \theta^{-1}ng(\theta).\]

Como $ n\theta^{-1}\neq0 $, segue que $ g(\theta) = 0 $ e isto é verdade para todo $ \theta \ \textgreater \ 0 $, logo $ T $ é uma estatística completa.

Teorema 3.1.1.5 (Teorema de Basu):

Se $ T(\textbf{X}) $ é uma estatística suficiente minimal e completa, então $ T(\textbf{X}) $ é independente de qualquer estatística ancilar.

Teorema 3.1.1.6:

Sejam $ X_1,\ldots,X_n $ observações independentes e igualmente distribuídas de uma família exponencial com função de probabilidade ou função densidade de probabilidade da forma 

\[f(x|\theta) = h(x)c(\theta)\exp\left(\sum_{j=1}^kw(\theta_j)t_j(x)\right)\]

em que $ \theta = (\theta_1,\theta_2,\ldots,\theta_k) $. Então a estatística 

\[T(\textbf{X}) = \left(\sum_{i=1}^nt_1(X_i),\sum_{i=1}^nt_2(X_i),\ldots,\sum_{i=1}^nt_k(X_i)\right)\]

é completa, contanto que o espaço paramétrico $ \Theta $ contenha um conjunto aberto em $ \mathbb{R}^k $.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]