3.1.1 - Princípio da Suficiência

Você está aqui

Seja $\theta$ um parâmetro de interesse. O princípio da suficiência estabelece que uma estatística $T(\textbf{X})$ é dita suficiente para o parâmetro $\theta$ se ela captura toda a informação sobre $\theta$ contida na amostra, ou seja, se $X_1, \ldots, X_n$ é uma amostra retirada da população, $T(\textbf{X})$ é uma estatística suficiente para $\theta$ se qualquer inferência sobre $\theta$ depende da amostra $\textbf{X}$ somente do valor $T(\textbf{X})$, ou seja, se $\textbf{X}$ e $\textbf{Y}$ são duas amostras tais que $T(\textbf{x}) = T(\textbf{y})$, então a inferência sobre $\theta$ é a mesma independente da observação $\textbf{X}$ ou $\textbf{Y}$.

Definição 3.1.1.1: 

Formalmente, dizemos que uma estatística $T(\textbf{X})$ é suficiente para o parâmetro $\theta$ se a distribuição condicional da amostra $\textbf{X}$ dado o valor de $T(\textbf{X})$ não depende de $\theta$.

Para o caso em que $T(\textbf{X})$ possui uma distribuição contínua, temos que $P(T(\textbf{X}) = t) = 0$ para qualquer valor $t$. Neste caso, é necessário utilizar uma definição um pouco mais sofisticada de probabilidade condicional definida no livro de Processo Estocástico. Os resultados aqui estabelecidos serão realizados para o caso discreto, porém também são verdadeiros para o caso contínuo. Para facilitar o entendimento da Definição 3.1.1.1, seja $t$ um valor possível de $T(\textbf{X})$. O objetivo aqui é considerar a probabilidade condicional $P(\textbf{X} = \textbf{x}|T(\textbf{X}) = t)$. Neste caso, se $\textbf{x}$ é tal que se $T(\textbf{x}) \neq t$ então $P(\textbf{X} = \textbf{x}|T(\textbf{X} = t) = 0$. Pela definição, se $T(\textbf{X})$ é uma estatística suficiente, a esperança condicional é a mesma para todos os valores de $\theta$.

Teorema 3.1.1.1:

Se $p(\textbf{x}|\theta)$ é a função de probabilidade ou função densidade de probabilidade de $\textbf{X}$ e $q(t|\theta)$ é a função de probabilidade ou função densidade de probabilidade de $T(\textbf{X})$ então $T(\textbf{X})$ é uma estatística suficiente para $\theta$ se, para todo $\textbf{x}$ no espaço amostral, $p(\textbf{x}|\theta)/q(T(\textbf{x})|\theta)$ é constante (não depende de $\theta$).

Exemplo 3.1.1.1:

Seja $X_1,\ldots,X_n$ uma amostra independente e igualmente distribuída com distribuição de Bernoulli com parâmetro $\theta$. Neste caso, temos que a estatística $T(\textbf{X}) = X_1 + \ldots + X_n$ é uma estatística suficiente para $\theta$.

De fato, temos que $T(\textbf{X})$ tem uma distribuição Binomial com parâmetros $n$ e $\theta$, isto é, $T(\textbf{X})\sim \ \hbox{Binomial}(n,\theta)$. Supondo que $\sum X_i = t$, segue que \[\frac{p(\textbf{x}|\theta)}{q(T(\textbf{x})|\theta)} = \frac{\prod_{i = 1}^n\theta^{x_i}(1-\theta)^{1-x_i}}{\left(\begin{array}{c}n\\t\end{array}\right)\theta^t(1-\theta)^{n-t}} = \frac{\theta^{\sum x_i}(1-\theta)^{\sum(1-x_i)}}{\left(\begin{array}{c}n\\t\end{array}\right) \theta^t (1-\theta)^{n-t}} = \frac{\theta^t(1-\theta)^{n-t}}{\left(\begin{array}{c}n\\t\end{array}\right)\theta^t(1-\theta)^{n-t}}=\frac{1}{\left(\begin{array}{c}n\\t\end{array}\right)}.\]

de forma que $T(\textbf{X})$ é suficiente para $\theta$.

Exemplo 3.1.1.2: 

Seja $X_1,\ldots,X_n$ uma amostra independente e igualmente distribuída com distribuição normal com média $\mu$ e variância $\sigma^2$ conhecida, ou seja $N(\mu,\sigma^2)$. A média amostral $T(\textbf{X}) = \bar{X}$ é uma estatística suficiente para $\mu$.

De fato, a função densidade de probabilidade conjunta da amostra $\textbf{X}$ é \[f(\textbf{x}|\mu) = \prod_{i=1}^n\frac{1}{(2\pi\sigma^2)^{1/2}}\exp\left(\frac{-(x_i-\mu)^2}{2\sigma^2}\right) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\mu)^2}{2\sigma^2}\right).\]

de onde concluímos que \[f(\textbf{x}|\mu) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\frac{\left(\sum_{i=1}^n(x_i-\bar{X})^2 + n(\bar{X}-\mu)^2\right)}{2\sigma^2}\right).\]

Também ressaltamos que a estatística $\bar{X}$ possui distribuição normal com média $\mu$ e variância $\sigma^2/n$, de modo que \[\frac{f(\textbf{x}|\mu)}{q(T(\textbf{x})|\mu)}=\frac{(2\pi\sigma^2)^{n/2}\exp\left(-\left(\sum_{i=1}^n(x_i-\bar{X})^2+n(\bar{X}-\mu)^2\right)/(2\sigma^2)\right)}{(2\pi\sigma^2/n)^{-1/2}\exp(-n(\bar{X}-\mu)^2/(2\sigma^2))}\]

de onde segue que \[\frac{f(\textbf{x}|\mu)}{q(T(\textbf{x})|\mu)}=n^{-1/2}(2\pi\sigma^2)^{-(n-1)/2}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right).\]

que não depende de $\mu$. Portanto, a média amostral $\bar{X}$ é uma estatística suficiente para $\mu$.

Teorema 3.1.1.2 (Teorema da Fatoração):

 Seja $f(\textbf{x}|\theta)$ a função densidade de probabilidade ou função de probabilidade conjunta de uma amostra $\textbf{X}$. Uma estatística $T(\textbf{X})$ é suficiente para $\theta$ se, e somente se, existem funções $g(t|\theta)$ e $h(\textbf{x})$ tais que, para qualquer ponto amostral $\textbf{x}$ e $\theta$ no espaço paramétrico, vale a igualdade \[f(\textbf{x}|\theta)=g(T(\textbf{x})|\theta)h(\textbf{x}).\]

Voltando ao Exemplo 3.1.1.2, temos que $f(\textbf{x}|\mu)$ pode ser fatorada da seguinte forma \[f(\textbf{x}|\mu)=\frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right) \exp\left(-\frac{n(\bar{X}-\mu)^2}{2\sigma^2}\right)\]

e, definindo \[h(\textbf{x}) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}\right)\]

que não depende do parâmetro $\mu$ e \[g(t|\mu) = \exp\left(-\frac{n(t-\mu)^2}{2\sigma^2}\right)\]

que é um fator que contém o parâmetro $\mu$ e depende da amostra $\textbf{x}$ pela função $T(\textbf{x}) = \bar{X}$. Desta forma, segue que \[f(\textbf{x}|\mu)=h(\textbf{x}g(T(\textbf{x})|\mu).\]

E então, pelo Teorema da Fatoração, $T(\textbf{X}) = \bar{X}$ é uma estatística suficiente para $\mu$.

Exemplo 3.1.1.3:

Sejam $X_1,\ldots, X_n$ observações independentes e identicamente distribuídas de uma distribuição uniforme discreta em $1, \ldots, \theta$. Desta forma, a função de probabilidade de $X_i$ é \[f(x|\theta) = \left\{\begin{array}{l}\frac{1}{\theta}, \ \hbox{se} \ x = 1, 2,\ldots, \theta\\0, \ \hbox{caso contrário}.\end{array}\right.\]

e a função de probabilidade conjunta de $X_1, \ldots, X_n$ é \[f(\textbf{x}|\theta) = \left\{\begin{array}{l}\frac{1}{\theta^n}, \ \hbox{se} \ x_i\in\{1,\ldots,\theta\} \ \hbox{para} \ i = 1,\ldots, n\\0, \ \hbox{caso contrário}\end{array}\right.\]

Considerando a estatística de ordem $T(\textbf{x}) = x_{(n)} = \max_i x_i$ e as funções $h(x)$ e $g(t|\theta)$ dadas, respectivamente, por \[h(x) = \left\{\begin{array}{l}1, \ \hbox{se} \ x_i\in\{1,2,\ldots\} \ \hbox{para} \ i = 1,\ldots, n\\0, \ \hbox{caso contrário}\end{array}\right. \quad \hbox{e} \quad g(t|\theta) = \left\{\begin{array}{l}\frac{1}{\theta^n}, \ \hbox{se} \ t\leq\theta\\0, \ \hbox{caso contrário,}\end{array}\right.\]

é imediato verificar que $f(\textbf{x}|\theta) = g(T(\textbf{x})|\theta)h(\textbf{x})$ para todo $\textbf{x}$ e $\theta$. Portanto, pelo Teorema da Fatoração, $T(\textbf{X})$ é uma estatística suficiente.

Exemplo 3.1.1.4:

Assuma novamente que $X_1,\ldots,X_n$ é uma amostra independente e igualmente distribuída de uma distribuição normal com média $\mu$ e variância $\sigma^2$, porém agora, ambos os parâmetros são desconhecidos. Neste caso temos o vetor de parâmetros $\theta = (\mu,\sigma^2)$. Neste caso, temos que a função densidade de probabilidade depende da amostra $\textbf{x}$ somente dos valores $T_1(\textbf{x}) = \bar{X}$ e $T_2(\textbf{x}) = s^2$. De fato, temos que  \[f(\textbf{x}|\theta) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\sum_{i=1}^n\frac{(x_i-\bar{X})^2}{2\sigma^2}-\frac{n(\bar{X}-\mu)^2}{2\sigma^2}\right)\]

de onde segue que \[f(\textbf{x}|\theta) =\frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left( -\frac{n(\bar{X}-\mu)^2}{2\sigma^2}-\frac{(n-1)s^2}{2\sigma^2}\right)\]

e então, definindo $h(\textbf{x}) = 1$ e \[g(t_1,t_2|\theta) = \frac{1}{(2\pi\sigma^2)^{n/2}}\exp\left(-\frac{\left(n(t_1-\mu)^2+(n-1)t_2\right)}{2\sigma^2}\right)\]

segue que \[f(\textbf{x}|\mu,\sigma^2) = g(T_1(\textbf{x},T_2(\textbf{x})|\mu,\sigma^2)h(\textbf{x})\]

e, pelo Teorema da Fatoração, $T(\textbf{X}) = (T_1(\textbf{X},T_2(\textbf{X})) = (\bar{X},s^2)$ é uma estatística suficiente para $\theta = (\mu,\sigma^2)$.

O Exemplo 3.1.1.4 nos mostra que o resumo dos dados somente pela média amostral e variância amostral é, de fato, uma prática justificada. A estatística suficiente $(\bar{X}, s^2)$ contém toda a informação sobre os parâmetros $(\mu,\sigma^2)$ disponível na amostra. O seguinte teorema nos fornece uma maneira bastante eficiente de se encontrar uma estatística suficiente $T(\textbf{X}) = (T_1(\textbf{X}),\ldots,T_k(\textbf{X}))$ para um vetor de parâmetros $\theta = (\theta_1,\ldots,\theta_d)$ com $d\leq k$.

Teorema 3.1.1.3:

Sejam $X_1,\ldots,X_n$ observações independentes e igualmente distribuída com função de probabilidade ou função densidade de probabilidade $f(x|\theta)$ que pertence a uma família exponencial, ou seja, $f(x|\theta)$ pode ser escrita na seguinte forma \[f(x|\theta) = h(x)c(\theta)\exp\left(\sum_{i=1}^kw_i(\theta)t_i(x)\right)\]

em que $\theta = (\theta_1,\ldots,\theta_d)$, $d\leq k$. Neste caso, temos que \[T(\textbf{X}) = \left(\sum_{j=1}^nt_1(X_j),\ldots,\sum_{j=1}^nt_k(X_j)\right)\]

é uma estatística suficiente para $\theta$.

Exemplo 3.1.1.5:

Seja $X_1,\ldots,X_n$ uma amostra aleatória independente e igualmente distribuída de uma distribuição de Bernoulli com parâmetro $0 \ \textless \ \theta \ \textless \ 1$. A distribuição de Bernoulli pertence à família exponencial. De fato, temos que \[f(x|\theta) = \theta^x(1-\theta)^{1-x} = \exp\left\{\log\left(\theta^x(1-\theta)^{1-x}\right) \right\} = \exp\left\{x\log\theta + (1-x)\log(1-\theta)\right\}\]

de onde podemos escrever \[f(x|\theta) = \exp\left\{x\log\left(\frac{\theta}{1-\theta}\right)+\log(1-\theta)\right\} = (1-\theta)\exp\left\{x\log\left(\frac{\theta}{1-\theta}\right)\right\}\]

e então, basta tomar $c(\theta) = 1-\theta$, $t(x) = x$ e $w(\theta) = \log(\frac{\theta}{1-\theta})$. Como $t(x) = x$, segue do Teorema 3.1.1.3 que $T(x) = \sum_{j=1}^nt(X_j) = \sum_{j=1}^nX_j$ é uma estatística suficiente para o parâmetro $\theta$, comprovando o resultado o Exemplo 3.1.1.1.

Observação 3.1.1.1: 

A amostra completa $\textbf{X}$ é uma estatística suficiente. De fato, podemos fatorar a função de probabilidade ou função densidade de probabilidade de $\textbf{X}$ como $f(\textbf{x}|\theta) = f(T(\textbf{x})|\theta)h(\textbf{x})$ em que $T(\textbf{x}) = \textbf{x}$ e $h(\textbf{x}) = 1$ para qualquer $\textbf{x}$.

Observação 3.1.1.2:

Qualquer função bijetora de uma estatística suficiente é uma estatística suficiente. De fato, suponha que $T(\textbf{X})$ é uma estatística suficiente e considere $T^\ast(\textbf{x}) = m(T(\textbf{x}))$ para todo $\textbf{x}$ em que $m$ é uma função bijetora com inversa $m^{-1}$. Temos, pelo Teorema da Fatoração que existem funções $g$ e $h$ tais que \[f(\textbf{x}|\theta) = g(T(\textbf{x})|\theta)h(\textbf{x}) = g(m^{-1}(T^\ast(\textbf{x}))|\theta)h(\textbf{x})\]

e então, definindo $g^\ast(t|\theta) = g(m^{-1}(t)|\theta)$, concluímos que \[f(\textbf{x}|\theta) = g^\ast(T^\ast(\textbf{x})|\theta)h(\textbf{x})\]

de forma que, pelo Teorema da Fatoração, $T^\ast(\textbf{X})$ é uma estatística suficiente.

Definição 3.1.1.2: 

Uma estatística suficiente $T(\textbf{X})$ é chamada de estatística suficiente minimal se, para qualquer outra estatística suficiente $T'(\textbf{X})$, $T(\textbf{x})$ é uma função de $T'(\textbf{x})$.

Não é interessante utilizar a Definição 3.1.1.2 para encontrar uma estatística suficiente minimal, assim como não é prático utilizar a Definição 3.1.1.1 para encontrar uma estatística suficiente. O teorema abaixo nos fornece uma maneira prática para encontrar uma estatística suficiente minimal.

Teorema 3.1.1.4:

Seja $f(\textbf{x}|\theta)$ a função de probabilidade ou função densidade de probabilidade de uma amostra $\textbf{X}$. Suponha que exista uma função $T(\textbf{x})$ tal que, para quaisquer $\textbf{x}$ e $\texbf{y}$, a razão $f(\textbf{x}|\theta)/f(\textbf{y}|\theta)$ é constante se, e somente se, $T(\textbf{x}) = T(\textbf{y})$. Então $T(\textbf{X})$ é uma estatística suficiente minimal para $\theta$.

Exemplo 3.1.1.6:

Seja $X_1,\ldots,X_n$ uma amostra independente e igualmente distribuída de uma distribuição normal com média $\mu$ e variância $\sigma^2$ desconhecidas e sejam $\textbf{x}$ e $\textbf{y}$ dois pontos amostrais tais que $(\bar{x},s^2_{\textbf{x}})$ e $(\bar{y},s^2_{\textbf{y}})$ são as médias e variâncias correspondentes a $\textbf{x}$ e $\textbf{y}$ respectivamente. Neste caso, temos que \[\frac{f(\textbf{x}|\mu,\sigma^2)}{f(\textbf{y}|\mu,\sigma^2)}=\frac{(2\pi\sigma^2)^{-n/2}\exp\left(-[n(\bar{x}-\mu)^2+(n-1)s^2_{\textbf{x}}]/(2\sigma^2)\right)}{(2\pi\sigma^2)^{-n/2}\exp\left(-[n(\bar{y}-\mu)^2+(n-1)s^2_{\textbf{y}}]/(2\sigma^2)\right)}\]

de onde concluímos que \[\frac{f(\textbf{x}|\mu,\sigma^2)}{f(\textbf{y}|\mu,\sigma^2)} = \exp\left([-n(\bar{x}^2-\bar{y}^2)+2n\mu(\bar{x}-\bar{y})-(n-1)(s^2_{\textbf{x}}-s^2_{\textbf{y}})]/(2\sigma^2)\right)\]

que é constante em relação aos parâmetros $\mu$ e $\sigma^2$ se, e somente se $\bar{x} = \bar{y}$ e $s^2_{\textbf{x}} = s^2_{\textbf{y}}$. Segue do Teorema de Lehmann-Scheffé que $(\bar{X}, S^2)$ é uma estatística suficiente minimal para $(\mu,\sigma^2)$.

Estatística Ancilar

Estatísticas suficientes, como vimos, possuem toda a informação a respeito do parâmetro $\theta$ disponível na amostra. Em contrapartida, uma estatística ancilar, não contém nenhuma informação a respeito do parâmetro $\theta$. Neste caso, uma estatística ancilar é uma observação de uma variável aleatória cuja distribuição é fixa e conhecida, além de não relacionada com $\theta$. 

Definição 3.1.1.3:

Uma estatística $S(\textbf{X})$ cuja distribuição não depende do parâmetro $\theta$ é chamada de estatística ancilar.

Exemplo 3.1.1.7:

Seja $X_1,\ldots,X_n$ uma amostra aleatória independente e igualmente distribuída de uma distribuição uniforme no intervalo $(\theta,\theta+1)$, $-\infty \ \textless \ \theta \ \textless \ \infty$ e seja $X_{(1)}\textless\ldots\textless X_{(n)}$ a estatística de ordem da amostra. Neste caso, temos que a amplitude $R = X_{(n)} - X_{(1)}$ é uma estatística ancilar.

De fato, temos que a função de distribuição acumulada de cada $X_i$ é dada por \[F(x|\theta) = \left\{\begin{array}{l}0, \ \hbox{se} \ x\leq\theta\\ x-\theta \ \hbox{se} \ \theta \ \textless \ x \ \textless \ \theta+1\\ 1, \ \hbox{se} \ x\geq \theta+1\end{array}\right.\]

Assim, a função de distribuição conjunta de $X_{(1)}$ e $X_{(n)}$ é dada por \[g(x_{(1)},x_{(n)}|\theta) = \left\{\begin{array}{l}n(n-1)(x_{(n)}-x_{(1)})^{n-2}, \ \hbox{se} \ \theta \ \textless \ x_{(1)} \ \textless \ x_{(n)} \ \textless \ \theta+1\\ 0, \ \hbox{caso contrário.}\]

Considerando a transformação $R = X_{(n)}-X_{(1)}$ e $M = (X_{(1)}+X_{(n)})/2$ que tem a transformação inversa $X_{(1)} = (2M-R)/2$ e $X_{(n)} = (2M+R)/2$ com jacobiano 1, temos que a função densidade de probabilidade conjunta de $R$ e $M$ é \[h(r,m|\theta) = \left\{\begin{array}{l}n(n-1)r^{n-2}, \ 0 \ \textless \ r \ \textless \ 1, \ \theta + (r/2) \ \textless \ m \ \textless \ \theta+1-(r/2)\\0 \ \hbox{caso contrário}\]

e a função densidade de probabilidade de $R$ é \[h(r|\theta) = \int_{\theta+(r/2)}^{\theta+1-(r/2)}n(n-1)r^{n-2}dm = n(n-1)r^{n-2}(1-r), \ 0 \ \textless \ r \ \textless \ 1\]

que não depende de $\theta$ e então, $R$ é uma estatística ancilar.

Definição 3.1.1.4:

Seja $f(t|\theta)$ uma família de funções de probabilidade ou funções densidade de probabilidade para uma estatística $T(\textbf{X})$. A família de distribuições de probabilidade é chamada completa se $\mathbb{E}(g(T)) = 0$ para todo $\theta$ implicar que $\mathbb{P}(g(T) = 0) = 1$ para todo $\theta$. De forma equivalente, $T(\textbf{X})$ é uma estatística completa.

Exemplo 3.1.1.8: 

Suponha que $T$ tenha distribuição Binomial(n,p) com $0 \ \textless \ p \ \textless \ 1$ e seja $g$ uma função tal que $\mathbb{E}(g(T)) = 0$. Então \[0 = \mathbb{E}(g(T)) = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)p^t(1-p)^{n-t} = (1-p)^n\sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)\left(\frac{p}{1-p}\right)^t\]

para $0 \ \textless \ p \ \textless \ 1$. Como $(1-p)^n$ é não nulo para qualquer $p$, segue que \[0 = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)\left(\frac{p}{1-p}\right)^t = \sum_{t=0}^ng(t)\left(\begin{array}{c}n\\t\end{array}\right)r^t\]

para todo $r$ com $0 \ \textless \ r \ \textless \ \infty$. Uma vez que nenhum dos termos $\left(\begin{array}{c}n\\t\end{array}\right)$ é nulo, seque que $\left(\begin{array}{c}n\\t\end{array}\right)$ é não nulo e então, $g(t) = 0$ para todo $t = 0,1,\ldots,n$. Como, por hipótese, $T$ assume os valores $0, 1, \ldots, n$ com probabilidade 1, segue que $\mathbb{P}(g(T) = 0) = 1$ para todo $p$ e, desta forma, $T$ é uma estatística completa.

Exemplo 3.1.1.9: 

Sejam $X_1, \ldots, X_n$ observações independentes e igualmente distribuídas de uma distribuição Uniforme$(0,\theta)$ com $0 \ \textless \ \theta \ \textless \ \infty$. De forma análoga ao Exemplo 3.1.1.3, podemos mostrar que $T(\textbf{X}) = \max_iX_i$ é uma estatística suficiente e a função densidade de probabilidade de $T(\textbf{X})$ é dada por \[f(t|\theta) = \left\{\begin{array}{l}nt^{n-1}\theta^{-n}, \ \hbox{se} \ 0 \ \textless \ t \ \thextless \ \infty\\0, \ \hbox{caso contrário.}\end{array}\right.\]

Seja $g(t)$ uma função que satisfaz $\mathbb{E}(g(T)) = 0$ para todo $\theta$. Uma vez que $\mathbb{E}(g(T))$ é constante como função de $\theta$, sua derivada em relação a $\theta$ é $0$. Portanto \[0 = \frac{d}{d\theta}\mathbb{E}(g(T)) = \frac{d}{d\theta}\int_0^\theta g(t)nt^{n-1}\theta^{-n}dt = (\theta^{-n})\frac{d}{d\theta}\int_0^\theta ng(t)t^{n-1}dt + \left(\frac{d}{d\theta}\theta^{-n}\right)\int_0^\theta ng(t)t^{n-1}dt\]

de onde concluímos que \[0 = \theta^{-1}ng(\theta).\]

Como $n\theta^{-1}\neq0$, segue que $g(\theta) = 0$ e isto é verdade para todo $\theta \ \textgreater \ 0$, logo $T$ é uma estatística completa.

Teorema 3.1.1.5 (Teorema de Basu):

Se $T(\textbf{X})$ é uma estatística suficiente minimal e completa, então $T(\textbf{X})$ é independente de qualquer estatística ancilar.

Teorema 3.1.1.6:

Sejam $X_1,\ldots,X_n$ observações independentes e igualmente distribuídas de uma família exponencial com função de probabilidade ou função densidade de probabilidade da forma \[f(x|\theta) = h(x)c(\theta)\exp\left(\sum_{j=1}^kw(\theta_j)t_j(x)\right)\]

em que $\theta = (\theta_1,\theta_2,\ldots,\theta_k)$. Então a estatística \[T(\textbf{X}) = \left(\sum_{i=1}^nt_1(X_i),\sum_{i=1}^nt_2(X_i),\ldots,\sum_{i=1}^nt_k(X_i)\right)\]

é completa, contanto que o espaço paramétrico $\Theta$ contenha um conjunto aberto em $\mathbb{R}^k$.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]