3.1.3 - Princípio da Equivariância

Você está aqui

Sejam $\textbf{x}$ e $\textbf{y}$ duas amostra e $T$ uma função da amostra. O princípio da Equivariância estabelece que se $T(\textbf{x}) = T(\textbf{y})$, então a inferência realizada se $\textbf{x}$ é observado deve possuir uma certa relação com a inferência realizada se $\textbf{y}$ é observada, embora as duas inferências possam não ser as mesmas. A técnica para redução dos dados que será chamada de princípio da equivariância, na verdade, será uma combinação de duas considerações de equivariância diferentes: a equivariância de medição e a invariância informal. Ambas serão descritas abaixo.

A equivariância de medição estabelece que a inferência realizada sobre um experimento deve ser independente da unidade de medição utilizada. Por exemplo, suponha que dois experimentadores devem realizar o mesmo experimento de medição e um deles utiliza medidas em polegadas e o outro utiliza medidas em metro e que, ao final do experimento, o resultado estimado deva ser fornecido em polegadas. Neste caso, o segundo experimentador pode obter o resultado estimado em metros e, posteriormente, convertê-lo para polegadas e assim, ambos produzirão as mesmas estimativas.

A invariância informal estabelece que, se dois problemas de inferência possuem a mesma estrutura formal em termos matemáticos, então o mesmo procedimento de inferência pode ser realizado em ambos os problemas. Os elementos que deve ser iguais são o espaço paramétrico $\Theta$ e o conjunto de funções de probabilidade ou funções densidade de probabilidade da amostra, isto é, $\{f(\textbf{x}|\theta:\theta\in\Theta\}$. Desta forma, a invariância informal está preocupada com as entidades matemáticas envolvidas ao invés da descrição física do fenômeno estudado.

A seguir, enunciamos o princípio da equivariância a partir das considerações acima.

Princípio da equivariância:

Se $\textbf{Y} = g(\textbf{X})$ é uma mudança da unidade de medição tal que o modelo estatístico para $\textbf{Y}$ possui a mesma estrutura formal do modelo para $\textbf{X}$, então um procedimento estatístico deve ser equivariante para a medição e formalmente invariante.

Exemplo 3.1.3.1:

Seja $X$ uma distribuição binomial com parâmetros $n$ conhecido e probabilidade $p$ desconhecida e seja $T(x)$ a estimativa de $p$ que é utilizada quando $X = x$ é observada. Podemos utilizar o número de sucessos $X$ para fazer inferência sobre $p$, porém também podemos utilizar o número de falhas $Y = n - X$, que também tem uma distribuição binomial com parâmetros $(n,q = 1-p)$. Neste caso, se $T^\ast(y)$ é a estimativa de $q$ utilizada quando $Y = y$ é observada, então $1-T^\ast(y)$ é a estimativa de $p$ quando $Y = y$ é observada. Se $x$ sucessos são observados, então a estimativa para $p$ é $T(X)$. Mas, quando existem $x$ sucessos, obrigatoriamente, existem $n-x$ fracassos e, desta forma, $1 - T^\ast(n-x)$ é também uma estimativa de $p$. A partir da equivariância de medição, estas duas estimativas deve ser iguais, ou seja, $T(x) = 1 - T^\ast(n-x)$, já que a mudança de $X$ para $Y$ é apenas uma mudança na escala de medição. Também, como $X$ e $Y$ têm distribuição binomial com parâmetros $n$ e $\theta$ com $0 \leq\theta\leq 1$, temos, a partir da invariância forma que $T(z) = T^\ast(z)$ para todo $z = 0, \ldots,n$. Desta forma, temos que \[T(x) = 1 - T^\ast(n-x) = 1 - T(n-x) \quad (\ast)\]

Aqui, vale observar que, enquanto a especificação de um estimador arbitrário requer a especificação de $T(0), T(1), \ldots, T(n)$, a especificação de uma estimador que satisfaça a equação acima requer somente a especificação de $T(0), T(1),\ldots, T([n/2])$ em que $[n/2]$ é o maior inteiro menor que $n/2$. Os demais valores são completamente determinados por estes, por exemplo $T(n) = 1-T(0)$, $T(n-1) = 1-T(1)$ e assim por diante. E é neste sentido que sempre conseguimos uma redução nos dados através do princípio da equivariância, isto é, a inferência a ser feita para alguns pontos amostrais determina a inferência a ser feita para outros pontos amostrais.

Para este exemplo, em particular, poderíamos usar os seguintes estimadores equivariantes: \[T_1(x) = \frac{x}{n} \ \hbox{e} \ T_2(x) = 0,9\frac{x}{n} + 0,1\times 0,5.\]

É simples verificar que a condição estabelecida em $(\ast)$ é cumprida. De fato, temos que \[T_1(x) = \frac{x}{n} = \frac{n -(n-x)}{n} = 1 - T_1(n-x)\]

e \[T_2(x) = 0,9\frac{x}{n} + 0,1\times 0,5 = 1 - 0,9\frac{n-x}{n} - 0,1\times 0,5 = 1 - T_2(n-x).\]

É claro que um ponto chave no princípio da equivariância é a escolha da transformação envolvida. A função de transformação nos dados no Exemplo 3.1.3.1 é $Y = n-X$.

Definição 3.1.3.1:

Um conjunto de funções $\{f(\textbf{x}): f\in\mathcal{G}\}$ do espaço amostral $\Omega$ em $\Omega$ é chamado de grupo de transformações de $\Omega$ se as seguintes propriedades são satisfeitas

1) Toda função $f\in\mathcal{G}$ possui função inversa $f^{-1}$.

2) Se $f\in\mathcal{G}$ e $g\in\mathcal{G}$ então existe $h\in\mathcal{G}$ tal que $h = f\circ g\in\mathcal{G}$.

3) A identidade $e(\textbf{x}) = \textbf{x}$ é um elemento de $\mathcal{G}$.

A propriedade 3 é uma consequência das duas anteriores e, portanto, não precisa ser verificada separadamente.

Retornando ao Exemplo 3.1.3.1 verificamos que existem apenas duas transformações envolvidas, de forma que tomamos o conjunto $\mathcal{G} = \{f,g\}$ com $f(x) = n - x$ e $g(x) = x$. Neste caso, a função $g$ é a inversa da função $f$ e, com isso a propriedade 1 está satisfeita. Além disso, na propriedade 2, $f\circ g(x) = f(x), g\circ f(x) = f(x), f\circ f(x) = g(x)$ e $g\circ g(x) = g(x)$

Como já comentamos, para utilizar o Princípio da Equivariância, precisamos utilizar a invariância formal ao problema transformado, ou seja, após a mudança na escala de medição, precisamos ter a mesma estrutura formal para a inferência estatística. Neste caso, queremos que o modelo, ou família de distribuições, seja invariante.

Definição 3.1.3.2:

Seja $\mathcal{F} = \{f(\textbf{x}|\theta): \theta\in\Theta\}$ um conjunto de funções de probabilidade ou funções densidade de probabilidade para $\textbf{X}$ e seja $\mathcal{G}$ um grupo de transformações do espaço amostral $\Omega$. Então, $\mathcal{F}$ é invariante sob o grupo $\mathcal{G}$ se, para todo $\theta\in\Theta$ e $\g\in\mathcal{G}$, existe um único $\theta'\in\Theta$ tal que $\textbf{Y} = g(\textbf{X})$ tem distribuição $f(\textbf{y}|\theta')$ se $\textbf{X}$ tem a distribuição $f(\textbf{x}|\theta)$.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]