3.1.3 - Princípio da Equivariância

Você está aqui

Sejam $ \textbf{x} $ e $ \textbf{y} $ duas amostra e $ T $ uma função da amostra. O princípio da Equivariância estabelece que se $ T(\textbf{x}) = T(\textbf{y}) $, então a inferência realizada se $ \textbf{x} $ é observado deve possuir uma certa relação com a inferência realizada se $ \textbf{y} $ é observada, embora as duas inferências possam não ser as mesmas. A técnica para redução dos dados que será chamada de princípio da equivariância, na verdade, será uma combinação de duas considerações de equivariância diferentes: a equivariância de medição e a invariância informal. Ambas serão descritas abaixo.

A equivariância de medição estabelece que a inferência realizada sobre um experimento deve ser independente da unidade de medição utilizada. Por exemplo, suponha que dois experimentadores devem realizar o mesmo experimento de medição e um deles utiliza medidas em polegadas e o outro utiliza medidas em metro e que, ao final do experimento, o resultado estimado deva ser fornecido em polegadas. Neste caso, o segundo experimentador pode obter o resultado estimado em metros e, posteriormente, convertê-lo para polegadas e assim, ambos produzirão as mesmas estimativas.

A invariância informal estabelece que, se dois problemas de inferência possuem a mesma estrutura formal em termos matemáticos, então o mesmo procedimento de inferência pode ser realizado em ambos os problemas. Os elementos que deve ser iguais são o espaço paramétrico $ \Theta $ e o conjunto de funções de probabilidade ou funções densidade de probabilidade da amostra, isto é, \theta\in\Theta\} $. Desta forma, a invariância informal está preocupada com as entidades matemáticas envolvidas ao invés da descrição física do fenômeno estudado.

A seguir, enunciamos o princípio da equivariância a partir das considerações acima.

Princípio da equivariância:

Se $ \textbf{Y} = g(\textbf{X}) $ é uma mudança da unidade de medição tal que o modelo estatístico para $ \textbf{Y} $ possui a mesma estrutura formal do modelo para $ \textbf{X} $, então um procedimento estatístico deve ser equivariante para a medição e formalmente invariante.

Exemplo 3.1.3.1:

Seja $ X $ uma distribuição binomial com parâmetros $ n $ conhecido e probabilidade $ p $ desconhecida e seja $ T(x) $ a estimativa de $ p $ que é utilizada quando $ X = x $ é observada. Podemos utilizar o número de sucessos $ X $ para fazer inferência sobre $ p $, porém também podemos utilizar o número de falhas $ Y = n - X $, que também tem uma distribuição binomial com parâmetros $ (n,q = 1-p) $. Neste caso, se $ T^\ast(y) $ é a estimativa de $ q $ utilizada quando $ Y = y $ é observada, então $ 1-T^\ast(y) $ é a estimativa de $ p $ quando $ Y = y $ é observada. Se $ x $ sucessos são observados, então a estimativa para $ p $ é $ T(X) $. Mas, quando existem $ x $ sucessos, obrigatoriamente, existem $ n-x $ fracassos e, desta forma, $ 1 - T^\ast(n-x) $ é também uma estimativa de $ p $. A partir da equivariância de medição, estas duas estimativas deve ser iguais, ou seja, $ T(x) = 1 - T^\ast(n-x) $, já que a mudança de $ X $ para $ Y $ é apenas uma mudança na escala de medição. Também, como $ X $ e $ Y $ têm distribuição binomial com parâmetros $ n $ e $ \theta $ com $ 0 \leq\theta\leq 1 $, temos, a partir da invariância forma que $ T(z) = T^\ast(z) $ para todo $ z = 0, \ldots,n $. Desta forma, temos que 

\[T(x) = 1 - T^\ast(n-x) = 1 - T(n-x) \quad (\ast)\]

Aqui, vale observar que, enquanto a especificação de um estimador arbitrário requer a especificação de $ T(0), T(1), \ldots, T(n) $, a especificação de uma estimador que satisfaça a equação acima requer somente a especificação de $ T(0), T(1),\ldots, T([n/2]) $ em que $ [n/2] $ é o maior inteiro menor que $ n/2 $. Os demais valores são completamente determinados por estes, por exemplo $ T(n) = 1-T(0) $, $ T(n-1) = 1-T(1) $ e assim por diante. E é neste sentido que sempre conseguimos uma redução nos dados através do princípio da equivariância, isto é, a inferência a ser feita para alguns pontos amostrais determina a inferência a ser feita para outros pontos amostrais.

Para este exemplo, em particular, poderíamos usar os seguintes estimadores equivariantes: 

\[T_1(x) = \frac{x}{n} \ \hbox{e} \ T_2(x) = 0,9\frac{x}{n} + 0,1\times 0,5.\]

É simples verificar que a condição estabelecida em $ (\ast) $ é cumprida. De fato, temos que 

\[T_1(x) = \frac{x}{n} = \frac{n -(n-x)}{n} = 1 - T_1(n-x)\]


\[T_2(x) = 0,9\frac{x}{n} + 0,1\times 0,5 = 1 - 0,9\frac{n-x}{n} - 0,1\times 0,5 = 1 - T_2(n-x).\]

É claro que um ponto chave no princípio da equivariância é a escolha da transformação envolvida. A função de transformação nos dados no Exemplo 3.1.3.1 é $ Y = n-X $.

Definição 3.1.3.1:

Um conjunto de funções  f\in\mathcal{G}\} $ do espaço amostral $ \Omega $ em $ \Omega $ é chamado de grupo de transformações de $ \Omega $ se as seguintes propriedades são satisfeitas

1) Toda função $ f\in\mathcal{G} $ possui função inversa $ f^{-1} $.

2) Se $ f\in\mathcal{G} $ e $ g\in\mathcal{G} $ então existe $ h\in\mathcal{G} $ tal que $ h = f\circ g\in\mathcal{G} $.

3) A identidade $ e(\textbf{x}) = \textbf{x} $ é um elemento de $ \mathcal{G} $.

A propriedade 3 é uma consequência das duas anteriores e, portanto, não precisa ser verificada separadamente.

Retornando ao Exemplo 3.1.3.1 verificamos que existem apenas duas transformações envolvidas, de forma que tomamos o conjunto $ \mathcal{G} = \{f,g\} $ com $ f(x) = n - x $ e $ g(x) = x $. Neste caso, a função $ g $ é a inversa da função $ f $ e, com isso a propriedade 1 está satisfeita. Além disso, na propriedade 2, $ f\circ g(x) = f(x), g\circ f(x) = f(x), f\circ f(x) = g(x) $ e $ g\circ g(x) = g(x) $

Como já comentamos, para utilizar o Princípio da Equivariância, precisamos utilizar a invariância formal ao problema transformado, ou seja, após a mudança na escala de medição, precisamos ter a mesma estrutura formal para a inferência estatística. Neste caso, queremos que o modelo, ou família de distribuições, seja invariante.

Definição 3.1.3.2:

Seja  \theta\in\Theta\} $ um conjunto de funções de probabilidade ou funções densidade de probabilidade para $ \textbf{X} $ e seja $ \mathcal{G} $ um grupo de transformações do espaço amostral $ \Omega $. Então, $ \mathcal{F} $ é invariante sob o grupo $ \mathcal{G} $ se, para todo $ \theta\in\Theta $ e $ \g\in\mathcal{G} $, existe um único $ \theta'\in\Theta $ tal que $ \textbf{Y} = g(\textbf{X}) $ tem distribuição $ f(\textbf{y}|\theta') $ se $ \textbf{X} $ tem a distribuição $ f(\textbf{x}|\theta) $.

Inferência

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]