10.9.1 - Polinômio de Hermite

A ideia dessa seção é explicar melhor o Polinômio de Hermite, pois iremos necessitar de algumas de suas propriedades nas seções seguintes.
Assim, seja $\mu$ uma medida Gaussiana com média 0 e variância $\sigma\textgreater 0$,
$$d\mu(x)=\frac{1}{\sqrt{2\pi\sigma}}e^{-\frac{1}{2\sigma}x^2}$$

Considere a sequência $1,x,x^2,\cdots, x^n,\cdots$ pertencentes ao espaço de Hilbert real $L^2(\mu)$. Assim, aplicando o processo de ortogonalização de Gram-Schmidt(processo muito comum na Algebra Linear) para essa sequência, em ordem crescente de potência, para obter polinômios ortogonais $P_0(x),P_1(x),\dots,P_n(x),\dots$ no espaço de Hilbert $L^2(\mu)$ onde $P_0(x)=1$ e $P_n(x)$ é um polinômio de grau n, com $n\geq 1$.

Seria possível definirmos os polinômios $P_n$ de forma explicita ?

Seja $\theta(t,x)=e^{tx}$. A esperança de $\theta(t,\cdot)$ com respeito a medida $\mu$ é dada por

$$\mathbb{E}_{\mu}(\theta(t,\cdot))=\int_{-\infty}^\infty e^{tx}\frac{1}{\sqrt{2\pi\sigma}}e^{-\frac{1}{2\sigma}x^2}=e^{-\frac{1}{2\sigma}t^2}$$

A renormalização multiplicativa $\psi(t,x)$ de $\theta(t,x)$ é definida por
$$\psi(t,x)=\frac{\theta(t,x)}{\mathbb{E}_{\mu}(\theta(t,\cdot))}=e^{tx-\frac{1}{2\sigma}t^2}$$

Podemos expandir a função $\psi$ por series de potência em t. Note que coeficiente de $t^n$ na serie depende de $n$ $x$ e $\sigma$.

$$e^{tx-\frac{1}{2\sigma}t^2}=\sum_n^\infty \frac{H_n(x,\sigma)}{n!}t^n$$
no qual, $H_n(x,\sigma)/n!$ é o coeficiente da serie. Por outro lado temos que a serie de potência
$$e^s=\sum_{n=0}^\infty s^n/n!$$
assim podemos usar essa igualdade para encontrar os coeficientes os coeficientes de $t^n$. Assim escrevendo $e^{tx-\frac{1}{2\sigma}x^2}=e^{tx}e^{\frac{1}{2\sigma}t^2}$ temos

$$e^{tx-\frac{1}{2\sigma}t^2}=\sum_{n=0}^\infty \frac{(xt)^n}{n!}\sum_{n=1}^\infty\frac{(-\sigma t)^n}{n!2^n}$$
Desta forma, encontramos os coeficientes de $t^n$, $H_n(x,\sigma)$ é dado por
$$H_n(x,\sigma)=n!\left(\frac{x^n}{n!}+\frac{x^{n-2}(-\sigma)}{(n-2)!2}+\dots+\frac{x^{n-2k}(-\sigma)^k}{(n-2k)!2^k}+\dots\right)$$
$$=x^n+\frac{n!}{(n-2)!2}(-\sigma)x^{n-2}+\dots+\frac{n!}{(n-2k)!k!2^k}(-\sigma)^k x^{n-2k}+\dots$$

Observe que
$$\frac{n!}{(n-2k)!k!2^k}=\binom{n}{2k}(2k-1)!!$$
no qual $(2k-1)!!=(2k-1)(2k-3)\dots 3\cdot 1$. O que implica que

$$H_n(x,\sigma)=\sum_{k=0}^{[n/2]}\binom{n}{2k}(2k-1)!!(-\sigma)^kx^{n-2k},$$
com $[x]$ sendo a parte inteira de $x$. Observe que $H_n(x,\sigma)$ é um polinômio em x de grau n.

Definição 10.9.1.1:
O polinômio $H_n(x,\sigma)$ dado acima é chamado de polinômio de Hermite de grau $n$ com parâmetro $\sigma$.
 

Teorema 10.9.1.1:

Seja $H_n(x,\sigma)$ um polinômio de Hermite de grau n, definido acima. Então
$$H_{n}(x,\sigma)=(-\sigma)^n e^{x^2/2\sigma}D_x^ne^{-x^2/2\sigma},$$
no qual $D_x$ é o operador diferencial na variável x.
Demonstração:

O expoente do lado esquerdo da equação pode ser reescrito como
$$-\frac{1}{2}\sigma(t-\frac{x}{\sigma})^2+\frac{x^2}{2\sigma}$$
Portanto temos que
$$e^{\frac{x^2}{2\sigma}}e^{-\frac{1}{2}\sigma(t-\frac{x}{\sigma})^2}=\sum_{n=0}^\infty \frac{H_n(x,\sigma)}{n!}t^n$$
Derivando de ambos os lados n vezes na variável t e então tomando t=0 temos
$$H_n(x,\sigma)=e^{\frac{x^2}{2\sigma}}\left(D_t^ne^{-\frac{1}{2}\sigma\left(t-\frac{x}{\sigma}\right)^2}\right)\left|_{t=0}\right.$$
Note que $D_x^ne^{-\frac{1}{2}\sigma\left(t-\frac{x}{\sigma}\right)^2}$. Portanto,

$$H_n(x,\sigma)=e^{\frac{x^2}{2\sigma}}\left((-\sigma)^n D_x^ne^{-\frac{1}{2}\sigma\left(t-\frac{x}{\sigma}\right)^2}\right)\left|_{t=0}\right.$$
$$(-\sigma)^ne^{\frac{x^2}{2\sigma}}D^n_x e^{-\frac{x^2}{2\sigma}},$$
o que prova o resultado.
 

Teorema 10.9.1.2:
\begin{theorem}Seja $\mu$ uma medida Gaussiana com média 0 e variância $\sigma$. Então, o polinômio de Hermite $H_n(x,\sigma)$, $n\geq 0,$ são ortogonais em $L^2(\mu)$. Além disso, temos que
$$\int_{-\infty}^{\infty} H_n(x,\sigma)^2d\mu(x)=n!\sigma^n, \quad\quad n\geq 0.$$
Demonstração:
Para qualquer $t,s\in \mathbb{R}$, temos
$$e^{(t+s)x-\frac{1}{2}\sigma(t^2+s^2)}=\sum_{n,m=0}^{\infty}\frac{t^n s^m}{n!m!}H_n(x,\sigma)H_m(x,\sigma).$$
Pela equação
$$\int_{-\infty}^\infty e^{tx}\frac{1}{\sqrt{2\pi\sigma}}e^{-\frac{1}{2\sigma}x^2}dx=e^{-\frac{1}{2\sigma}t^2}$$
Temos que
$$\int_{-\infty}^\infty e^{(t+s)x-\frac{1}{2}\sigma (t^2+s^2)}dx=e^{-\frac{1}{2}\sigma (t^2+s^2)}e^{\frac{1}{2}\sigma(t+s)^2}=e^{\sigma ts}.$$

Portanto, ao integrar ambos os lados da equação
$$e^{(t+s)x-\frac{1}{2}\sigma(t^2+s^2)}=\sum_{n,m=0}^{\infty}\frac{t^n s^m}{n!m!}H_n(x,\sigma)H_m(x,\sigma).$$
Temos que,
$$e^{\sigma ts}= \sum_{n,m=0}^\infty \frac{t^n s^m}{n!m!}\int_{-\infty}^\infty H_n(x,\sigma)H_m(x,\sigma)d\mu(x).$$
Desde que o lado esquerdo é uma função produto de $ts$, os coeficientes de $t^n$ e $s^m$ do lado direito são zeros quando $n\neq m$ o que implica que
$$\int_{-\infty}^\infty H_n(x,\sigma)H_m(x,\sigma)d\mu(x)=0$$
para qualquer $n\neq m$. E portanto, temos que os polinômios de Hermite são ortogonais em $L^2(\mu)$. E então temos que

$$e^{\sigma ts}=\sum_{n=0}^\infty \frac{(ts)^n}{(n!)^2}\int_{-\infty}^\infty H_n(x,\sigma)^2d\mu(x)$$
Mas pela expansão em serie da função $e^{\sigma ts}$ temos
$$e^{\sigma ts}=\sum_{n=0}^\infty \frac{\sigma^n}{n!}(ts)^n$$
Portanto, o resultado segue.

Teorema 10.9.1.3:
Seja $\mu$ uma medida Gaussiana com média 0 e variância $\sigma$. Então para toda função $f\in L^2(\mu)$ existe uma única expansão em serie dada por
$$f(x)=\sum_{n=0}^\infty \alpha_n \frac{H_n(x,\sigma)}{\sqrt{n!\sigma^n}}$$
no qual os coeficientes $\alpha_n$ são dados por
$$\alpha_n=\frac{1}{\sqrt{n!\sigma^n}}\int_{-\infty}^{\infty}f(x)H_n(x,\sigma)d\mu(x),\quad\quad\quad n\geq 0.$$
Além disso, temos que
$$\|f\|^2=\sum_{n=0}^\infty \alpha_n^2.$$
 

Abaixo temos algumas propriedades muito importante dos polinômios de Hermite:

1- Função Geradora: $\displaystyle e^{tx-\frac{1}{2}\sigma t^2}=\sum_{n=0}^{\infty}\frac{t^n}{n!}H_n(x,\sigma)$.

2- Monômios:  $x^n=\displaystyle \sum_{k=0}^{[n/2]}\binom{n}{2k}(2k-1)!! \sigma^k H_{n-2k}(x,\sigma)$

3- Formula recursiva: $\displaystyle H_{n+1}(x,\sigma)=xH_{n}(x,\sigma)-\sigma n H_{n-1}(x,\sigma)$

4- Derivadas: $D_x H_{n}(x,\sigma)=nH_{n-1}(x,\sigma)$

5- Autofunção: $(-\sigma D_x^2+xD_x)H_{n}(x,\sigma)=nH_{n}(x,\sigma)$

6- Produto:  $\displaystyle H_{n}(x,\sigma)H_{m}(x,\sigma)=\sum_{k=0}^{n\wedge m} k!\binom{n}{k}\binom{m}{k}\sigma^k H_{n+m-2k}(x,\sigma)$

7- Derivadas Parciais: $\displaystyle \frac{\partial}{\partial \sigma}H_{n}(x,\sigma)=\frac{1}{2}\frac{\partial^2 }{\partial x^2}H_{n}(x,\sigma).$
 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]