7.3.1 - Função Característica ou Transformada de Fourier

Você está aqui

A transformada de Fourier, também conhecida dentro da área da estatística como função característica, tem aplicações nas mais diversas áreas do conhecimento científico, como por exemplo, no processamento de sinais e imagens, na física quântica, entre outros. Além deste operador vamos necessitar de vários resultados relevantes dentro da área de probabilidade, o qual usamos na demonstração do teorema central do limite (TCL).

Na seção Momentos, estudamos a função geradora de momentos. Do ponto de vista teórico a função característica ou transformada de Fourier é bem mais robusta que a função geradora de momentos, pois:

  • é definida para qualquer distribuição;
  • determina a convergência em distribuição;
  • gera momentos.

De certa forma, a função característica é mais funcional, porém do ponto de vista prático, muitos pesquisadores preferem trabalhar com a função geradora de momentos, pois a função característica envolve números complexos. A seguir, apresentamos algumas definição e resultados para a função característica.

Definição 7.2.1.1: 

Seja X uma variável aleatória. Então a função característica (transformada de Fourier) de X é uma função \mathbb{R} \rightarrow \mathbb{C} $ definida por: 

\[\varphi(t)=\varphi_X(t)=\mathbb{E}(e^{itX})=\displaystyle\int_{\mathbb{R}} e^{(itx)}dF_X(x),\]

no qual definimos

\[\mathbb{E}(e^{itX})=\mathbb{E}(\cos(t X))+i~\mathbb{E}(\sin(t X)),~~~~t\in\mathbb{R}.\]

Observação: (fórmula de Euler)

$ e^{itX}=\cos(tX)+i~\sin(tX) $

Como a função característica é determinada pela sua função de distribuição, temos que se X e Y são identicamente distribuídos então: 

\[\varphi_X=\varphi_Y.\]

Após demonstrarmos algumas propriedades da função característica, vamos mostrar uma proposição importante, que mostra que a função característica de X determina a função de distribuição acumulada de X.

Proposição 7.2.1.1: 

A função característica é uma função limitada por 1.

Demonstração:

De fato, pela definição temos que 

$$|\varphi_{X}(t)|=|\mathbb{E}[e^{itX}]|=\sqrt{\mathbb{E}^2[\cos{(tX)}]+\mathbb{E}^2[\sin{(tX)}]}$$

Assim, temos que 

$$\sqrt{\mathbb{E}^2[\cos{(tX)}]+\mathbb{E}^2[\sin{(tX)}]}\leq \sqrt{\mathbb{E}[\cos^2{(tX)}]+\mathbb{E}[\sin^2{(tX)}]}=\sqrt{\mathbb{E}[\underbrace{\cos^2{(tX)}+\sin^2{(tX)}}_{1}]}=1$$

A desigualdade apresentada é devido a P6 da esperança. Portanto, a função característica é limitada por 1. $ \Box $

Proposição 7.2.1.2: 

Se X e Y são duas variáveis aleatórias independentes então $ \varphi_{X+Y}=\varphi_X(t)\varphi_Y(t). $

Demonstração:

De fato, temos que: 

\[\varphi_{X+Y}(t)=\mathbb{E}[e^{it(X+Y)}]=\mathbb{E}[e^{itX}~e^{itY}]=\mathbb{E}[(\cos{(tX)}+i~\sin{(tX)})(\cos{(tY)}+i~\sin{(tY)})]\]

Como X e Y são independentes temos que: 

$$\mathbb{E}[\cos{(tX)}+i~\sin{(tX)}]~\mathbb{E}[\cos{(tY)}+i~\sin{(tY)}]=\mathbb{E}[e^{iX}]~\mathbb{E}[e^{iY}]=\varphi_X(t)\varphi_Y(t)$$

$ \Box $

Um resultado geral da proposição 7.2.1.2, é que se uma família finita de variáveis aleatórias $ X_1\cdots X_n $ são independentes e $ S_n=X_1,\dots,X_n $, então 

$$\varphi_{S_n}=\prod_{i=1}^{n}\varphi_{X_i}$$

De fato, 

$$\varphi_{S_n}=\mathbb{E}[e^{it(X_1+\dots+X_n)}]=\mathbb{E}[e^{itX_1}e^{it X_2}\dots e^{it X_n}]\overset{\text{indep.}}{=}\mathbb{E}[e^{it X_1}]\dots\mathbb{E}[e^{it X_n}]=\prod^n_{i=1}\varphi_{X_i}$$

Proposição 7.2.1.3: 

Se $ X=aY+b, $ então $ \varphi_X(t)=\varphi_{aY+b}(t)=e^{itb}\varphi_Y(at) $

Demonstração:

De fato, 

\[\varphi_{X}(t)=\varphi_{aY+b}(t)=\mathbb{E}[e^{it(aY+b)}]=\mathbb{E}[e^{itaY}~e^{itb}]=e^{itb}\mathbb{E}[e^{itaY}]=e^{itb}\varphi_Y(at)\]

$ \Box $

Proposição 7.2.1.4:

A função característica $ \varphi_X $ também gera momentos.

Demonstração:


$$\frac{d^n}{dt^n}\varphi_X(t)\mid_{t=0}=i^n\mathbb{E}[X^n],\quad \text{se}~\mathbb{E}|X|^n\textless \infty.$$

Note que, se $ \mathbb{E}|X|^n\textless \infty, $ então 

$$\varphi_X(t)=\varphi(0)+\varphi^\prime(0)t+\varphi^{\prime\prime}(0)\frac{t^2}{2!}+\dots+\varphi^{(n)}(0)\frac{t^n}{n!}+r_n(t)=$$

 

$$\overset{(\text{Obs})}{=}1+i(\mathbb{E}[X])t-\frac{\mathbb{E}[X^2]}{2!}t^2+\dots+i^n\frac{\mathbb{E}[X^n]}{n!}t^n+r_n(t)$$

Obs: $ \dfrac{r_n(t)}{t^n}\xrightarrow{t\rightarrow 0}0 $

$ \Box $

Corolário 7.2.1.1: 

Se $ \mathbb{E}[|X|^n]\textless \infty $ para algum $ n\geq 1, $  então $ \varphi_X $ possui k derivadas contínuas para todo $ k\leq n $ e ainda temos que: 

\[\displaystyle \varphi_X^{(k)}(t)=\int_{\mathbb{R}}(ix)^k e^{itx}dF_X(x).\]

E portanto; $ \varphi_X^{k}(0)=i^k~\mathbb{E}[X^k] $.

Demonstração:

Para demonstrarmos esse fato vamos nos utilizar da definição de derivada. Notemos primeiramente que: 

\[\displaystyle\frac{\varphi(t+h)-\varphi(t)}{h}=\int_{\mathbb{R}} \frac{e^{i(t+h)x}-e^{itx}}{h}dF(x)=\int_{\mathbb{R}} e^{itx}\left(\frac{e^{ihx}-1}{h}\right)dF(x)=\mathbb{E}\left[e^{itX}\left(\frac{e^{ihX}-1}{h}\right)\right].\]

Como $ \frac{(e^{ithx}-1)}{h}\rightarrow ix $ quando $ h\rightarrow 0, $ obtemos que: 

\[\displaystyle \mathbb{E}\left[e^{itx}\left(\frac{e^{ihX}-1}{h}\right)\right]\rightarrow i~\mathbb{E}[Xe^{itX}].\]

Vamos demonstrar o caso geral por indução. Suponhamos que 

\[\displaystyle \varphi^{(n)}(t)=\int(ix)^n e^{itx}dF_X(x),\]

Mostremos que é válido para (n+1).

De fato, 

$$\frac{\varphi^{(n+1)}(t+h)-\varphi^{(n+1)}(t)}{h}=\int_{\mathbb{R}} \frac{(ix)^{n+1} e^{i(t+h)x}-(ix)^n e^{itx}}{h}dF_X(x)=\int_{\mathbb{R}} (ix)^{n+1} e^{itx}\left(\frac{e^{ihx}-1}{h}\right)=$$

 

$$=\mathbb{E}\left[(iX)^{n+1} e^{itX}\left(\frac{e^{ithX}-1}{h}\right)\right].$$

Mas como 

\[\mathbb{E}\left[e^{itX}\frac{(e^{ithX}-1)}{h}\right]\rightarrow i~\mathbb{E}[Xe^{itX}].\]

Para encontrarmos $ \varphi_{X}^{(k)}(0)=i^k\mathbb{E}[X^k] $, basta tomarmos $ t=0 $.

Portanto, temos que 

\[\displaystyle\varphi^{(k)}_{X}(0)=\int_{\mathbb{R}} (ix)^{k}dF_X(x)=\mathbb{E}[(iX)^{k}]=i^k~\mathbb{E}[X^k].\]

$ \Box $

A função característica de uma variável aleatória X determina a função de distribuição acumulada de X, ou seja, dado a sua função característica podemos determinar qual é a sua função de distribuição acumulada. Este fato decorre de uma formula conhecida como formula da inversão.

Teorema 7.2.1.1: (Fórmula da inversão)

Se x e y são pontos de continuidade de F tais que x $ \textless $ y, então 

\[F(y)-F(x)=\displaystyle\frac{1}{2\pi}\lim_{u\rightarrow\infty}\int_{-u}^{u}\frac{e^{-itx}-e^{-ity}}{it}\varphi(t)dt.\]

Demonstração:

Para demonstrarmos esse teorema vamos necessitar do teorema da convergência dominada, o qual é enunciado abaixo.

Teorema da convergência dominada: 

Seja $ \{X_n\}_{n\geq 1} $ uma sequência de variáveis aleatórias tal que $ X_n\rightarrow X $ quase certamente e existe uma variável aleatória Y não negativa tal que $ |X_n|\leq Y $ com $ \mathbb{E}[Y]\textless\infty, $ então para $ \mathbb{E}[X]\textless\infty, $ temos que 

$$\mathbb{E}[X_n]\rightarrow \mathbb{E}[X],\quad \text{quando}~~ n\rightarrow \infty.$$

Voltando a demonstração do teorema 7.2.1.1 vamos definir uma integral iterada 

=\displaystyle\int_{-u}^{u}\frac{e^{-itx}-e^{-ity}}{it}\varphi(t)dt=\int_{-u}^{u}\right{\int_{-\infty}^{\infty}\frac{e^{-itx}-e^{-ity}}{it}e^{itz}dF(z)\left}dt.\]

Neste momento é importante relembrarmos que 

\[\lim_{t\rightarrow 0}\frac{e^{-itx}-e^{ity}}{it}=y-x\]

e ainda que a integral de Dirichlet é dada por: 

\[\displaystyle\lim_{u\rightarrow\infty}\int_{0}^{u}\frac{\sin{(t)}}{t}dt=\frac{\pi}{2}.\]

Assim temos que: 

\[I(u)=\displaystyle\int_{-\infty}^{\infty}\left{\int_{-u}^{u}\frac{e^{it(z-x)}-e^{it(z-y)}}{it}dt\right}dF(z).\]

Portanto 

\[I(u)=\displaystyle\int_{-\infty}^{\infty}\left{2\int_{0}^{u}\displaystyle \frac{\sin{t(z-x)}}{t}-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}\right}dF(z)\]

Neste momento basta usarmos o teorema da convergência dominada, ou seja, precisamos encontrar uma variável aleatória tal que $ H_u(X)\rightarrow Y $ e mostrar que para todo $ H_u(X) $ existe uma variável Z tal que $ H_u(X)\textless Z $, no qual $ H_u(X)=\displaystyle 2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt. $

De fato, aplicando o limite em $ H_u(X) $ e utilizando o resultado da integral de Dirichlet podemos encontrar o seguinte cenário. Como $ x\textless y $ temos que:

se $ z\textless x $ então $ (z-x) $ e $ (z-y) $ são menores que zero temos que: 

$$H_u(X)=\lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt -2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt=$$

 

$$\quad\lim_{u\rightarrow \infty}-2\int_{0}^{-(z-x)u}\frac{\sin{t}}{t}+2\int_{0}^{-(z-y)u}\frac{\sin{t}}{t}=-\pi+\pi=0.$$

Analogamente temos que se $ z\textgreater y $ temos que também é $ H_u(X)=0 $

Por outro lado se $ z=x $ temos que $ (z-x)=0 $ e $ (z-y)\textless 0 $ então teremos que: 

\[H_u(X)=\displaystyle \lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}dt-2\int_{0}^{u}\frac{\sin{t(z-y)}}{t}dt =\lim_{u\rightarrow \infty}2\int_{0}^{t(z-y)}\frac{\sin{t}}{t}dt=\pi.\]

Podemos notar que se $ z=y $ temos também que $ H_u(t)=\pi $. Por último se $ x\textless z \textless y $, assim temos que $ z-x\textgreater 0 $ e ainda $ z-y\textless 0 $

\[H_u(X)=\displaystyle \lim_{u\rightarrow \infty}2\int_{0}^{u}\frac{\sin{t(z-x)}}{t}-2\int_{0}^{u}\frac{\sin{t(z-x)}}{t} = 2\int_{0}^{u(z-x)}\frac{\sin{t}}{t}+2\int_{0}^{-u(z-y)}\frac{\sin{t}}{t}=2\pi\]

Assim temos que: $ H_u(X)\rightarrow \pi~ I_{[X=x]}+2\pi ~I_{[x\textless X \textless y]}+\pi ~I_{X=y}=Y $ quando $ u\rightarrow \infty. $

Neste momento basta encontrarmos uma variável que limita Y, como por exemplo: 

\[Z=4\pi~ I_{x\leq X\leq y}\]

Assim usando o teorema da convergência dominada podemos concluir que: 

\[\displaystyle\lim_{u\rightarrow \infty}\mathbb{E}[H_u(X)]=\mathbb{E}[Y]=\pi~ \mathbb{P}(X=x)+2\pi ~\mathbb{P}(x\textless X \textless y)+\pi ~\mathbb{P}(X=y).\]

Notemos que da forma como $ H_u(X) $ foi definido temos que: 

\[\displaystyle\lim_{u\rightarrown \infty} I(u)=\displaystyle \mathbb{E}[H_u(t)]=\pi ~\mathbb{P}(X=x)+2\pi ~\mathbb{P}(x\textless X \textless y)+\pi~ \mathbb{P}(X=y).\]

Assim concluímos a demonstração do teorema.

$ \Box $

Proposição 7.2.1.5: 

A variável aleatória X tem função característica real para todo t se, e somente se, X tem distribuição simétrica em torno de zero.

Demonstração:

De fato, notemos que X tem distribuição simétrica em torno de zero se, e somente se, $ \mathbb{P}(X\leq x)=\mathbb{P}(X\geq -x) $ para qualquer $ x \in \mathbb{R} $, ou seja, $ F_{-X}=F_{X} $ no qual X e -X são identicamente distribuídas.

Mas pelo teorema temos que $ F_X=F_{-X} $ se, e somente se, suas funções característica são iguais, ou seja, $ \varphi_X=\varphi_{-X} $. Desta forma X é simétrica em zero se, e somente se, $ \varphi_X(t)=\varphi_{-X}(t)=\overline{\varphi_{-X}(-t)} $.

A última igualdade decorre do fato de que,

$ \displaystyle \overline{\varphi_X(t)}=\varphi_{X}(t) $, pois $ \cos{(-tX)}=\cos{(tX)} $ e $ \sin{(-tX)}=-\sin{(tX)} $ e portanto temos que: 

\[\varphi_X(-t)=\mathbb{E}[\cos{(-tX)}+i~\sin{(-tX)}]=\mathbb{E}[\cos{(-tX)}]+i~\mathbb{E}[\sin{(-tX)}]=\]

 

\[=\mathbb{E}[\cos{(tX)}]-i~\mathbb{E}[\sin{(tX)}]=\mathbb{E}[\cos{(tX)}-i~\sin{(tX)}]=\]

 

\[=\overline{\math{E}[e^{itX}]}=\overline{\varphi_{X}(t)}\]

Assim podemos concluir que: 

\[\varphi_{X}(t)=\varphi_{-X}(t)=\overline{\varphi_{-X}(-t)}=\overline{\mathbb{E}[e^{i(-t)(-X)}]}=\overline{\mathbb{E}[e^{itX}]}=\overline{\varphi_X(t)},\]

ou seja, $ \varphi_X(t)=\overline{\varphi_X(t)} $ mas um número complexo só é igual ao seu conjugado se, e somente se, ele for real, e portanto concluímos nossa demonstração.

$ \Box $

A seguir, vamos demosntrar o teorema de unicidade, isto é, que a função de distribuição $ F=F(x) $ é determinado unicamente pela função característica $ \varphi=\varphi(t). $

Teorema 7.2.1.2: (Unicidade)

Seja $ F $ e $ G $ as funções de distribuição com as mesmas funções características, isto é, 

$$\int_{\mathbb{R}}e^{itx}dF(x)=\int_{\mathbb{R}}e^{itx}dG(x), \quad \text{para todo}~ t\in \mathbb{R}.$$

Então $ F(x)\equiv G(x) $

Demosntração:

Escolhemos $ a,b\in\mathbb{R}, $ dado $ \varepsilon>0 $ e consideramos a função $ f^{\varepsilon}(x). $ Vamos mostrar que 

$$\int_{\mathbb{R}}f^{\varepsilon}(x)dF(x)=\int_{\mathbb{R}}f^{\varepsilon}(x)dG(x)$$

Para isto, seja $ n\textgreater 0 $ suficientemente grande, para que $ [a-\varepsilon,b+\varepsilon]\subseteq [-n,n] $ e sequência $ \{\delta_n\} $ tal que $ \delta_n $ é limitada por 1 e $ \delta_n\downarrow 0, $ quando $ n\rightarrow \infty. $ Como qualquer função contínua em $ [-n,n] $ tem valores iguais nos extremos.

Logo, $ f^{\varepsilon}(x) $ pode ser aproximada uniformemente por polinômios trigonométricos (teorema de Weierstrass). 

$$F^\varepsilon_n(x)=\sum_k a_k \exp\left\{i\pi x \frac{k}{n}\right\}$$

tal que 

$$\sup_{-n\leq x\leq n}|f^\varepsilon(x)-f^\varepsilon_n(x)|\leq \delta_n$$

Estendendo a função periódica $ f_n(x) $ para todo $ \mathbb{R}. $ Note que, 

$$\sup_{x}|f^\varepsilon_n(x)|\leq 2$$

Então pela hipótese temos que 

$$\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)=\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)$$

Daí, obtemos que 

$$\left|\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)-\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)\right|=\left|\int^n_{-n}f^\varepsilon(x)dF(x)-\int^n_{-n}f^\varepsilon(x)dG(x)\right|$$

 

$$\leq\left|\int^n_{-n}f^\varepsilon_n(x)dF(x)-\int^n_{-n}f^\varepsilon_n(x)dG(x)\right|+2\delta_n$$

 

$$\leq\left|\int_{\mathbb{R}}f^\varepsilon_n(x)dF(x)-\int_{\mathbb{R}}f^\varepsilon_n(x)dG(x)\right|+2\delta_n\longrightarrow 0$$

Quando $ \varepsilon\rightarrow 0, $ obtemos que $ f^\varepsilon\rightarrow 1\!\!1_{\{(a,b]\}}(x). $

Portanto, 

$$\int_{\mathbb{R}}1\!\!1_{\{(a,b]\}}(x)dF(x)=\int_{\mathbb{R}}1\!\!1_{\{(a,b]\}}(x)dG(x)$$

e do teorema fundamental do cálculo $ F(b)-F(a)=G(b)-G(a) $ e desde que $ a $ e $ b $ sejam arbitrários temos que $ F(x)=G(x) $ para todo $ x\in \mathbb{R} $

$ \Box $

Apresentamos a seguir a função característica de algumas das principais distribuições de probabilidade.

Exemplo 7.2.1.1: 

Suponha que $ X~\sim ~B(n,p) $ 

\[\varphi_{X}(t)=\mathbb{E}[e^{itX}]=\sum_{k=0}^{\infty}\left(\begin{array}{c}n\\k\end{array}\right)e^{itk}p^{k}(1-p)^{n-k}=\sum_{k=0}^{\infty}\frac{n!}{k!(n-k)!}e^{itk}p^k(1-p)^{n-k}=((1-p)+pe^{it})^n.\]

Exemplo 7.2.1.2: 

Suponha que $ X~\sim ~\text{Poisson}(\lambda) $.  

\[\varphi_{X}(t)=\mathbb{E}[e^{itX}]=\sum_{k=0}^{\infty}e^{itk}e^{-\lambda}\frac{\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty}\frac{(\lambda e^{it})^{n}}{n!}=e^{-\lambda}e^{\lambda e^{it}}=\exp\{\lambda(e^{it}-1)\}.\]

Exemplo 7.2.1.3: 

Suponha que $ X~\sim ~N(0,1) $ 

\[\varphi_X(t)=\mathbb{E}[e^{itX}]=\displaystyle \int_{-\infty}^{\infty}e^{itx}dF_X(x)=\frac{1}{\sqrt{2\pi}}\int_{-\infty}^{\infty}e^{itx}e^{-(x^2)/2}dx=e^{-t^2/2}\displaystyle \int_{-\infty}^{\infty}e^{-(x-it)^2/2}dx=e^{-t^2/2}\]

Para concluímos a última igualdade necessitamos de um resultado de análise complexa, que é o teorema de Cauchy. Este teorema diz que uma função analítica integrada sobre um caminho fechado no plano complexo tem integral nula. Usando esse resultado e com alguma manipulação algébrica concluímos a última igualdade.

Exemplo 7.2.1.4: 

Suponha que $ X~\sim ~U[a,b], $ então 

$$\varphi_X (t)=\mathbb{E}[e^{itX}]=\int^b_a e^{itx}\dfrac{1}{b-a}dx=\dfrac{e^{itb}-e^{ita}}{it(b-a)}$$

Abaixo segue uma tabela com algumas funções características das principais distribuições.

Distribuição Função Característica
Binomial $ [(1-p)+pe^{it}]^n $
Binomial Negativa $ \left[\dfrac{p}{(1-(1-p)e^{it})}\right]^r $
Poisson $ \exp\{\lambda(e^{it}-1)\} $
Normal $ \exp\left\{i\mu t-\dfrac{(\sigma t)^2}{2}\right\} $
Gamma $ \left[1-\dfrac{it}{\theta}\right]^{-\lambda} $

Um assunto muito importante e que foi dedicado uma seção é a Lei Fraca do Grandes Números (para mais detalhes acesse LFGN), que pode ser demonstrada através do método da função característica. A seguir, vamos demonstrar o seguinte teorema.

Teorema 7.2.1.3: (Lei Fraca dos Grandes Números)

Seja $ \{X_i\}_{i\geq 1} $ sequência de variáveis aleatórias independentes e identicamente distribuídos com $ \mathbb{E}[X_1]\testless\infty, $$ S_n=X_1+\dots+X_n $ e $ \mathbb{E}[X_1]=\mu. $ Então $ \dfrac{S_n}{n}\xrightarrow{P}\mu $ tal que para todo $ \varepsilon\textgreater 0 $ 

$$\mathbb{P}\left(\left|\dfrac{S_n}{n}-m\right|\geq \varepsilon\right)\overset{n\rightarrow\infty}{\longrightarrow}0$$

Demonstração:

Seja $ \varphi(t)=\mathbb{E}[e^{it X_1}] $ e $ \varphi_{S_n/n}(t)=\mathbb{E}[e^{it\frac{S_n}{n}}]. $ Da hipótese temos que as variáveis aleatórias são i.i.d's, então

$ \varphi_{S_n/n}(t)=\left[\varphi\left(\frac{t}{n}\right)\right]^n $

Pela proposição 7.2.1.4, temos que 

$$\varphi(t)=1+it\mu+r(t), \quad \text{quando} t\rightarrow 0$$

Assim, para cada $ t\in\mathbb{R} $ 

$$\varphi\left(\frac{t}{n}\right)=1+i\frac{t}{n}\mu+r(\frac{1}{n}),\quad\text{qaundo}~t\rightarrow \infty $$

Logo, 

$$\varphi_{S_n/n}(t)=\left[1+i\frac{t}{n}\mu+r(\frac{1}{n})\right]^n\rightarrow e^{it\mu}$$

A função $ \varphi(t)=e^{it\mu} $ é contínua no zero e é a função característica da distribuição de probabilidade que é concentrada em $ \mu. $ Portanto, $ \dfrac{S_n}{n}\xrightarrow{\mathcal{D}}\mu $. Como $ \mu $ é uma constante obtemos que (ver Proposição 7.1.2.2 em Convergência em distribuição) a convergência também ocorre em probabilidade,

$$\dfrac{S_n}{n}\xrightarrow{P}\mu.$$

$ \Box $

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]