6.4.1 - Teorema Central do Limite para soma de variáveis aleatórias dependentes

Você está aqui

Como mencionado, a propriedade de martingale substitui a suposição de independência. Teoremas centrais do limite para martingales foi iniciada em 1970 (Brown, 1971; Dvoretsky, 1972). A particular importância para o desenvolvimento da presente teoria se deve a McLeish (1974 [17]). A aplicação de processos de contagem de análise de sobrevivência, incluindo a aplicação do artigo de McLeish foi feito por Aalen durante 1974-1975.

O teorema do limite central para martingales está relacionada ao fato de que um martingale com trajetórias contínuas e um processo de variação previsível determinístico é um martingale Gaussiano, ou seja, com distribuições normais de dimensão finita. Assim, o teorema central do limite para processos de contagem associado a martingales dependem de duas condições:

(i) o tamanho dos saltos ir a zero (isto é, aproximando-se a continuidade das trajetórias);

(ii) o processo de variações previsíveis converge para uma função determinística.

Em teoria da probabilidade, a década de 1960 e 1970 foram o auge do estudo de teoremas centrais do limite para martingales. O teorema central do limite para martingales não era apenas uma generalização do clássico teorema central do limite de Lindeberg, mas que a prova foi a mesma. Era simplesmente uma questão de inserção criteriosa de esperanças condicionais, de modo que a mesma linha de prova trabalhada exatamente. Em outras palavras, a prova clássica do teorema central do limite de Lindeberg já é a prova do teorema central do limite para martingales.

Na seção Teorema Central do Limite, vimos que $ \{X_n\}_{n\geq 1} $ sequência de variáveis aleatórias tem como suposição a independência. Nesta seção vamos trabalhar os resultados utilizando a teoria de martingale (para mais detalhes consulte Martingale) e a ideia de matrizes triangulares que pode ser escrito como:

Definição 6.4.1.1:

Suponha que para cada n ≥ 1, é dada Xn1,...,Xnn uma sequência de variáveis aleatórias independentes. Dizemos que uma matriz triangular dada por

de variáveis aleatórias, no qual cada linha é independente. Porém, vamos trocar a notação de $ X_{nk} $ para $ X^n_k, $ e denotamos $ S_n=X^n_{1}+\dots+X^n_{n}. $

O teorema central do limite para somas $ S_n=X^n_{1}+\dots+X^n_{n}, $ n≥1 de variáveis aleatórias $ X^n_1,\dots,X^n_n}, $ foi estabelecido sob o pressuposto de independência, segundos momentos finitos e o limite de seus termos são desprezíveis. Nesta seção, não vamos partir do pressuposto da independência e até mesmo dos valores absolutos finitos dos momentos de primeira ordem. Com isso, supomos $ (\Omega, \mathcal{F}, \mathbb{P}) $ o espaço de probabilidade  completo e as sequências

$$X^n=(X^n_k,\mathcal{F}^n_k), \quad 0\leq k \leq n, ~~n\geq 1$$

 

com $ X^n_{0}=0, $ e denotamos $ (\Omega,\mathcal{F},\mathbb{F},\mathbb{P}) $ a base estocástica com $ \mathbb{F}^{n}=\{\mathcal{F}^{n}_{i},~i=0,1\dots,k\} $ a filtragem (para mais detalhes consulte o conteúdo de base estocástica) definida por $ \mathcal{F}^n_0=(\emptyset,\Omega), $ $ \mathcal{F}^n_k \subseteq \mathcal{F}^n_{k+1}\subseteq \mathcal{F}. $ Agora, seja para cada n, kn um tempo de parada (para mais detalhes consulte tempos de parada) com respeito a $ \{\mathcal{F}^n_k\}_{k\geq 0}. $ Assim, obtemos

$$X^n(t)=\sum^{k_n}_{k=0}X^n_k$$

 

Nesta seção para mostrar os resultados para TCL para soma de variáveis aleatórias dependentes é utilizado os teoremas limites para martingales. Se $ \{M_n\}_{n\geq 1} $ é um martingale com $ M_0=0, $ então $ X_i=M_{i+1}-M_i $ formam uma sequência chamada de martingale differences. Logo, $ M_n $ é soma de variáveis aleatórias não necessariamente independentes $ X_1,\dots, X_n. $ Agora, vamos mostrar o resultado fundamental para o TCL para soma de variáveis aleatórias dependentes.

Teorema 6.4.1.1:

ara um dado $ t,~t\in [0,1], $ as seguintes condições são satisfeitas:

$$(A)\quad\sum^{k_n}_{k=0}\mathbb{P}\{|X^n_k|\textgreater\varepsilon|\mathcal{F}^n_{k-1}\}\overset{P}{\rightarrow}0$$

$$(B)\quad\sum^{k_n}_{k=0}\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}|\mathcal{F}^n_{k-1}\}\overset{P}{\rightarrow}0$$

$$(C)\quad\sum^{k_n}_{k=0}\text{Var}\{X^n_k1\!\!1_{\{|X^n_k|\leq \varepsilon\}}|\mathcal{F}^n_{k-1}\}\overset{P}{\rightarrow}\sigma^2(t)\geq 0$$

 

Então $ X^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t)) $

Demonstração:

Primeiramente, temos a seguinte observação.

Observação:

As hipóteses A e B garantem que $ X^n(t) $ pode ser representado da forma $ X^n(t)=Y^n(t)+Z^n(t) $ com $ Z^n(t)\overset{P}{\rightarrow}0 $ e $ Y^n(t)=\displaystyle\sum^{k_n}_{k=0}\eta^n_k, $ em que a sequência $ \eta^n=(\eta^n_k,\mathcal{F}^n_{k}) $ é um martingale difference e $ \mathbb{E}(\eta^n_k|\mathcal{F}^n_{k-1})=0 $ com $ |\eta^n_k|\leq c, $ uniformemente para $ k \in [1,n],~n\geq 1. $ Consequentemente, basta mostrar o teorema central do limite para o martingale difference (para mais detalhes consulte martingale difference).

Denotamos $ X^n(t) $ por

$$X^n(t)=\sum^{k_n}_{k=0}X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}+\sum^{k_n}_{k=0}X^n_k1\!\!1_{\{|X^n_k|\textgreater 1\}}$$

$$=\sum^{k_n}_{k=0}\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}|\mathcal{F}^n_{k-1}\}+\sum^{k_n}_{k=0}X^n_k1\!\!1_{\{|X^n_k|\textgreater 1\}}+\sum^{k_n}_{k=0}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}-\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}|\mathcal{F}^n_{k-1}\}\}$$

$$(6.4.1.1)$$

 

Agora, definimos

$$B^n(t)=\sum^{k_n}_{k=0}\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}|\mathcal{F}^n_{k-1}\},$$

$$\mu^n_k(\Gamma)=1\!\!1_{\{X^n_k\in \Gamma\}},$$

$$\nu^n_k(\Gamma)=\mathbb{P}\{X^n_k\in \Gamma|\mathcal{F}^n_{k-1}\}$$

 

em que $ \Gamma $ é a menor $ \sigma $-álgebra $ \sigma(\mathbb{R}-\{0\}) $ e $ \mathbb{P}\{X^n_k\in \Gamma|\mathcal{F}^n_{k-1}\} $ é a distribuição condicional regular de $ X^n_k $ com respeito a filtragem $ \mathcal{F}^n_{k-1}. $ Então, (eq. 6.4.1.1) pode ser ser reescrito da seguinte forma:

$$X^n(t)=B^n(t)+\sum^{k_n}_{k=0}\int_{|x|\textgreater1}xd\mu^n_k+\sum^{k_n}_{k=0}\int_{|x|\leq1}x d(\mu^n_k-\nu^n_k)\quad (6.4.1.2)$$

 

que é conhecido como decomposição canônica de $ (X^n(t),\mathcal{F}^n(t)). $ De (eq. 6.4.1.2) obtemos que $ B^n(t)\overset{P}{\rightarrow}0. $ Agora vamos mostrar que a condição (A) implica

$$\sum^{k_n}_{k=0}\int_{|x|\textgreater1}|x|d\mu^n_k\overset{P}{\rightarrow}0$$

 

Disto, obtemos que

$$\sum^{k_n}_{k=0}\int_{|x|\textgreater1}|x|d\mu^n_k=\sum^{k_n}_{k=0}|X^n_k| 1\!\!1_{\{|X^n_k|\textgreater 1\}}\quad (6.4.1.3)$$

 

Para cada $ \delta\in(0,1), $

$$\left\{\sum^{k_n}_{k=0}|X^n_k| 1\!\!1_{\{|X^n_k|\textgreater 1\}}\textgreater\delta\right\}\leq \left\{\sum^{k_n}_{k=0} 1\!\!1_{\{|X^n_k|\textgreater 1\}}\textgreater\delta\right\}$$

 

Assim,

$$\sum^{k_n}_{k=0} 1\!\!1_{\{|X^n_k|\textgreater 1\}}=\sum^{k_n}_{k=0}\int_{|x|\textgreater1}d\mu^n_k~~(\equiv U^n_{k_n})$$

 

Da condição (A) obtemos que

$$V^n_{k_n}\equiv\sum^{k_n}_{k=0} \int_{|x|\textgreater1}d\nu^n_k\overset{P}{\rightarrow}0\quad (6.4.1.4)$$

 

e $ V^n_{k_n} $ é $ \mathcal{F}^n_{k-1} $-mensurável. Então pelo corolário 2 parágrafo 3 do capítulo 7 do livro do Shiraev [3] obtemos que

$$V^n_{k_n}\overset{P}{\rightarrow}0\quad \Rightarrow \quad U^n_{k_n}\overset{P}{\rightarrow}0\quad (6.4.1.5)$$

 

Também pelo corolário e da desigualdade $ \Delta U^n_{k_n}\leq 1 $ obtemos

$$U^n_{k_n}\overset{P}{\rightarrow}0\quad \Rightarrow \quad V^n_{k_n}\overset{P}{\rightarrow}0$$

 

De (6.4.1.3) a (6.4.1.5) temos que

$$X^n(t)=Y^n(t)+Z^n(t)$$

 

em que

$$Y^n(t)=\sum^{k_n}_{k=0} \int_{|x|\leq1}x d(\mu^n_k-\nu^n_k)\quad \text{e}\quad Z^n(t)=B^n(t)+\sum^{k_n}_{k=0} \int_{|x|\textgreater1}x d\mu^n_k\overset{P}{\rightarrow}0$$

 

Para mostrar que $ X^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t)). $ Basta mostrar que

$$Y^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t))$$

 

Assim, seja $ Y^n(t) $ escrito da forma

$$Y^n(t)=\gamma^n_{k_n}(\varepsilon)+\Delta^n_{k_n}(\varepsilon),\quad \varepsilon\in(0,1],$$

 

em que

$$\gamma^n_{k_n}(\varepsilon)=\sum^{k_n}_{k=0} \int_{\varepsilon\textless|x|\leq1}x d(\mu^n_k-\nu^n_k)$$

$$\Delta^n_{k_n}(\varepsilon)=\sum^{k_n}_{k=0} \int_{|x|\leq \varepsilon}x d(\mu^n_k-\nu^n_k)$$

 

Da condição (A), obtemos $ \gamma^n_{k_n}(\varepsilon)\overset{P}{\rightarrow}0 $ quando $ n\rightarrow \infty. $ Agora, a sequência $ \Delta^n(\varepsilon)=(\Delta^n_{k}(\varepsilon),\mathcal{F}^n_{k}),1\leq k\leq n, $ é um martingale quadrado integrável com variação quadrática

$$\langle\Delta^n(\varepsilon)\rangle_k =\sum^k_{i=0}\left[\int_{|x|\leq \varepsilon}x^2 d\nu^n_i \left(\int_{|x|\leq \varepsilon}x d\nu^n_i\right)^2\right]=\sum^k_{i=0}\text{Var}[X_{ni}1\!\!1_{\{|X_{ni}|\leq \varepsilon\}}|\mathcal{F}^n_{i-1}]$$

 

Da condição (C) obtemos que

$$\langle\Delta^n(\varepsilon)\rangle_{k_n}\overset{P}{\rightarrow}\sigma^2(t)$$

 

Portanto, para cada $ \varepsilon\in (0,1], $

$$\max\{\gamma^n_{k_n}(\varepsilon)~ ;~|\langle\Delta^n(\varepsilon)\rangle_{k_n}-\sigma^2(t)|\}\overset{P}{\rightarrow}0\quad (6.4.1.6)$$

 

Logo, $ M^n_{k_n}\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t)), $ em que

$$M^n_k\equiv \Delta^n_k(\varepsilon_n)=\sum^k_{i=0}\int_{|x|\leq \varepsilon_n}x(\mu^n_i-\nu^n_i)\quad (6.4.1.7)$$

 

Para $ \Gamma\in \sigma(R\{0\}), $ seja

$$\tilde{\mu}^n_k(\Gamma)=1\!\!1_{\{ \Delta M^n_k\in \Gamma \}},\quad \tilde{\nu}^n_k(\Gamma)=\mathbb{P}(\Delta M^n_k\in \Gamma| \mathcal{F}^n_{k-1})$$

 

e $ \Delta M^n_k=M^n_k-M^n_{k-1},k\geq 1, M^n_0=0. $ Então o martingale quadrado integrável $ M^n=(M^n_k,\mathcal{F}^n_{k}),1\leq k\leq n, $ pode ser escrito da forma

$$M^n_k=\sum^k_{i=1}\Delta M^n_i=\sum^k_{i=1}\int_{|x|\leq 2\varepsilon_n}x d\tilde{\mu}^n_k$$

 

lembrando que $ |\Delta M^n_i|\leq 2\varepsilon_n $ por (6.4.1.7). Para mostrar (6.4.1.6), temos que para cada $ \lambda\in \mathbb{R}, $

$$\mathbb{E}[\exp\{i\lambda M^n_{k_n}\}]\rightarrow \exp\{-\frac{1}{2}\lambda^2\sigma^2(t)\}$$

 

Definimos

$$G^n_k=\sum^k_{j=1}\int_{|x|\leq 2\varepsilon_n}(e^{i\lambda x}-1)d\tilde{\nu}^n_j,\quad \text{e}\quad \mathcal{E}^n_k(G^n)=\prod^k_{j=1}(1+\Delta G^n_k).$$

 

Observe que

$$1+\Delta G^n_k=1+\int_{|x|\leq 2\varepsilon_n}(e^{i\lambda x}-1)d\tilde{\nu}^n_k = \int_{|x|\leq 2\varepsilon_a}e^{i\lambda x}d\tilde{\nu}^n_k=E[\exp\{i\lambda \Delta M^n_k\}|\mathcal{F}^n_{k-1}]$$

 

e consequentemente

$$\mathcal{E}^n_k(G^n)=\prod^k_{j=1}(1+\Delta G^n_k)$$

 

Agora, para cada $ \lambda\in \mathbb{R}, $ temos que

$$|\mathcal{E}^n_{k_n}(G^n)|=\left|\prod^k_{j=1}\mathbb{E}[\exp\{i\lambda \Delta M^n_k\}|\mathcal{F}^n_{k-1}]\right|\geq C(\lambda)\textgreater0\quad (6.4.1.8)$$

 

e

$$\mathcal{E}^n_{k_n}(G^n)\overset{P}{\rightarrow}\exp\{-\frac{1}{2}\lambda^2\sigma^2(t)\}\quad (6.4.1.9)$$

 

Representamos $ \mathcal{E}^n_{k}(G^n) $ da forma

$$\mathcal{E}^n_{k}(G^n)=\exp\{G^n_k\}\prod^k_{j=1}(1+\Delta G^n_j)\exp\{-\Delta G^n_j\}$$

 

Desde que

$$\int_{|x|\leq 2\varepsilon_n}x d\tilde{\nu}^n_j=\mathbb{E}[\Delta M^n_j| \mathcal{F}^n_{j-1}]=0$$

 

obtemos que

$$G^n_k=\sum^k_{j=1}\int_{|x|\leq 2\varepsilon_n}(e^{i\lambda x}-1-i\lambda x)d\tilde{\nu}^n_j\quad (6.4.1.10)$$

 

Portanto,

$$|\Delta G^n_k| \leq\int_{|x|\leq 2\varepsilon_n}|e^{i\lambda x}-1-i\lambda x|d\tilde{\nu}^n_k~~\leq~~ \frac{1}{2}\lambda^2\int_{|x|\leq 2\varepsilon_n} x^2d\tilde{\nu}^n_k$$

$$\leq \frac{1}{2}\lambda^2 (2\varepsilon_n)^2 \rightarrow 0\quad (6.4.1.11)$$

 

e

$$\sum^k_{j=1}|\Delta G^n_k| \leq\frac{1}{2}\lambda^2\sum^k_{j=1}\int_{|x|\leq 2\varepsilon_n} x^2d\tilde{\nu}^n_j=\frac{1}{2}\lambda^2 \langle M^n\rangle_k\quad (6.1.1.12)$$

 

Da condição (C), obtemos que

$$\langle M^n\rangle_{k_n}\overset{P}{\rightarrow}\sigma^2(t)\quad (6.4.1.13)$$

 

Primeiramente, supomos que $ \langle M^n\rangle_{k}\leq a  $ (P-q.c.), $ k\leq k_n, $ em que $ a\geq \sigma^2(t)+1. $ Então, de (6.4.1.11) e (6.4.1.12) obtemos

$$\prod^{k_n}_{k=1}(1+\Delta G^n_k)\exp\{-\Delta G^n_k\}\overset{P}{\rightarrow}1,\quad n\rightarrow \infty$$

 

Assim, para provar (6.4.1.9), basta que

$$G^n_{k_n}\rightarrow -\frac{1}{2}\lambda^2\sigma^2(t),\quad (6.4.1.14)$$

 

De (6.4.1.10), (6.4.1.11) e (6.4.1.13) temos que

$$\sum^{k_n}_{j=1}\int_{|x|\leq 2\varepsilon_n}(e^{i\lambda x}-1-i\lambda x+\frac{1}{2}\lambda^2 x^2)d\tilde{\nu}^n_k\overset{P}{\rightarrow}0$$

 

Mas,

$$|e^{i\lambda x}-1-i\lambda x+\frac{1}{2}\lambda^2 x^2|\leq \frac{1}{6}|\lambda x|^3$$

 

e portanto,

$$\sum^{k_n}_{j=1}\int_{|x|\leq 2\varepsilon_n}|e^{i\lambda x}-1-i\lambda x+\frac{1}{2}\lambda^2 x^2|d\tilde{\nu}^n_k\leq\frac{1}{6}|\lambda|^3(2\varepsilon_n)\sum^{k_n}_{j=1}\int_{|x|\leq 2\varepsilon_n}x^2 d\tilde{\nu}^n_k$$

$$=\frac{1}{3}\varepsilon_n|\lambda|^3\langle M^n\rangle_{k_n}\leq \frac{1}{3}\varepsilon_n|\lambda|^3 a\overset{n\rightarrow \infty}{\longrightarrow}0$$

 

Portanto, se $ \langle M^n\rangle_{k_n}\leq a $ (P-q.c.), (6.4.1.14) é satisfeito e consequentemente (6.4.1.9) é satisfeito.

Agora, para verificar (6.4.1.8), desde que $ |e^{i\lambda x}-1-i\lambda x|\leq \frac{1}{2}(\lambda x)^2. $ De (6.4.1.11), temos que para n suficientemente grande

$$|\mathcal{E}^n_k(G^n)|=\left|\prod^k_{j=1}(1+\Delta G^n_i)\right|\geq \prod^k_{j=1}\left(1-\frac{1}{2}\lambda^2\Delta \langle M^n\rangle_j\right)=\exp\left\{\sum^k_{j=1}\ln(1-\frac{1}{2}\lambda^2\Delta \langle M^n\rangle_j)\right\}$$

 

Mas

$$\ln(1-\frac{1}{2}\lambda^2\Delta \langle M^n\rangle_j)\geq -\frac{\frac{1}{2}\lambda^2\Delta \langle M^n\rangle_j}{1-\frac{1}{2}\lambda^2\Delta \langle M^n\rangle_j}$$

 

e $ \Delta\langle M^n\rangle_j\leq (2\varepsilon_n)^2\downarrow 0, $ quando $ n\rightarrow \infty. $ Assim, existe um $ n_0=n_0(\lambda) $ tal que para todo $ n\geq n_0(\lambda), $

$$|\mathcal{E}^n_k(G^n)|\geq \exp\{-\lambda^2\langle M^n\rangle_k\}$$

 

e portanto

$$|\mathcal{E}^n_{k_n}(G^n)|\geq \exp\{-\lambda^2\langle M^n\rangle_{k_n}\}\geq e^{-\lambda^2 a}$$

 

que é provado pela suposição $ \langle M^n\rangle_{k_n}\leq a $ (P-q.c.). Para removermos esta suposição, definimos

$$\tau^n=\min\{k\leq k_n; \langle M^n\rangle_{k}\geq \sigma^2(t)+1\}$$

 

tomando $ \tau^n=\infty $ se $ \langle M^n\rangle_{k}\leq \sigma^2(t)+1. $ Então para $ \overline{M}^n_k=M^n_{k \wedge \tau^n} $ obtemos que

$$\langle \overline{M}^n\rangle_{k_n}=\langle M^n\rangle_{k_n\wedge \tau^n}\leq 1+\sigma^2(t)+2\varepsilon^2_n\leq 1+\sigma^2(t)+2\varepsilon^2_1$$

 

como mostrado anteriormente,

$$\mathbb{E}[\exp\{i\lambda\overline{M}^n_{k_n}\}]\rightarrow \exp\left\{-\frac{1}{2}\lambda^2\sigma^2(t)\right\}$$

 

Mas

$$\lim_n \left|\mathbb{E}\left[\exp\{i\lambda{M}^n_{k_n}\}- \exp\{i\lambda\overline{M}^n_{k_n}\}\right]\right|\leq 2\lim_n \mathbb{P}\{\tau\textless\infty\}=0$$

 

Consequentemente,

$$\lim_n \mathbb{E}[\exp\{i\lambda\overline{M}^n_{k_n}\}]=\lim_n \mathbb{E}\left[\exp\{i\lambda{M}^n_{k_n}\}- \exp\{i\lambda\overline{M}^n_{k_n}\}\right]+\lim_n\mathbb{E}\left[\exp\{i\lambda\overline{M}^n_{k_n}\}\right]=$$

$$=\exp\left\{-\frac{1}{2}\lambda^2\sigma^2(t)\right\}$$

 

Isto completa a demonstração do teorema

$ \Box $

Vale observar que muitos teoremas centrais do limite relacionados para variáveis aleatórias dependentes agora podem ser facilmente deduzidos à partir do teorema (6.4.1.1).

Nos casos em que $ X^n_1,\dots,X^n_n $ são independentes, as condições do teorema (6.4.1.1) com $ t=1, $ e $ \sigma^2=\sigma^2_1, $ obtemos

$$(a)\sum^{k_n}_{k=0}\mathbb{P}\{|X^n_k|\textgreater\varepsilon\}\rightarrow0$$

$$(b)\sum^{k_n}_{k=0}\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}\}\rightarrow0$$

$$(c)\sum^{k_n}_{k=0}\text{Var}\{X^n_k1\!\!1_{\{|X^n_k|\leq \varepsilon\}}\}\rightarrow\sigma^2$$

 

Notamos que este resultado não assume a independência e até mesmo não exige que $ X^n_k $ sejam integráveis. No caso de variáveis aleatórias independentes, esse resultado se transforma no teorema central do limite de Lindeberg. No caso em que $ \sigma^2(t)=0, $ a distribuição limitante é degenerada.

Lema 6.4.1.1:

Se para um determinado $ \lambda $ $ |\mathcal{E}^n(\lambda)|\geq c(\lambda)\textgreater0, n \geq 1, $ um condição suficiente para

$$\mathbb{E}[e^{i\lambda Y^n}]\rightarrow\mathbb{E}[e^{i\lambda Y}],\quad \text{i.e.}\quad \mathcal{E}^n(\lambda)\overset{P}{\rightarrow} \mathcal{E}(\lambda)\quad (6.4.1.15)$$

 

Demonstração:

Primeiramente, seja $ \eta^n=(\eta^n_k,\mathcal{F}^n_{k}),1\leq k\leq n,\geq 1 $ a sequência estocática, denotamos

$$Y^n=\sum^n_{k=1}\eta^n_k,$$

 

e

$$\mathcal{E}^n(\lambda)=\prod^n_{k=1}\mathbb{E}[\exp\{i\lambda \eta^n_k\}|\mathcal{F}^n_{k-1}], \quad \lambda \in \mathbb{R}$$

 

em que $ Y $ é a v.a. com

$$\mathcal{E}(\lambda)=\mathbb{E}[e^{i\lambda Y}]$$

 

Agora, seja $ m^n(\lambda)=\frac{e^{i\lambda Y^n}}{\mathcal{E}^n(\lambda)}. $ Então $ |m^n(\lambda)|\leq c^{-1}(\lambda)\textless\infty. $ Note que $ \mathbb{E}[m^n(\lambda)]=1 $ e que da equação (6.4.1.15) e da hipótese $ \mathcal{E}^n(\lambda)\geq c(\lambda)\textgreater0, $ que $ \mathcal{E}^n(\lambda)\neq 0. $

Portanto, de (6.4.1.15) e do teorema da convergência dominada obtemos que

$$|\mathbb{E}[e^{i\lambda Y^n}]-\mathbb{E}[e^{i\lambda Y}]|=|\mathbb{E}(e^{i\lambda Y^n}-\mathcal{E}(\lambda))|=|\mathbb{E}\left(m^n(\lambda)[\mathcal{E}^n(\lambda)-\mathcal{E}(\lambda)]\right)|\leq$$

$$\leq c^{-1}(\lambda)\mathbb{E}\left|\mathcal{E}^n(\lambda)-\mathcal{E}(\lambda)\right|\overset{n\rightarrow \infty}{\longrightarrow} 0$$

$ \Box $

Corolário 6.4.1.1:

Se $ X^n_1,\dots,X^n_n $ são variáveis aleatórias independentes, n≥1, então as condições (A), (B) e (C) implicam que $ X^n_1 \overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2) $

Proposição 6.4.1.1:

Seja $ 0\textless t_1\textless t_2\textless\dots\textless t_j\textless1 $$ \sigma^2(t_1)\textless\sigma^2(t_2)\textless\dots\textless\sigma^2(t_j), $ com $ \sigma^2(0)=0 $ e seja $ \varepsilon_1,\dots,\varepsilon_j $ são variáveis aleatórias normais com média zero e $ \mathbb{E}(\varepsilon^2_k)=\sigma^2(t_k)-\sigma^2(t_{k-1}). $ Resultam nos vetores (Normais) $ (W(t_1),\dots, W(t_j)) $ com $ W(t_k)=\varepsilon_1+\dots+\varepsilon_k. $

Demonstração:

Suponhamos que condições (A), (B) e (C) são satisfeitas para $ t=t_1,\dots, t_j. $ Então a distribuição conjunta ($ P^n(t_1,\dots,t_j) $) para as variáveis aleatórias ($ (X^n(t_1),\dots, X^n(t_j)) $) converge fracamente para  distribuição Normal $ P (t_1,\dots, t_j) $ das variáveis  $

$$P^n(t_1,\dots,t_j) \overset{\mathcal{D}}{\rightarrow} P(t_1,\dots,t_j)$$

$ \Box $

Teorema 6.4.1.2:

A condição (A) é equivalente a

$$(a) \max_{1\leq k\leq k_n}|X^n_k|\overset{P}{\rightarrow}0$$

 

Suponha (A) ou (a) válidos, a condição (C) é equivalente a

$$(c)\sum^{k_n}_{k=0}\mathbb{E}\{X^n_k-\mathbb{E}\{X^n_k1\!\!1_{\{|X^n_k|\leq 1\}}\}|\mathcal{F}^n_{k-1}\}^2\overset{P}{\rightarrow}\sigma^2(t)$$

 

Demonstração:

Para provar a primeira parte do teorema temos que dado $ \varepsilon\textgreater0, $ existe $ \delta \in (0,\varepsilon) $ e por simplicidade tomamos $ t=1. $ Desde que

$$\max_{1\leq k \leq n}|X^n_k|\leq \varepsilon+\sum^n_{k=1}|X^n_k| 1\!\!1_{\{|X^n_k|\textgreater\varepsilon\}}$$

 

e

$$\left\{\sum^n_{k=1}|X^n_k| 1\!\!1_{\{|X^n_k|\textgreater\varepsilon\}}\textgreater\delta\right\} \subseteq \left\{\sum^n_{k=1} 1\!\!1_{\{|X^n_k|\textgreater\varepsilon\}}\textgreater\delta\right\},$$

 

obtemos que

$$\mathbb{P}\left\{\max_{1\leq k \leq n}|X^n_k|\textgreater\varepsilon+\delta \right\} \leq \mathbb{P}\left\{\sum^n_{k=1} 1\!\!1_{\{|X^n_k|\textgreater\varepsilon\}}\textgreater\delta\right\}=\mathbb{P}\left\{\sum^n_{k=1} \int_{|x|\textgreater\varepsilon}d\mu^n_k\textgreater\delta \right\}$$

 

Se (A) é satisfeita, isto é,

$$\mathbb{P}\left\{\sum^n_{k=1} \int_{|x|\textgreater\varepsilon}d\nu^n_k\textgreater\delta \right\}\rightarrow 0.$$

 

então, obtemos que

$$\mathbb{P}\left\{\sum^n_{k=1} \int_{|x|\textgreater\varepsilon}d\mu^n_k\textgreater\delta \right\}\rightarrow 0.$$

 

Logo, (A) $ \Rightarrow $ (a).

Por outro lado, seja

 |X^n_k|\geq \frac{\varepsilon}{2}\right\},$$

 

Suponhamos que $ \sigma_n=\infty $ se $ \displaystyle\max_{1\leq k \leq n}|X^n_k|\geq \frac{\varepsilon}{2}. $ Pela condição (c), $ \displaystyle \lim_n \mathbb{P}(\sigma\textless\infty)=0. $

Agora, observe que, para cada $ \delta\in (0,1), $ o conjunto

$$\left\{\sum^{n\wedge \sigma_n}_{k=1} 1\!\!1_{\{|X^n_k|\geq \frac{\varepsilon}{2}\}}\textgreater\delta\right\}\quad\text{e}\quad \left\{\max_{1\leq k \leq n\wedge \sigma_n}|X^n_k|\geq \frac{\varepsilon}{2}\right\}$$

 

coincidem. Da condição (a)

$$\sum^{n\wedge \sigma_n}_{k=1} 1\!\!1_{\{|X^n_k|\geq \frac{\varepsilon}{2}\}}=\sum^{n\wedge \sigma_n}_{k=1} \int_{|x|\geq \frac{\varepsilon}{2}}d\mu^n_k \overset{P}{\rightarrow}0$$

 

que em conjunto com a propriedade $ \lim_n \mathbb{P}\{\sigma_n\textless\infty\}=0, $ provamos que (a) $ \Rightarrow $ (A).

Agora, vamos mostrar a parte (2). Novamente supomos $ t=1, $ escolhemos $ \varepsilon\in (0,1] $ e consideramos o martingale quadrado integrável $ \Delta^n(\delta)=(\Delta^n_k(\delta),\mathcal{F}^n_k)  $  para $ 1\leq k \leq n, $ com $ \delta \in (0,\varepsilon]. $ Para dado $ \varepsilon\in (0,1], $ da condição (C) temos que

$$\langle \Delta^n(\varepsilon)\rangle_n \overset{P}{\rightarrow} \sigma^2_1$$

 

A partir da condição (A) que para cada $ \delta \in (0,\varepsilon] $

$$\langle \Delta^n(\delta)\rangle_n \overset{P}{\rightarrow} \sigma^2_1$$

 

Decorre das condições (c), (A) e (a) que para cada $ \delta \in (0,\varepsilon], $

$$[ \Delta^n(\delta)]_n \overset{P}{\rightarrow} \sigma^2_1\quad (6.4.1.16)$$

 

em que

$$[ \Delta^n(\delta)]_n=\sum^n_{k=1}\left[X^n_k~1\!\!1_{\{|X^n_k|\leq \delta\}}-\int_{|x|\leq \delta}x d\nu^n_k\right]^2$$

 

De fato, da condição (A)

$$[ \Delta^n(\delta)]_n - [ \Delta^n(1)]_n\overset{P}{\rightarrow}0\quad (6.4.1.17)$$

 

Mas

$$\left|\sum^n_{k=1}\left[X^n_k-\int_{|x|\leq\delta}x d\nu^n_k\right]^2-\sum^n_{k=1}\left[X^n_k~1\!\!1_{\{|X^n_k|\leq 1\}}-\int_{|x|\leq \delta}x d\nu^n_k\right]^2\right|$$

$$\leq\sum^n_{k=1}1\!\!1_{\{|X^n_k|\leq 1\}}\left[(X^n_k)^2+2|X^n_k|\left|\int_{|x|\leq \delta}x d(\mu^n_k-\nu^n_k) \right|\right]$$

$$\leq 5 \sum^n_{k=1}1\!\!1_{\{|X^n_k|\textgreater 1\}} |X^n_k|^2 $$

$$\leq 5\max_{1\leq k \leq n}|X^n_k|^2\sum^n_{k=1}\int_{|x|\textgreater1}d\mu^n_k\rightarrow 0\quad (6.4.1.18)$$

 

Logo, a equação (6.4.1.16) é obtido à partir de (6.4.1.17) e (6.4.1.18).

Para mostrar a equivalência das condições (C) e (c), é suficiente mostrar que a condição (C) é satisfeita. Para dado $ \varepsilon \in(0,1], $ então a condição (c) é também satisfeita para cada  $

$$\lim_{\delta\rightarrow 0}\lim\sup_n \mathbb{P}\{\left|[\Delta^n(\sigma)]_n-\langle \Delta^n(\delta)\rangle_n\right| \textgreater a\}=0\quad (6.4.1.19)$$

 

Seja $ m^n_k(\delta)=[\Delta^n(\sigma)]_n-\langle \Delta^n(\delta)\rangle_n,\quad 1\leq k \leq n. $ A sequência $ m^n(\delta)=(m^n_k(\delta),\mathcal{F}^n_k) $ é um martingale quadrado integrável e $ (m^n(\delta))^2 $ é dominado pelas sequências $ [m^n(\delta)] $ e $ \langle m^n(\delta)\rangle. $

Note que

$$[m^n(\delta)]_n=\sum^n_{k=1}(\Delta m^n_k(\delta))^2 \leq\max_{1\leq k \leq n}|\Delta m^n_k(\delta)|\{[\Delta^n(\delta)]_n + \langle \Delta^n(\delta)\rangle_n\}$$

$$\leq3\delta^2 \{[\Delta^n(\delta)]_n + \langle \Delta^n(\delta)\rangle_n\}\quad (6.4.1.20)$$

 

Desde que $ [\Delta^n(\delta)] $ e $ \langle \Delta^n(\delta)\rangle $ domina uns aos outros. Disto, segue de (6.4.1.20) que $ (m^n(\delta))^2 $ é dominada pela sequências $ 6\delta^2[\Delta^n(\delta)] $ e $ 6\delta^2\langle \Delta^n(\delta)\rangle. $ Assim, se a condição (C) é satisfeita, então para $ \delta $ suficientemente pequeno $ (\delta=\frac{1}{6}b(\sigma^2_1+1)) $

$$\lim \sup_n \mathbb{P}\{6\delta^2\langle \Delta^n(\delta)\rangle_n \textgreater b\}=0$$

 

logo, pelo corolário (Shiraev [3]), obtemos de (6.4.1.19). Se a condição (c) é satisfeita então para os mesmos valores de $ \delta, $

$$\lim\sup_n \mathbb{P}\{6\delta^2[ \Delta^n(\delta)]_k \textgreater b\}=0\quad (6.4.1.21)$$

 

Desde que $ |\Delta[ \Delta^n(\delta)]_k|\leq (2\delta)^2, $ a validade de (6.4.1.19) segue de (6.4.1.21) e recorrendo ao corolário (Shiraev [3]). Isto completa a demonstração.

$ \Box $

Teorema 6.4.1.3:

Para cada $ n\geq 1 $ a sequência $ X^n=(X^n_k,\mathcal{F}^n_{k}), 1\leq k\leq n, $ é um martingale difference quadrado integrável tal que

$$\mathbb{E}\{(X^n_k)^2\}\textless\infty,\quad \mathbb{E}\{X^n_k|\mathcal{F}^n_{k-1}\}=0$$

 

Suponha que a condição de Lindeberg é satisfeita. Assim, para $ \varepsilon\textgreater0, $

$$\sum^{k_n}_{k=0}\mathbb{E}\{(X^n_k)^21\!\!1_{\{|X^n_k|\textgreater\varepsilon\}}|\mathcal{F}^n_{k-1}\}\overset{P}{\rightarrow}0$$

 

Então (C) é equivalente a

$$\langle X^n\rangle(t) \overset{P}{\rightarrow} \sigma^2(t),\quad (6.4.1.22)$$

 

em que a variação quadrática

$$\langle X^n\rangle(t) =\sum^{k_n}_{k=0}\mathbb{E}\{(X^n_k)^2|\mathcal{F}^n_{k-1}\}$$

 

e (c) é equivalente a $ [X^n](t)\overset{P}{\rightarrow} \sigma^2(t) $ em que a variação quadrática

$$[X^n](t)=\sum^{k_n}_{k=0}(X^n_k)^2\quad (6.4.1.23)$$

 

Demonstração:

Pela condição de Lindeberg, a equivalência da condição (C) e (6.4.1.22), da condição (c) e de (6.4.1.23) pode ser obtido calculado diretamente.

$ \Box $

Teorema 6.4.1.4:

Seja o martingale difference quadrado integrável tal que $ X^n=(X^n_k,\mathcal{F}^n_{k}), $ $ n\geq 1, $ para um dado $ t\in (0,1] $ satisfaz a condição de Lindeberg (L). Então

$$\sum^{k_n}_{k=0}\mathbb{E}\{(X^n_k)^2|\mathcal{F}^n_{k-1}\}\overset{P}{\rightarrow} \sigma^2(t)\quad \Rightarrow \quad X^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t))\quad (6.4.1.24)$$

$$\sum^{k_n}_{k=0}(X^n_k)^2\overset{P}{\rightarrow} \sigma^2(t)\quad \Rightarrow \quad X^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t))\quad (6.4.1.25)$$

 

Demonstração:

A condição (A) resulta da condição Lindeberg. Quanto à condição (B), é suficiente observar que quando $ X^n $ é um martingale difference, as variáveis $ B^n(t) $ que aparece na decomposição canônica (6.4.1.2), podendo ser representada da forma

$$B^n(t)=-\sum^{k_n}_{k=0}\int_{|x|\textgreater1}x d\nu^k_n$$

 

Portanto, $ B^n(t)\overset{P}{\rightarrow}0 $ pela condição de Lindeberg.

$ \Box $

O teorema fundamental desta seção (Teorema 6.4.1.1), provou que sob a hipótese dos termos que somados são uniformemente infinitesimais assintoticamente. É natural definir condições para o teorema central do limite sem tal hipótese. Para variáveis aleatórias independentes, exemplos de tais teoremas são dadas pelo Teorema 7.3.2.2 (assumindo segundos momentos finitos).

Citamos (sem prova) um análogo do primeiro destes teoremas, aplicável apenas a sequências $ X^n=(X^n_k,\mathcal{F}^n_k)  $ que são martingale difference quadrados integráveis.

Seja $ F^n_k(x)=\mathbb{P}\{X^n_k\leq x| \mathcal{F}^n_{k-1}\}  $ a função distribuição regular de $ X^n_k $ com respeito a $ \mathcal{F}^n_{k-1} $ e seja $ \Delta^n_k=\mathbb{E}[(X^n_k)^2|\mathcal{F}^n_{k-1}]. $ Assim, temos o seguinte resultado.

Teorema 6.4.1.5:

Se um martingale difference quadrado integrável $ X^n=(X^n_k,\mathcal{F}^n_{k}),0\leq k \leq n, $ $ n\geq 1, $ e $ X^n_{0}=0 $ satisfaz a condição

$$\sum^{k_n}_{k=0}\Delta^n_k\overset{P}{\rightarrow}\sigma^2(t), \quad 0\leq \sigma^2(t)\textless\infty$$

 

para todo $ \varepsilon\textgreater0 $

$$\sum^{k_n}_{k=0}\int_{|x|\textgreater\varepsilon}|x|\left|F^n_k(x)-\Phi\left(\frac{x}{\sqrt{\Delta^n_k }}\right)\right| dx\overset{P}{\rightarrow}0$$

 

Então

$$X^n(t)\overset{\mathcal{D}}{\rightarrow}N(0,\sigma^2(t))$$

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]