2 - Processo Estocástico

Você está aqui

Considere $ (\Omega, \mathcal{F} , \mathbb{F}, \mathbb{P}) $ uma base estocástica, no qual $ (\Omega , \mathcal{F} , P) $ é um espaço de probabilidade e  t \geq 0\} $ uma filtragem.  Neste módulo, vamos introduzir o conceito de processo estocástico e suas principais propriedades.

Definição 2.1: 

Seja $ (E, \mathcal{E}) $ um espaço mensurável. Um processo estocástico definido sobre o espaço de probabilidade $ (\Omega, \mathcal{F},\mathbb{P}) $ com espaço de estados $ (E, \mathcal{E}) $ e conjunto de índices $ T $ é uma transformação T \times \Omega \rightarrow E $ tal que para todo $ t \in T $ a transformação  \Omega \rightarrow E $ é $ \mathcal{F} $-mensurável. Para todo $ \omega \in \Omega $, a transformação T\rightarrow E} $ que carrega $ t $ em $ X(t,\omega) $ é denominada trajetória de $ X $.

Por exemplo, um processo estocástico na reta é uma família de variáveis aleatórias t\geq 0\} $ definidas sobre $ (\Omega, \mathcal{F},\mathbb{P}) $, no qual $ t $ é um parâmetro linear ao longo de um conjunto de índices $ T $. Na maioria dos casos, tomaremos $ T \subset [0,\infty] $, por exemplo, no caso de processos à tempo discreto temos $ T=\mathbb{N} $, no caso de processos à tempo contínuo temos $ T=[0, M] $ no qual $ M\textgreater 0 $. Neste módulo usaremos $ X(t) $ para representar os elementos da família de variáveis aleatórias que compõe o processo estocástico.

Muitas vezes podemos entender $ t $ como sendo o tempo cronológico. Por exemplo, um processo estocástico pode representar uma determinada característica da população que medimos ao longo do tempo. De forma geral, denotaremos $ t \geq 0 $. Nas seções produto de espaços mensuráveis e probabilidade sobre o espaço produto,  estabelecemos uma estratégia para construirmos processos estocásticos com respeito a um conjunto de índices qualquer $ T $.

Um processo estocástico $ X $ com espaço de estados $ E $ é denominado evanescente ou $ \mathbb{P} $-nulo se  \exists t \in T, ~X(t,\omega)\neq 0]=0 $. Um subconjunto $ A $ de $ T \times \Omega $ é denominado evanescente se $ 1\!\!1_{A} $ é um processo evanescente. Dois processos $ X $ e $ Y $ com mesmo espaço de estados e conjunto de índices $ T $ são denominados indistinguíveis ou $ \mathbb{P} $-iguais se o conjunto $ \{X \neq Y\}\subset T\times \Omega $ é evanescente. A seguir, apresentamos algumas definições de mensurabilidade relacionadas com processos estocásticos. 

Seja $ (\Omega, \mathcal{F}, \mathbb{F},\mathbb{P}) $ uma base estocástica e $ X $ um processo estocástico com conjunto de índices $ T $ e espaço de estados $ (E,\mathcal{E}) $.

Definição 2.2:

Um processo $ X $ é adaptado a filtragem $ \mathbb{F} $, se $ X(t) $ é $ \mathcal{F}_t $-mensurável para todo $ t \in T $. Muitas vezes, dizemos que o processo $ X $ é não antecipativo. O processo $ X $ é denominado mensurável se a transformação (T\times \Omega, \beta_T \times \mathcal{F}) \rightarrow (E,\mathcal{E}) $ é mensurável no qual $ \beta_T $ denota a $ \sigma $-álgebra de Borel do conjunto de índices $ T $.  

Na sequência, tomamos como conjunto de índices $ T \subset [0, \infty] $. Um processo estocástico $ X $ é dito progressivamente mensurável, se para todo $ t\in T $ a transformação $ X $ restrita a $ ([0,t] \cap T)\times \Omega $ é $ \beta_{[0,t]} \times \mathcal{F}_t $-mensurável, no qual $ \beta_{[0,t]} $ denota a $ \sigma $-álgebra de Borel dos subconjuntos  de $ [0,t]\cap T $.

Definição 2.3:

A filtragem interna de um processo é definida como sendo 

s\leq t),\quad t\geq 0.$$

Obviamente, que todo processo $ X $ é adaptado e progressivamente mensurável com respeito a sua filtragem interna. 

Um subconjunto $ A $ de $ [0,\infty) \times \Omega $ é denominado adpatado (respectivamente, mensurável, progressivamente mensurável) se a função $ 1\!\!1_{A} $ for um processo  adaptado (respectivamente, mensurável, progressivamente mensurável). Além disso, segue diretamente da definição que os conjuntos adaptados (respectivamente, mensurável, progressivamente mensurável) denotados por $ \mathcal{M}_0 $ (rspectivamente, $ \mathcal{M} $, $ \mathcal{M}_1 $) formam uma $ \sigma $-álgebra. Com isso, obtemos que $ X $ é adaptado (respectivamente, mensurável, progressivamente mensurável) se e só se, este for $ \mathcal{M}_0 $-mensurável (respectivamente, $ \mathcal{M} $-mensurável, $ \mathcal{M}_1 $-mensurável.). Além disso, temos que $ \mathcal{M}_1 \subset \mathcal{M}_0 $.

Suponha que o espaço de estados $ E $ seja um espaço topológico com $ \mathcal{E} $ a $ \sigma $-álgebra de Borel (gerada pelos abertos da topologia).  Um processo estocástico $ X $ é denominado contínuo à direita (cad) se este possui trajetória contínuas à direita. Da forma análoga, o processo $ X $ é contínuo à esquerda (cag) se este possui trajetórias contínuas à esquerda. Também, dizemos que o processo estocástico $ X $ é contínuo se este tem trajetórias contínuas e dizemos $ X $ é cadlag se possui trajetórias contínuas à direita e com limites à esquerda. 

Teorema 2.4 Todo Processo $ X $ adaptado e cad (respectivamente, cag) é progressivamente mensurável.

Prova: Considere o processo estocástico $ X $ em $ [0,s] \times \Omega $. Para todo $ n \geq 1 $, definimos

$$X^n_1(t, \omega)=\sum_{k=0}^{2^n-1} 1\!\!1_{[\frac{ks}{2^n},\frac{(k+1)s}{2^n})} (t) X(\frac{ks}{2^n}) (\omega),$$

e o processo estocástico

$$X^n_2(t, \omega)=1\!\!1_{[0,\frac{s}{2^n}]}X(0, \omega)+ \sum_{k=1}^{2^n-1} 1\!\!1_{(\frac{ks}{2^n},\frac{(k+1)s}{2^n}]} (t) X(\frac{ks}{2^n}) (\omega).$$

Desde que $ X $ é adaptado, os processo estocásticos $ X^n_1 $ e $ X^n_2 $ são $ \beta_{[0,s]}\times \mathcal{F}_s $-mensurável em $ [0,s] \times \Omega $. Se $ X $ é cad (respectivamente, cag) a sequência n \geq 1\} $ (respectivamente, n \geq 1\} $) converge em $ [0,s] \times \Omega $ para $ X $. Portanto, obtemos que $ X $ é progressivamente mensurável. Segue o teorema.

Considere $ (\Omega, \mathcal{F}, \mathbb{F}, \mathbb{P}) $ uma base estocástica. Dizemos que um subconjunto $ O \subset [0, \infty) \times \Omega $ é opcional se este pertence a $ \sigma $-álgebra $ \mathcal{O} $ gerada pelos processos estocásticos cadlag à valores nos reais. Um processo estocástico $ X $ a valores no espaço topológico $ E $ é denominado opcional se este for $ \mathcal{O} $-mensurável. Como consequência do teorema 2.4 temos que $ \mathcal{O} \subset \mathcal{M}_1 $.

A $ \sigma $-álgebra $ \mathcal{P} $ de subconjuntos de $ [0, \infty) \times \Omega $ gerada pelos processos adaptados e contínuos à valores reais é denominada previsível. Um processo estocástico $ X $ a valores no espaço topológico $ E $ é denominado previsível se este for $ \mathcal{P} $-mensurável.

Teorema 2.5: 

(1) A seguinte inclusão é válida: $ \mathcal{P} \subset \mathcal{O} $.
(2) A $ \sigma $-álgebra $ \mathcal{P} $ é gerada pelos processos adaptados e cag e pelas seguintes classes de conjuntos:

 s \leq t,~F \in \mathcal{F}_s \right\} \cup \{{0}\times F, ~F\in \mathcal{F}_0\},$$
 s \leq t,~F \in \mathcal{F}_{s^-} \right\} \cup \{{0}\times F, ~F\in \mathcal{F}_0\},$$

 

 s \leq t,~F \in \mathcal{F}_{s^-} \right\},$$

no qual tomamos $ \mathcal{F}_{0^-}=\mathcal{F}_{0} $.

Prova: Como $ \mathcal{P} $ é a $ \sigma $-álgebra gerada pelos processos contínuos concluímos que facilmente que $ \mathcal{P} \subset \mathcal{O} $. Da mesma forma, temos que $ \mathcal{P} \subset \mathcal{P}^\prime $, no qual $ \mathcal{P}^\prime $ corresponde a $ \sigma $-álgebra gerada pelos processos adaptados e cag. 

Para todo $ R \in \mathcal{R} $, a função indicadora $ 1\!\!1_{R} $ é um processo estocástico cag com limites à direita. Portanto, obtemos que $ \sigma(\mathcal{R}) \subset \mathcal{P}^\prime $. Para mostrarmos a inclusão contrária é suficiente provarmos que todo processo cag adaptado e limitado $ X $ pode ser aproximado na forma

$$\sum_{i \in I} c_i 1\!\!1_{ \{ (s_i , t_i] \times F_i\} },$$

nos quais $ (s_i , t_i] \times F_i \in \mathcal{R} $, e $ c_i \in \mathbb{R} $ e $ I $ é um conjunto enumerável.

Sabemos que para todo $ n \geq 1 $ e $ k \in \mathbb{N} $, $ X(\frac{k}{2^n}) $ é $ \mathcal{F}_{k/2^n} $-mensurável. Na seção sobre esperança de variáveis aleatórias provamos que qualquer variável aleatória pode ser aproximada por funções simples. Assim, podemos escolher $ c^i_{n,k} \in \mathbb{R} $ e $ F^i_{n,k} \in \mathcal{F}_{k/2^n} $ tal que

$$\sup_{\omega \in \Omega} \left| X\left(\frac{k}{2^n}, \omega \right) - \sum_{i \in I} c^i_{n,k} 1\!\!1_{ \{ F^i_{n,k}\} } \right| \leq \frac{1}{2^n}.$$

Portanto, a sequência de processos estocásticos  n \geq 1\} $ definidos por

$$X^n (t , \omega) = X(0)1\!\!1_{ \{0\}}+ \sum_{k=0}^\infty \sum_{i=1}^\infty c^i_{n,k} 1\!\!1_{ \{(\frac{k}{2^n}, \frac{k+1}{2^n}] \times F^i_{n,k}\} }(t, \omega)$$

converge de forma pontual para $ X $ sobre $ [0, \infty )\times \Omega $. Com isso, obtemos que $ \mathcal{P}^\prime \subset \sigma(\mathcal{R}) $ e $ \mathcal{P} \subset \sigma(\mathcal{R}) $.

Para provarmos a igualdade entre $ \mathcal{P} $, $ \sigma(\mathcal{R}) $ e $ \mathcal{P}^\prime $ é suficiente mostrarmos $ \sigma(\mathcal{R}) \subset \mathcal{P} $. Para isto, tomamos $ (s,t] \times F \in \mathcal{R} $. Então, existe uma sequência $ \{\varphi_n\} $ de funções contínuas a valores positivos tal que

$$1\!\!1_{ \{ (s,t]\}} = \lim_n \varphi_n, \quad \mbox{e} \quad \varphi_n(u)=0,$$

para todo $ u \in (0,s] $. Os processos estocásticos $ 1\!\!1_{ \{F\}} \varphi_n $ com $ n\geq 1 $, são adaptados e contínuos. Desde que,

$$1\!\!1_{ \{ (s,t] \times F\}} = \lim_n 1\!\!1_{ \{ F\}} \varphi_n ,$$

concluímos que o processo $ 1\!\!1_{ \{ (s,t] \times F\}} $ é $ \mathcal{P} $-mensurável e portanto, obtemos que $ \sigma(\mathcal{R}) \subset \mathcal{P} $.

Na sequência, vamos mostrar que $ \sigma(\mathcal{R})=\sigma(\mathcal{R}_1)=\sigma(\mathcal{R}_2) $. Por construção, sabemos que $ \mathcal{R}_1 $ gera a mesma $ \sigma $-álgebra que a seguinte classe de conjuntos

 s \leq t, F \in \cap_{r \textless s} \mathcal{F}_r \right\} \cup \{\{0\} \times F, F \in \mathcal{F}_0\}.$$

Da mesma forma, temos que a $ \mathcal{R}_2 $ gera a mesma $ \sigma $-álgebra que a seguinte classe de conjuntos

 s \leq t, F \in \cap_{r \textless s} \mathcal{F}_r \right\} \cup \{\{0\} \times F, F \in \mathcal{F}_0\}.$$

Desde que

$$1\!\!1_{ \{ (s,t] \times F\}} = \lim_n 1\!\!1_{ \{ [s+\frac{1}{n},t+ \frac{1}{n}) \times F\}},$$

a inclusão $ \sigma(\mathcal{R}_1) \subset \sigma(\mathcal{R}_2) $ é imediata. Por outro lado, temos que

$$1\!\!1_{ \{ [s,t) \times F\}} = \lim_n 1\!\!1_{ \{ (s-\frac{1}{n},t- \frac{1}{n}] \times F\}}.$$

Como consequência, obtemos que

$$\sigma(\mathcal{R}_1) \subset \sigma(\mathcal{R}_2)=\sigma(\mathcal{R}_2^\prime)\subset \sigma(\mathcal{R}_1^\prime)=\sigma(\mathcal{R}_1).$$

Obtemos diretamente da definição $ \sigma(\mathcal{R}_1) \subset \sigma(\mathcal{R}) $. Por outro lado, sabemos que

$$1\!\!1_{ \{ (s,t] \times F\}} = \lim_n 1\!\!1_{ \{ [s+\frac{1}{n},t+ \frac{1}{n}) \times F\}},$$

o que nos leva a concluir que $ \sigma(\mathcal{R}) \subset \sigma(\mathcal{R}_1) $. Assim, provamos o teorema.

Este resultado nos revela propriedades básicas da $ \sigma $ álgebra previsível.  O conjunto de retângulos previsíveis $ \mathcal{R} $ é uma semiálgebra . Portanto, a álgebra gerada por $ \mathcal{R} $ é formada por união finita disjunta de elementos de $ \mathcal{R} $. Além disso, segue do teorema 2.5 que a $ \sigma $-álgebra previsível é a mesma para as filtragens $ \{\mathcal{F}_t\} $, $ \{\mathcal{F}_{t^-}\} $ e $ \{\mathcal{F}_{t^+}\} $.

Considere $ S $ e $ T $ dois tempos de parada com respeito a base estocástica $ (\Omega, \mathcal{F},\mathbb{F}, \mathbb{P}) $ com $ S \leq T $. Os intervalos estocásticos são definidos por

S(\omega)\textless t\leq T(\omega),t\geq 0, \omega \in \Omega\},$$
S(\omega) \leq t\leq T(\omega),t\geq 0, \omega \in \Omega\},$$
S(\omega) \leq t\textless T(\omega),t\geq 0, \omega \in \Omega\}$$

S(\omega) \textless t\textless T(\omega),t\geq 0, \omega \in \Omega\}.$$

Também denotamos por:

 t=T(\omega)\textless \infty , t \geq 0, \omega \in \Omega\},$$

o gráfico do tempo de parada $ T $

Lema 2.6:

Uma função \Omega \rightarrow [0, \infty] $ é um tempo de parada com respeito da filtragem $ \mathbb{F}= \{\mathcal{F}_t\} $ se, e só se, o processo $ 1\!\!1_{\{[0,T)\}} $ for opcional.

Prova: Desde que o processo  $ 1\!\!1_{\{[0,T)\}} $ é contínuo à direita (cad), concluímos que este é opcional se, e só se, ele for $ \mathbb{F} $-adaptado. Por definição, o processo $ 1\!\!1_{\{[0,T)\}} $ é $ \mathbb{F} $-adaptado se, e só se, $ T $ é um tempo de parada. Segue o lema.

Lema 2.7: 

Todo tempo de parada com respeito a filtragem $ \{\mathcal{F}_t\} $ também é um tempo de parada com respeito a filtragem $ \{\mathcal{F}_{t^+}\} $. Além disso, $ T $ é um tempo de parada com respeito a filtragem $ \{\mathcal{F}_{t^+}\} $ se, e só se, o processo $ 1\!\!1_{\{[0,T]\}} $ é previsível.

Prova: A primeira parte do Lema é consequência da inclusão $ \mathcal{F}_t \subset \mathcal{F}_{t^+} $. Por definição, as seguinte propriedades são equivalentes:

(a) $ \{T \leq t\} = \cap_{n} \{ T \textless t + \frac{1}{n}\} \in \mathcal{F}_{t^+} $ para todo $ t \geq 0 $;

(b) $ \{T \textless t\} \in \mathcal{F}_{t} $ para todo $ t \geq 0 $.

A propriedade (b) é equivalente ao processo $ 1\!\!1_{\{[0,T]\}} $ ser adaptado, na realidade

$$\left\{ 1\!\!1_{\{[0,T]\}} (t) =1\right\} = \{ T \geq t\} \in \mathcal{F}_t, \quad t \geq 0.$$

Desde que $ 1\!\!1_{\{[0,T]\}} $ é cag, concluímos que ele é previsível. Segue o lema.

Seja $ T $ um tempo de parada com respeito a filtragem $ \{\mathcal{F}_{t^+}\} $, então segue do lema 2.7 que o processo $ 1\!\!1_{\{[0,T]\}} $ é previsível, ou equivalentemente, que $ \{T \textless t\} \in \mathcal{F}_{t} $ para todo $ t \geq 0 $.

Lema 2.8:

Seja $ X $ um processo estocástico progressivamente mensurável com valores no espaço topológico $ E $ equipado com a $ \sigma $-álgebra de Borel $ \mathcal{E} $. Então para todo tempo de parada $ T $, a função $ X(T) 1\!\!1_{ \{ T \textless \infty\}} $ é $ \mathcal{F}_T $-mensurável.

Prova: Por propriedade de tempos de parada, sabemos que para todo $ t \geq 0 $, a variável aleatória $ T \wedge t $ é $ \mathcal{F}_t $-mensurável. Desta forma, a composição $ X(T \wedge t) $ também é $ \mathcal{F}_t $-mensurável. Seja $ A \in \mathcal{E} $, para cada $ t \geq 0 $, temos que

$$\{X(T) 1\!\!1_{ \{ T \textless \infty\}} \in A\} \cap \{T \leq t\} = \{X(T \wedge t) \in A\} \cap \{T \leq t\} \in \mathcal{F}_t.$$

Desde que $ X(T) 1\!\!1_{ \{ T \textless \infty\}} = \lim _n X(T \wedge n) 1\!\!1_{ \{ T \textless n\}} $, concluímos que $ X(T) 1\!\!1_{ \{ T \textless \infty\}} $ é $ \mathcal{F}_{\infty} $-mensurável. Como consequência da definição da $ \sigma $-álgebra $ \mathcal{F}_T $, obtemos que $ \{X(T) 1\!\!1_{ \{ T \textless \infty\}} \in A \} \in \mathcal{F}_T $ e, portanto, segue o resultado.

Com os resultados acima, concluímos que qualquer processo opcional ou previsível também é adaptado. Se $ X $ é um processo estocástico cadlag e adaptado, então o limite à esquerda  t \geq 0\} $ é previsível. O limite a esquerda é definido por $ X(t^-) = \lim_n X(t-1/n) $.

Teorema 2.9:

Sejam $ S $ e $ T $ dois tempos de parada com $ S \leq T $. Então, os intervalos estocásticos $ [S,T] $, $ [S,T) $, $ (S,T) $, $ (S,T] $ e os gráficos de $ S $ e $ T $ são conjuntos opcionais. Além disso, se $ \xi $ é uma variável aleatória $ \mathcal{F}_S $-mensurável, então o processo estocástico $ X=\xi 1\!\!1_{ \{[S,T)\}} $ é opcional. Da mesma forma, temos que o conjunto $ (S,T] $ é previsível e o processo estocástico $ X=\xi 1\!\!1_{ \{(S,T]\}} $ também é previsível com $ \xi $ uma variável aleatória $ \mathcal{F}_{S^+} $-mensurável.

Prova: Por construção, temos que $ 1\!\!1_{ \{[S,T)\}} $ é cadlag e adaptado. Assim, concluímos que $ [S,T) $ é opcional. Tomamos $ T_n = S + \frac{1}{n} $. Com isso, obtemos que $ [S]= \cap_n [S,T_n] $ também é opcional. Da mesma forma, temos que o gráfico de $ T $ também é opcional. Portanto, os intervalos estocásticos $ [S,T] $$ (S,T) $$ (S,T] $ também são opcionais. Por construção, temos que $ X(t)=\xi 1\!\!1_{ \{S \leq t\}} 1\!\!1_{ \{t \textless T\}} $  é $ \mathcal{F}_t $-mensurável. Como consequência, temos que $ X=\xi 1\!\!1_{ \{[S,T)\}} $ é adaptado e cadlag. Portanto, temos que $ X $ é opcional. 

Desde que $ 1\!\!1_{ \{(S,T]\}} $ é cag e adaptado, concluímos que o intervalo estocástico $ (S,T] $ é previsível. Por definição, para todo $ t \textgreater 0 $, a variável aleatória $ X(t)=\xi 1\!\!1_{ \{S \textless t\}} 1\!\!1_{ \{t \leq T\}} $  é $ \mathcal{F}_{t^-} $-mensurável, com $ X(0)=0 $. Como consequência, o processo estocástico $ X=\xi 1\!\!1_{ \{(S,T]\}} $ é cag e adaptado e, segue o teorema.

No teorema 2.5 apresentamos diversas classes de conjuntos que geram a $ \sigma $-previsível. A seguir, apresentamos propriedades similares para a $ \sigma $-álgebra opcional. 

Teorema 2.10: 

Ao denotarmos por $ \mathcal{T} $ a classe de todos os tempos de parada, obtemos que

 S \in \mathcal{T}\}.$$

Prova: Denotamos por  S \in \mathcal{T}\} $. Desde que $ \mathcal{C} \subset \mathcal{O} $, concluímos que $ \sigma (\mathcal{C}) \subset \mathcal{O} $. Na sequência, vamos mostrar que $  \mathcal{O} \subset \sigma (\mathcal{C}) $.

Seja $ X $ um processo cadlag e adaptado. Vamos mostrar que $ X $ é $ \sigma(\mathcal{C}) $-mensurável. Para todo $ \epsilon \textgreater 0 $, tomamos $ T^\epsilon_0=0 $. Por indução, definimos uma sequência  n \geq 1\} $ satisfazendo 

 \mid X(T^\epsilon_n (\omega), \omega) - X(t , \omega) \mid \geq \epsilon ~ ~ \text{ou} ~ ~ \mid X(T^\epsilon_n (\omega), \omega) - X(t^- , \omega) \mid \geq \epsilon \}.$$

Vamos mostrar por indução que $ T^\epsilon_n $ são tempos de parada para todo $ n \geq 1 $.  Como o conjunto

 \mid X(T^\epsilon_n (\omega), \omega) - X(t , \omega) \mid \geq \epsilon ~ ~ \text{ou} ~ ~ \mid X(T^\epsilon_n (\omega), \omega) - X(t^- , \omega) \mid \geq \epsilon \}$$

é fechado por limite à direita, para todo $ r \in [0, \infty) $ temos que 

$$\{T^\epsilon_{n+1}=r\}=\{T^\epsilon_{n} \textless r\}\cap \left(\{ \mid X(T^\epsilon_n ) - X(r ) \mid \geq \epsilon\} \cup (\{ \mid X(T^\epsilon_n ) - X(r^-) \mid \geq \epsilon\}\right) \subset \{T^\epsilon_{n+1} \leq r\}.$$

Além disso, temos que

$$\cup_{r \leq t} \{T^\epsilon_{n+1}=r\}=\cup_{r \leq t} \{T^\epsilon_{n+1} \leq r\}=\{T^\epsilon_{n+1} \leq t \}.$$

Somando os dois resultados acima, obtemos que 

$$\{T^\epsilon_{n+1} \leq t \}= \cup_{r \leq t} \left( \{T^\epsilon_{n} \textless r\} \cap \{ \mid X(T^\epsilon_n ) - X(r ) \mid \geq \epsilon\} \cup \{ \mid X(T^\epsilon_n ) - X(r^-) \mid \geq \epsilon\}\right)=$$

 

$$\cap_{m=1}^\infty \cup_{r \in \mathbb{Q}_t} \left( \{T^\epsilon_{n} \textless r\} \cap \left\{ \mid X(T^\epsilon_n ) - X(r ) \mid \geq \epsilon \left(1-\frac{1}{m} \right) \right\} \right),$$

no qual $ \mathbb{Q}_t = \left( \mathbb{Q} \cap [0,t] \right) \cup \{t\} $.  Por indução assumimos que $ T^\epsilon_n $ é um tempo de parada. Como consequência da igualdade acima, concluímos que $ \{T^\epsilon_{n+1} \leq t \} \in \mathcal{F}_t $ e portanto, temos que $ T^\epsilon_{n+1} $ também é um tempo de parada.

Por construção, sabemos que  n \geq 1\} $ é crescente. Quando $ T^\epsilon_{n+1} \textless \infty $, temos que $ T^\epsilon_{n+1} \textgreater T^\epsilon_{n} $ e $ \left\{ \mid X(T^\epsilon_{n+1} ) - X(T^\epsilon_n) \mid \geq \epsilon \right\} $ ou $ \left\{ \mid X(T^{\epsilon, -}_{n+1} ) - X(T^\epsilon_n) \mid \geq \epsilon \right\} $. Desde que $ X $ tem limite à esquerda em $ (0, \infty) $, obtemos que a sequência  n \geq 1\} $ não tem ponto de acumulação. Como consequência, temos que $ T^\epsilon_{n} \uparrow \infty $. Tomamos, 

$$X^\epsilon (t) = \sum_{n=0}^\infty X(T^\epsilon_{n}) 1\!\!1_{ \{ T^\epsilon_{n} \leq t \textless T^\epsilon_{n+1}\}}.$$

Para todo $ t \in [T^\epsilon_{n} (\omega) , T^\epsilon_{n+1} (\omega)) $, sabemos que $ \mid X(T^\epsilon_{n} ) - X(t) \mid \textless \epsilon $.  Portanto, para todo $ (t, \omega) \in [0, \infty) \times \Omega $, temos que $ \mid X^\epsilon(t, \omega ) - X(t, \omega) \mid \textless \epsilon $. Como consequência, temos que

$$\lim_{ \epsilon \downarrow 0} X^\epsilon (t, \omega) = X(t, \omega).$$

Podemos mostrar que $ X(T^\epsilon_{n}) 1\!\!1_{ \{ T^\epsilon_{n} \leq t \textless T^\epsilon_{n+1}\}} $ é $ \sigma(\mathcal{C}) $-mensurável, basta aproximarmos $ X(T^\epsilon_{n}) $ por função simples. Portanto, para todo $ \epsilon \textgreater 0 $, obtemos que $ X^\epsilon $ é $ \sigma(\mathcal{C}) $-mensurável e segue o resultado.

A seguir, estabelecemos uma construção da $ \sigma $-álgebraprevisível por intervalos estocástico.

Teorema 2.11:  

Considere $ (\Omega, \mathcal{F}, \mathbb{F}, \mathbb{P}) $ uma base estocástica. Ao denotarmos por $ \mathcal{T} $ a classe de todos os tempos de parada, obtemos que 

 S \in \mathcal{T}\} = \sigma\{]S,T] ~ ~ \text{e} ~ ~ \{0\} \times F, ~ F \in \mathcal{F}_0\}.$$

Prova: Denotamos por  S \in \mathcal{T}\} $  a $ \sigma $-álgebra gerada pelos intervalos estocásticos. Como consequência do Lema 2.7 concluímos que $ 1\!\!1_{[0,S]} $ é um processo previsível. Portanto, temos que $ \mathcal{P}^\prime \subset \mathcal{P} $.

Por outro lado, temos que $ A \times (s,t] = (s_A , t_A] $ nos quais $ s_A = s 1\!\!1_{A} + \infty 1\!\!1_{A^c} $ e $ t_A $ definido de forma análoga são tempos de parada. Desde que o intervalo estocástico $ (s_A , t_A] = [0,t_A] - [0, s_A] \in \mathcal{P}^\prime $, obtemos do Teorema 2.5 que $ \mathcal{P} \subset \mathcal{P}^\prime $.

Denotamos por $ \mathcal{P}^{\prime \prime} = \sigma \{]S,T] ~ ~ \text{e} ~ ~ \{0\} \times F, ~ F \in \mathcal{F}_0\}. $ Como consequência teorema 2.9, obtemos que $ ]S,T] $ é previsível e como consequência do teorema 2.5 o conjunto aleatório $ \{0\} \times F $ também é previsível. Assim, concluímos que $ \mathcal{P}^{\prime \prime} \subset \mathcal{P}. $ Por outro lado, para todo $ F \in \mathcal{F}_s $ e $ s \leq t $, a variável aleatória $ S=s1\!\!1_{ \{ F \}} + \infty 1\!\!1_{ \{ F^c \}} $ é um tempo de parada. Por construção, temos que

$$1\!\!1_{ \{ (s,t] \times F \}} = 1\!\!1_{ \{ ]S,t]\}}.$$

 Segue o teorema.

Com este resultado podemos mostrar que o gráfico $ [T] $ de um tempo de parada $ T $ é opcional.

Corolário 2.12: Seja $ T $ um tempo de parada com respeito a filtragem $ \{\mathcal{F}_{t}\} $. Então, o gráfico $ [T] $ é um subconjunto opcional de $ [0, \infty) \times \Omega $.

Prova: Facilmente pode checar que a variável aleatória 

$$T_n = \sum_{k=0}^\infty \frac{k+1}{2^n} 1\!\!1_{ \{ [\frac{k}{2^n} \leq T \textgreater \frac{k+1}{2^n}] \}}$$

é um tempo de parada para cada $ n \geq 1 $. Desde que,

$$[T] = \cap_{n} [T , T_n[ = \cap_n \left( [0,T_n[ - [0,T[ \right) $$

a opcionalidade do gráfico de $ T $ segue do lema 2.6.

Dado $ X $ um processo estocástico cadlag, denotamos por $ X^- $ a versão contínua à esquerda de $ X $ definida por $ X^-(t) = \lim_{n \rightarrow \infty} X \left(t-\frac{1}{n} \right)= X(t^-) $. O salto de $ X $ é dado por $ \Delta X(t) = X(t) - X^-(t) $. Então, o processo $ X^{-} $ é previsível. Além disso, se $ X $ for previsível, então $ \Delta X $ também é previsível.

Definição 2.12:

Um conjunto estocástico $ B $ é denominado magro se,

$$B = \bigcup_{n=1}^\infty [T_n],$$

no qual  n \geq 1\} $ é uma sequência de tempos de parada.

Lema 2.13: 

Se o conjunto estocástico $ B $ é progressivamente mensurável $ (B \in \mathcal{M}_1) $ e $ B $ está contido em um conjunto magro, então $ B $ também é um conjunto magro.

Prova: Seja $ B \subset \cup_{n} [T_n] $ com  n \geq 1\} $ é uma sequência de tempos de parada. Tomamos, 

 (\omega , T_n(\omega)) \in B \}.$$

Por construção, obtemos que $ 1\!\!1_{ \{ I_n\} } = 1\!\!1_{ \{ B\} } (T_n). $ Como consequência do lema 2.8, concluímos que $ I_n \in \mathcal{F}_{T_n}. $ Desta forma, temos que

$$(T_n)_{I_n} = T_n 1\!\!1_{ \{ I_n\} } + \infty 1\!\!1_{ \{ I_n^c\} }$$

é um tempo de parada. Por construção, temos

$$B = \bigcup_{n=1}^\infty \left[ (T_n)_{I_n} \right].$$

Segue o resultado.

Teorema 2.12:

Considere $ (\Omega, \mathcal{F}, \mathbb{F}, \mathbb{P}) $ uma base estocástica com filtragem contínua à direita. Seja $ X $  um processo previsível e $ T $ um tempo de parada:

a) a variável aleatória $ X(T) 1\!\!1_{ \{T \textless \infty \} } $ é $ \mathcal{F}_{T^-} $-mensurável;

b) o processo parado  t\geq 0\} $ também é previsível.

Prova: 

Construção de Processo Estocástico

Dados $ (\Omega ,\mathcal{F},\mathbb{P}) $ um espaço de probabilidade, $ T $ um conjunto de índices qualquer e   \Om \rightarrow \Bbb{R} $ uma variável aleatória para todo $ t \in T $. Sejam $ t_1 , \cdots, t_n $ elementos de $ T $ e $ x_1, \cdots , x_n $ elementos em $ \Bbb{R} $ ou $ + \infty, - \infty $. Definimos a função de distribuição $ n $-dimensional de $ (X_{t_1}, \cdots,X_{t_n}) $, por

X_{t_1}(\omega) \leq x_i \right\} \right].$$

Quando $ n \in \mathbb{N} $ e os pontos $ t_i $'s em $ T $ variam, obtemos uma família de distribuições $ n $-dimensionais t_i \in T , n \in \mathbb{N} \} $.

Definição 2.6

Desde que  X_t (\omega)\textless\infty \}=\Omega $ para todo $ t \in T $, temos

$$F_{t_1, \cdots, t_n} (x_1, \cdots, x_{n-1}, \infty) ~ = ~ F_{t_1, \cdots,t_{n-1}} (x_1, \cdots,x_{n-1})$$

e

$$F_{t_{i_1},\cdots,t_{i_n}} (x_{i_1},\cdots,x_{i_n})=F_{t_1,\cdots,t_n} (x_1,\cdots,x_n),$$

no qual $ (i_1,\cdots,i_n) $ é qualquer permutação de $ (1,\cdots,n) $. Estas relações são denominadas condições de compatibilidade de Kolmogorov da família t_i \in T,n \in \mathbb{N} \} $.

Portanto, qualquer família de variáveis aleatórias t \in T\} $ sobre um espaço de probabilidade determina uma classe compatível de funções de distribuição finito dimensionais. Entretanto, existe um problema básico que é a existência do espaço de probabilidade $ (\Omega, \mathcal{F},\mathbb{P}) $ suportando a família de variáveis aleatórias. Um resultado fundamental de Kolmogorov nos diz que uma família compatível de distribuições finito dimensionais nos produz um espaço de probabilidade e uma coleção de variáveis aleatórias sobre este tal que suas distribuições finito dimensionais são iguais a classe compatível de distribuições. Entretanto, extensões do teorema de Kolmogorov para espaços mais gerais do que a reta $ (X_{t}(\omega)\in \mathbb{R}) $ não necessariamente são válido [Halmos (1950), pg. 150, ex. 3]. Na seção produto de espaços mensuráveis, vamos construir uma $ \sigma $-álgebra no espaço produto. Com isso, na seção probabilidade sobre o espaço produto, construímos uma probabilidade sobre o espaço produto que suporta a coleção de variáveis aleatórias t\geq 0\} $.
 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]