10.4 - Fórmula de Itô

Você está aqui

A regra básica para a diferenciação é a regra da cadeia. Se $ f $ e $ g $ são funções diferenciáveis, então $ f(g(t)) $ também é diferenciável e sua derivada é dada por

$$\frac{d}{dt}f(g(t))=\frac{d}{dt}f(g(t))\frac{d}{dt}g(t)$$

 

Em termos do teorema fundamental do cálculo, temos que

$$f(g(t))-f(g(a))=\int_a^t\frac{d}{ds}f(g(s))\frac{d}{ds}g(s)ds$$

No cálculo de Itô, estamos interessados em encontrar alguma relação parecida para processos estocásticos. Seja $ B(t) $ o movimento browniano e $ f $ uma função diferenciável. Considere a função composta $ f(B(t)) $. Como $ B(t) $ não é diferenciável, a igualdade

$$\frac{d}{dt}f(B(t))=\frac{d}{dt}f(B(t))\frac{d}{dt}B(t)$$

não faz sentido. Contudo quando trocamos $ \frac{d}{dt}B(t) $ por $ dB(t) $ na integral de Itô, surge a seguinte questão:

A igualdade

$$f(B(t))-f(B(a))=\int_a^t\frac{d}{dt}f(B(s))dB(s)$$

é válida para qualquer função diferenciável?  

Se considerarmos a função $ f(x)=x^2 $, a igualdade anterior nos fornece que a integral estocástica é igual a:

$$B(t)^2-B(a)^2=2\int_a^tB(s)dB(s)$$

Mas como já visto na seção de integral estocástica, o verdadeiro valor para tal integral é:

$$B(t)^2-B(a)^2-(t-a)=2\int_a^tB(s)sB(s)$$

Portanto, a resposta para tal questão é negativa. Mas, existe uma fórmula para a função composta $ f(B(t)) $ que serve como regra da cadeia na forma integral para o cálculo de Itô? Sim, existe! E este resultado é conhecido como fórmula de Itô.

Considere uma partição $ \Delta_n=\{t_0,t_1,\dots,t_n\} $ do intervalo $ [a,t] $. Então,

$$f(B(t))-f(B(a))=\sum^{n}_{i=1}(f(B(t_i))-f(B(t_{i-1})))$$

 

Vamos supor que $ f $ é uma função de classe $ C^2 $. A expansão de Taylor para a função $ f $ é dada por:

$$f(x)-f(x_0)=f^{\prime}(x_0)(x-x_0)+\frac{1}{2}f^{\prime\prime}(x_0+\lambda(x-x_0))(x-x_0)^2$$

para $ 0\textless\lambda\leq 1 $. Portanto,

$$f(B(t))-f(B(a))=\sum_{i=1}^nf^{\prime}(B(t_{i-1}))(B(t_{i})-B(t_{i-1}))$$

$$\quad{}+\frac{1}{2}\sum_{i=1}^nf^{\prime\prime}(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])(B(t_{i})-B(t_{i-1}))^2$$

com, $ 0\textless \lambda_i \textless 1 $.

Para a primeira somatória, temos que

$$\lim_{||\Delta_n || \to 0}\sum_{i=1}^n f^{\prime}(B(t_{i-1}))(B(t_{i})-B(t_{i-1})) = \int_a^tf^{\prime}(B(s))dB(s)$$

Já para a segunda somatória, vamos mostrar que

$$\sum_{i=1}^nf^{\prime\prime}(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])(B(t_{i})-B(t_{i-1}))^2 \rightarrow \int_a^t f^{\prime\prime}(B(s))ds$$

 

quando $ ||\Delta_n|| \rightarrow 0 $.

Teorema 10.4.1:(Fórmula de Itô)

Seja $ f $ uma função de classe $ C^2 $. Então   

$$f(B(t))-f(B(a))=\int_a^tf^{\prime}(B(s))dB(s)+\frac{1}{2}\int_a^t f^{\prime\prime}(B(s))ds$$

 

Para demonstrarmos o teorema, primeiro vamos enunciar e provar dois lemas. 

Lema 10.4.1:

Seja $ g(x) $ uma função contínua sobre $ \mathbb{R} $. Para cada $ n\geq 1 $, seja $ \Delta_n=\{t_0,t_1,\dots,t_n\} $partição de $ [a,t] $ e $ 0\textless\lambda_i\textless 1 $ para $ 1\leq i\leq n $. Então existe uma subsequência de 

$$\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2\rightarrow 0$$

quase certamente, quando $ ||\Delta_n|| \rightarrow 0 $.

Prova:

Seja

$$X_n =\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2$$

.

Defina a variável aleatória 

$$\xi_n=\max_{1\leq i\leq n, 0\textless \lambda\textless1}|g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))|$$

 

Vale que

$$|X_n|=|\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2|$$

$$\leq \sum_{i=1}^n|(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))|(B(t_{i})-B(t_{i-1}))^2$$

$$\leq \sum_{i=1}^n \xi_n(B(t_{i})-B(t_{i-1}))^2$$

Pela continuidade de $ g(x) $ e do movimento browniano, $ \xi_n $ converge para $ 0 $ quase certamente. Como $ \sum_{i=1}^n(B(t_{i})-B(t_{i-1}))^2 \rightarrow t-a $ em $ L^2(\Omega) $, então existe uma subsequência que converge para 0 quase certamente. Segue então que $ \{X_n\} $ tem uma subsequência que converge para 0 quase certamente.

Lema 10.4.2: 

Seja $ g(x) $ função contínua sobre $ \mathbb{R} $. Para cada $ n\geq 1 $, seja $ \Delta_n=\{t_0,t_1,\dots,t_n\} $ uma partição de $ [a,t] $. Então a sequência

$$S_n=\sum_{i=1}^ng(B(t_{i-1}))((B(t_i)-B(t_{i-1}))^2-(t_i-t_{i-1}))$$

converge para 0, quando $ ||\Delta_n|| \rightarrow 0 $.

Para cada $ L\textgreater 0 $, defina os eventos

$$A_{i-1}^{(L)}\equiv \{|B(t_j)|\leq L \ \text{para todo} \ j\leq i-1\}.$$

Defina também

$$S_{n,L}=\sum_{i=1}^ng(B(t_{i-1}))1\!\!1_{A_{i-1}^{(L)}}((B(t_i)-B(t_{i-1}))^2-(t_i-t_{i-1}))$$

$$=\sum_{i=1}^ng(B(t_{i-1}))1\!\!1_{A_{i-1}^{(L)}}X_i$$

$$=\sum_{i=1}^nY_i$$

Considere  s\leq t \} $. Então, para $ i\neq j $, digamos $ i\textless j $, podemos calcular a esperança condicional

$$\mathbb{E}[Y_iY_j]=\mathbb{E}[\mathbb{E}[Y_i,Y_j|\mathcal{F}_{t_{j-1}}]]$$

$$=\mathbb{E}[Y_i g(B(t_{j-1}))1\!\!1_{A_{i-1}^{(L)}}\mathbb{E}[X_j|\mathcal{F}_{t_{j-1}}]]$$

$$=0$$

Por outro lado, da definição de $ A_{i-1}^{(L)} $, segue que

$$Y_i^2\leq \max_{|x|\leq L}(|g(x)|^2)X_i^2$$

Então

$$\mathbb{E}(Y_i^2)\leq 2(t_i-t_{i-1})^2\max_{|x|\leq L}(|g(x)|^2)$$

de onde segue que 

$$\mathbb{E}[S^2_{n,L}]= \sum_{i=1}^n\mathbb{E}[Y_i^2]$$

$$\leq 2\max_{|x|\leq L}(|g(x)|^2)\sum_{i=1}^n(t_i-t_{i-1})^2$$

$$\leq 2\max_{|x|\leq L}(|g(x)|^2)(t-a)\sum_{i=1}^n(t_i-t_{i-1})\rightarrow 0$$

 
quando $ ||\Delta_n||\rightarrow 0 $.

Assim, para qualquer $ L $ fixado maior que zero, a sequência $ S_{n,L} $ converge para $ 0 $ em $ L^2(\Omega) $ e portanto em probabilidade quando $ ||\Delta_n||\rightarrow 0 $.

Da maneira como definimos o conjunto $ A^L_{n-1} $, temos que 

$$A^L_{n-1}\subset \{S_n = S_{n,L}\}$$

que implica que

$$\{S_n\neq S_{n,L}\}\subset (A_{n-1}^{(L)})^c\subset \{\max_{a\leq s\leq t}|B(s)|\textgreater L\}$$

e portanto, segue a desigualdade

$$\mathbb{P}\{S_n\neq S_{n,L}\}\leq \mathbb{P}\{\max_{a\leq s\leq t}|B(s)|\textgreater L\}.$$

Da desigualdade de submartingale 

$$\leq 2\max_{|x|\leq L}(|g(x)|^2)\sum_{i=1}^n(t_i-t_{i-1}) \leq \frac{1}{L}\mathbb{E}[|B(t)|]=\frac{1}{L}\sqrt{\frac{2t}{\pi}}$$

 

então

$$\mathbb{P}\{S_n\neq S_{n,L}\}\leq\frac{1}{L}\sqrt{\frac{2t}{\pi}}.$$

Como

$$\{|S_n|\textgreater \varepsilon\}\subset\{|S_{n,L}|\textgreater\varepsilon\}\cup\{S_n\neq S_{n,L}\}$$

vale que

$$\mathbb{P}\{|S_n|\textgreater \varepsilon\}\leq\mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}+\mathbb{P}\{S_n\neq S_{n,L}\}$$

 

$$\leq\mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}+\frac{1}{L}\sqrt{\frac{2t}{\pi}}$$

Escolha L suficientemente grande, de forma que $ \frac{1}{L}\sqrt{\frac{2t}{\pi}}\leq \frac{\varepsilon}{2} $. Já provamos que para qualque $ L\textgreater 0 $, $ S_{n,L} $ converge para $ 0 $, quando $ ||\Delta_n||\rightarrow 0 $. Então, existe $ n_0\geq 1 $, tal que para $ \mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}\textless \frac{\varepsilon}{2} $ para todo $ n\geq n_0 $. Provando que $ S_n $ converge para $ 0 $ em probabilidade quando $ ||\Delta_n||\rightarrow 0 $.  

Na sequência, apresentamos alguns exemplos simples de aplicação da fórmula de Itô.

Exemplos:

1) Considere $ f(x) = x^2 $, então temos que 

$$B^2(t) = f(B(t))=\int_{0}^t 2B(s)dB(s) + \frac{1}{2}t.$$

 Assim, concluímos que

$$\int_{0}^t B(s) dB(s) = \frac{B^2(t) - t}{2}.$$

2) Vamos calcular $ \mathbb{E}[B^4(t)]. $. Através da fórmula de Itô obtemos que

$$\int_{0}^t 4B^3(s)dB(s) + \frac{1}{2} \int_{0}^t12B^2(s)ds.$$

Com isso, concluímos que

$$\mathbb{E}[B^4(t)]=6\int_{0}^t \mathbb{E}[B^2(s)]ds=6\int_{0}^tsds=3t^2.$$

3) Ao tomarmos $ f(x)=\exp^{\sigma x} $, obtemos que $ f $ é diferenciável com $ f^\prime(x)=\sigma \exp^{\sigma x} $ e $ f^{\prime \prime}(x)=\sigma^2 \exp^{\sigma x} $. Como aplicação da fórmula de Itô, temos que

$$X(t)=\exp^{\sigma B(t)}=1+\int_{0}^t \sigma X(s) dB(s) + \frac{1}{2} \int_{0}^t \sigma^2 X(s) ds. $$

Na sequência, vamos calcular o valor esperado de $ X(t) $. Facilmente, obtemos que

$$\mathbb{E}[X(t)]=1+\frac{\sigma^2}{2}\int_{0}^t\mathbb{E}(X(s))ds.$$

Ao denotarmos $ y(t)=\mathbb{E}(X(t)) $, obtemos que

$$y(t)=1+\frac{\sigma^2}{2}\int_{0}^ty(s)ds \quad \text{ou} \quad dy(t)=\frac{\sigma^2}{2}y(t)dt$$

com condição inicial $ y(0)=1 $. Trivialmente, obtemos como solução $ \mathbb{E}[X(t)]=y(t)=\exp^{\frac{\sigma^2}{2}t} $.

 

Vamos estender a fórmula de Itô para funções que dependem da variável espacial e da variável temporal. Ou seja, como seria a formula de Itô para o caso em que temos $ f(t,x) $ uma função de $ t $ (variável temporal) e $ x $ (variável espacial). Se substituímos $ x=B(t) $ temos $ f(t,B(t)) $, note que ambas as variáveis dependem de $ t $. Em relação a primeira variável podemos usar o calculo tradicional, porém em relação a segunda temos que usar o calculo de Itô.

Assim sendo, suponha $ f(t,x) $ com derivadas parciais contínuas $ \frac{\partial f}{dt}, \quad\frac{\partial f}{dx} $ e $ \frac{\partial^2 f}{dx^2} $. Então usando a expansão por serie de Taylor obtemos

$$f(t,x)-f(s,x_0)=[f(t,x)-f(s,x)]+[f(s,x)-f(s,x_0)]$$

$$=\frac{\partial f}{dt}(s+\rho(t-s),x)(t-s)+\frac{\partial f}{dx}(s,x_0)(x-x_0)+\frac{1}{2}\frac{\partial^2 f}{dx^2}(s,x_0+\lambda(x-x_0))(x-x_0)^2$$

com $ 0\textless \rho \textless 1 $ e $ 0\textless \lambda \textless 1 $. Considere a partição $ \Delta_n=\{t_0,t_1,\dots,t_{n-1}, t_n\} $ para $ [a,t] $. Então

$$f(t,B(t))-f(a,B(a))=\sum_{i=1}^n\left(f(t_i,B(t_i))-f(t_{i-1},B(t_{i-1}))\right)$$

$$=\sum_{i=1}^n \frac{\partial f}{dt}(t_{i-1}+\rho(t_i-t_{i-1}),B(t_{i-1}))(t_i-t_{i-1})+\sum_{i=1}^n \frac{\partial f}{dx}(t_{i-1},B(t_{i-1}))(B(t_i)-B(t_{i-1}))+\sum_{i=1}^n \frac{\partial^2 f}{dx^2}(t_{i-1},B(t_{i-1})+\lambda(B(t_{i})-B(t_{i-1})))(B(t_i)-B(t_{i-1}))^2$$

Pela continuidade das derivadas e do movimento Browniano temos

$$\sum_{i=1}^n \frac{\partial f}{dt}(t_{i-1}+\rho(t_i-t_{i-1}),B(t_{i-1}))(t_i-t_{i-1})\rightarrow \displaystyle \int_a^t \frac{\partial f}{dt}(s,B(s))ds $$

quase certamente, quanto $ \|\Delta_n\|\rightarrow 0 $. Por outro lado, podemos modificar os argumentos usados nessa equação e obter

$$\sum_{i=1}^n \frac{\partial f}{dx}(t_{i-1},B(t_{i-1}))(B(t_i)-B(t_{i-1}))\rightarrow \int_a^t \frac{\partial f}{dx}(s,B(s))dB(s), $$

e

$$\sum_{i=1}^n \frac{\partial^2 f}{dx^2}(t_{i-1},B(t_{i-1})+\lambda(B(t_{i})-B(t_{i-1})))(B(t_i)-B(t_{i-1}))^2\rightarrow \int_a^t \frac{\partial^2 f}{dx^2}(s,B(s))ds.$$

Assim obtemos a seguinte formula de Itô para $ f(t,B(t)) $.

 

Teorema 10.4.2 (Formula de Itô Suavemente Generalizada)

Vamos estender a fórmula de Itô para funções que dependem da variável espacial e da variável temporal. Para isto, tomamos [0,T]\times \mathbb{R} \rightarrow \mathbb{R} $ uma função satisfazendo:

(i) $ \frac{\partial}{\partial t}F(t,x) $ existe para todo $ x \in \mathbb{R} $;

(ii) $ \frac{\partial}{\partial x}F(t,x) $ e $ \frac{\partial^2}{\partial^2 x}F(t,x) $ existem para todo $ 0 \leq t \leq T $.

Para facilidade de notação, se $ F $ satisfaz (i) e (ii) denotaremos $ F \in C^{1,2} $. Para toda função $ F \in C^{1,2} $, a fórmula de Itô é dada por:

$$F(t,B(t))=F(0,0)+\int_{0}^t \frac{\partial}{\partial t}F(s,B(s))ds+\int_{0}^t \frac{\partial}{\partial x}F(s,B(s))dB(s)+\frac{1}{2}\int_{0}^t\frac{\partial^2}{\partial^2 x}F(s,B(s))ds=$$
$$F(0,0)+\int_{0}^t \frac{\partial}{\partial x}F(s,B(s))dB(s)+\int_{0}^t \left[\frac{\partial}{\partial t}F(s,B(s))+\frac{1}{2} \frac{\partial^2}{\partial^2 x}F(s,B(s))\right]ds.$$

Exemplos:

1) Ao tomarmos $ F(t,x)=tx $, obtemos que

$$tB(t)=\int_{0}^tB(s)ds+\int_{0}^tsdB(s).$$

2) Martingale exponencial. Considere a função $ f(t,x)=\exp[ux-\frac{u^2}{2}t] $ no qual $ u $ é uma constante positiva. Então, concluímos da fórmula de Itô que

$$X(t)=\exp[uB(t)-\frac{u^2}{2}t]=1+\int_{0}^tuX(s)dB(s).$$

3)Considere a função a função $ f(t,x)=tx^2 $. Então

$$\frac{\partial f}{dt}=x^2, \quad \frac{\partial f}{dx}=2tx, \quad \frac{\partial^2 f}{dx^2}=2t$$

Portanto, pela equação

$$tB^2(t)=2\int_0^t sB(s)dB(s)+\left(\int_0^t B^2(s)ds+\frac{1}{2}t^2\right)$$

Podemos usar a esperança condicional para mostrar que $ tB(t)^2 $ é um submartingale. Portanto, essa igualdade nos fornece a decomposição de Doob-Meyer de $ tB(t)^2 $. Desta forma temos que

$$\int_0^t sB(s)dB(s)=\frac{1}{2}tB^2(t)-\frac{1}{4}t^2-\frac{1}{2}\int_{0}^t B^2(s)ds.$$

4)

A equação estocástica $ M(t)=B^2(t)-t $ é um martingale. Usaremos a formula de Itô para encontrar o compensador de $ M^2(t) $. Assim considere a função
$ f(t,x)=(x^2-t)^2 $. Então

$$\frac{\partial f}{\partial t}=-2(x^2-t), \quad\frac{\partial f}{\partial x}=4x(x^2-t), \quad \frac{\partial^2 f}{\partial x^2}=4(x^2-t)+8x^2.$$

Usando a formula generalizada acima temos que

$$M^2(t)=(B^2(t)-t)^2=4\int_{0}^{t}B(s)(B^2(s)-s)dB(s)+4\int_0^tB^2(s)ds.$$

Observe que a primeira integral é um martingale e a segunda é um processo integral é um processo crescente. Portanto, pelo Teorema decomposição de Doob-Meyer o compensador de $ M^2(t) $ é dado por

$$\langle M\rangle_t = 4\int_0^t B^2(s) ds.$$

 

Formula de Itô na formula Geral.

 
$$X_t=X_a+\int_{a}^t f(s)dB(s)+\int_{a}^t g(s)ds, \quad a\leq t\leq b,$$

no qual $ X_a $ é $ \mathcal{F}_a- $mensurável, $ f\in \mathcal{L}_ad(\Omega,L^2[a,b]) $, e $ g\in \mathcal{L}_ad(\Omega,L^1[a,b] $. Usando a formula diferencial temos que

$$dX_t=f(t)dB(t)+g(t)dt.$$

Então iremos fazer uma formula de Itô mais geral,

Teorema 10.2.3:

Seja $ X_t $ um processo de Itô dado por

$$X_t=X_a+\int_{a}^t f(s)dB(s)+\int_{a}^t g(s)ds, \quad a\leq t\leq b,$$

Suponha $ \theta(t,x) $ é uma função contínua com derivadas parcial contínuas $ \frac{\partial \theta}{\partial t}, \frac{\partial \theta}{\partial x} $ and $ \frac{\partial^2 \theta}{\partial x^2} $. Então, $ \theta(t,X_t) $ é também um processo de Itô e

$$\theta(t,X_t)=\theta(a,X_a)+\int_a^t \frac{\partial \theta}{\partial x}(s,X_s)f(s)dB(s)$$

$$+\int_a^t \left[\frac{\partial \theta}{\partial t}(s,X_s)+\frac{\partial \theta}{\partial x}(s,X_s)g(s)+\frac{1}{2}\frac{\partial^2 \theta}{\partial x^2}(s,X_s)f^2(s)ds\right]$$

 

Esse teorema pode ser demonstrado fazendo modificações dos argumentos do Teorema da formula de Itô 10.4.2 . Uma boa forma de se obter o resultado é usando a tabela abaixo na qual temos o resultado das multiplicações das derivadas simbolicas, ou seja, $ (dB(t))^2=dt $,  $ (dt)^2=0 $.

x

dB(t)

dt

dB(t) dt 0
dt 0 0

Então, usando a tabela e a expansão em serie de Taylor temos que o resultado segue.

Exemplos

1)  Seja $ f\in \mathcal{L}_{ad}(\Omega, L^2[0,1]) $. Considere o seguinte processo de Itô.

$$X_t=\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^t f^2(s)ds, 0\leq t\leq 1,$$

e a função $ \theta(x)=e^x $. Então $ dX_t=f(t)dB(t)-\frac{1}{2}f^2(t)dt $. Aplicando a expansão de serie Taylor junto com tabela acima

$$d\theta(X_t)=e^{X_t}dX_t+\frac{1}{2}e^{X_t}(dX_t)^2=e^{X_t(f(t)dB(t)-\frac{1}{2}f^2(t)dt)+\frac{1}{2}e^{X_t}f^2(t)}dt$$

$$f(t)e^{X_t}dB(t).$$

Portanto temos que

$$e^{\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^tf^2(s)ds}=1+\int_{0}^t f(s)e^{\int_0^tf(u)dB(u)-\frac{1}{2}\int_0^s f^2(u)du}dB(s)$$

Portanto, temos que

$$Y(t)=e^{\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^tf^2(s)ds}$$

é um martingale se $ f(t)\in L^2[0,1] $ ou seja, é uma função determinística pelo Teorema 10.2.5
e pelo teorema dessa mesma secção temos que é um martingale local, para $ f\in \mathcal{L}^2(\Omega,L^2[0,1]) $.

2) Considere a equação de Langevin

$$dX_t=\alpha dB(t)-\beta X_t dt, \quad X_0=x_0,$$

no qual $ \alpha\in \mathbb{R} $ e $ \beta\textgreater 0 $. Então, $ X_t $ é interpretado como

$$X_t=x_0+\alpha B(t)-\beta\int_0^tX_s ds$$

Podemos então usar um método de iteração e de integração por parte para derivar a solução $ X_t $ por cada caminho de $ B(t) $. Mas na verdade esse método é bem complicado. Entretanto se usarmos a formula de Itô, então podemos obter a solução de forma bem mais fácil.
Considere $ \theta(t,x)=e^{\beta t}x $. Então

$$\frac{\partial \theta}{dt}=\beta e^{\beta t}, \quad \frac{\partial \theta}{dx}= e^{\beta t},\quad \frac{\partial^2 \theta}{dx^2}=0$$

Portanto

$$d(e^{\beta t} X_t)=\beta e^{\beta t}X_tdt+ e^{\beta t}dX(t)=\beta e^{\beta t}X_t dt + e^{\beta t}(\alpha dB(t)-\beta X_t dt)$$

$$=\alpha e^{\beta t} dB(t).$$

Então, a integral estocástica é dada por

$$e^{\beta t}X_t=e^{\beta_s}X_s+\int_s^t \alpha e^{\beta_u}dB(u), s\leq t.$$

Portanto, $ X_t $ é dado por

$$X_t=e^{-\beta(t-s)}X_s+\alpha \int_s^t e^{-\beta(t-u)}dB(u), \quad s\leq t.$$

Em particular, quando $ s=0 $, temos que a solução para a equação de Langevin é dada por

$$X_t=e^{-\beta t}x_0+\alpha \int_0^t e^{-\beta(t-u)}dB(u).$$

Definição 10.4.1:

A solução de $ X_t $ é chamada um processo de Ornstein-Uhlenbeck.

 

Teorema 10.4.3:

Seja $ X_t $ um processo de Ornstein-Uhlenbeck dado por

$$X_t=e^{-\beta t}x_0+\alpha \int_0^t e^{-\beta(t-u)}dB(u).$$

Então, temos que a probabilidade condicional é dada por

$$\mathbb{P}(X_t\leq y|X_s=x)=\int_{-\infty}^y G_{\frac{\alpha^2}{2\beta}(1-e^{-2\beta(t-s)})}(e^{-\beta(t-s)}x,v)dv,\quad s\textless t$$

no qual $ G_t(m,v)=\frac{1}{\sqrt{2\pi t}}e^{-\frac{1}{2t}(v-m)^2} $, é uma função de densidade de uma Normal em v com média $ m $ e variância $ t $. Em particular quando $ s=0 $ e $ x=x_0 $, a variável aleatória $ X_t $ é uma Normal com média $ x_0e^{\beta t} $ e variância $ \frac{\alpha^2}{\beta}(1-e^{-2\beta t}) $.
Demonstração:
Seja $ s\leq t $. Então, dado $ X_s=x $, temos que pela equação acima

$$X_t=e^{-\beta (t-s)}x+\alpha \int_{s}^t e^{-\beta(t-u)}dB(u).$$

Note que a integral da equação acima é uma integral de Wiener, a qual é uma variável aleatória com média 0 e variância

$$\alpha^2\int_s^t e^{-2\beta(t-u)}du=\frac{\alpha^2}{2\beta}(1-e^{-2\beta(t-s)}).$$

Portanto a variável $ X_t $ é dado por $ X_s=x $ é uma normal com media $ e^{-\beta(t-s)}x $ e a variância $ \alpha^2(1-e^{2\beta (t-s)})/(2\beta) $. Portanto o resultado segue.
 

Formula de Itô Multidimensional 

 

Seja $ B_1(t),B_2(t),\dots B_m(t) $ m movimento Browniano independentes. Considere o processo de Itô $ X_t^{(1)}, X_t^{(2)},\dots ,X_t^(n) $ dado por

$$X_t^{i}=X_a^{(i)}+\sum_{j=1}^m \int_a^t f_{ij}(s)dB_j(s)+\int_a^t g_i(s)ds, \quad 1\leq i\leq n,$$

 
no qual $ f_{ij}\in \mathcal{L}_{ad}(\Omega,L^2[a,b]) $ e $ g_i\in \mathcal{L}_{ad}(\Omega,L^1[a,b]) $ para todo $ 1\leq i\leq n $ e $ 1\leq j\leq m $. Se introduzimos a forma matricial temos

$$B(t)=\left[\begin{array}{l}B_1(t)\\ B_2(t)\\ \vdots\\ B_m(t) \end{array}\right],\quad X_t=\left[\begin{array}{l} X^{(1)}_t\\ X^{(2)}_t\\ \vdots\\ X^{(n)}_t \end{array}\right]$$

$$f(t)=\left[\begin{array}{l} f_{11}(t)\dots f_{1m}(t)\\ \vdots \ddots \vdots\\ f_{n1}(t)\dots f_{nm}(t)\\ \end{array}\right],\quad g(t)=\left[\begin{array}{l} g_1(t)\\ \vdots\\ g_n(t) \end{array}\right]$$

então a equação acima pode ser escrito na forma matricial

$$X_t=X_a+\int_a^t f(s)dB(s)+\int_a^t g(s)ds,\quad \quad a \leq t\leq b.$$

Portanto podemos extender a formula de Itô para o caso multi-dimensional. Suponha $ \theta(t,x_1,\dots, x_n) $ é uma função contínua em $ [a,b]\times \mathbb{R}^n $ e com derivadas parciais contínuas $ \frac{\partial \theta}{\partial t}, \frac{\partial \theta}{\partial x_i} $ e $ \frac{\partial^2 \theta}{\partial x_i \partial x_j} $ para $ 1\leq i,j \leq n $. Então a equação diferencial estocástica de $ \theta(t,X_t^{(1)},\dots,X_t^{(n)}) $ é dado por

$$d\theta(t,X^{(1)}_t,\dots,X^{(n)}_t)$$

$$=\frac{\partial \theta}{\partial t}(t, X^{(1)}_t,\dots, X_t^{(n)})dt+\sum_{i=1}^n \frac{\partial \theta}{\partial x_i}(t, X^{(1)}_t,\dots, X_t^{(n)})dX_t^{(i)}+\frac{1}{2}\sum_{i,j=1}^n \frac{\partial^2 \theta}{\partial x_i \partial x_j}(t, X^{(1)}_t,\dots, X_t^{(n)})dX_t^{(i)}dX_t^{(j)},$$

no qual o produto $ dX_t^{(i)}dX_t^{(j)} $ pode ser calculada usando a tabela abaixo

x $ dB_j $(t) dt
$ dB_i(t) $ $ \delta_{ij}dt $ 0
dt 0 0

 

O produto $ dB_i(t)dB_j(t)=0 $ para $ i\neq j $. Isto decorre $ B_1(t) $ e $ B_2(t) $ dois processos independentes movimentos Browniano e seja $ \Delta_n=\{t_0,t_1,\dots,t_{n-1},t_n\} $ uma partição de $ [a,b] $. Então

$$\sum_{i=1}^n (B_1(t_i)-B_1(t_{i-1}))(B_2(t_i)-B_2(t_{i-1}))\rightarrow 0$$

em $ L^2(\Omega) $ como $ \|\Delta_n\|=\max_{1\leq i\leq n}(t_i-t_{i-1}) $ tende a zero.

Exemplos

Considere a função $ \theta\ (x,y)=xy $. Temos que $ \frac{\partial \theta}{\partial x}=y, \frac{\partial \theta}{\partial y}=x $, $ \frac{\partial^2 \theta}{\partial y\partial x}=1 $, e $ \frac{\partial^2 \theta}{\partial x^2}=\frac{\partial^2 \theta}{\partial y^2}=0 $ e $ \frac{\partial^2 \theta}{\partial x\partial y}=\frac{\partial \theta}{\partial y\partial x}=1 $. Aplicando a equação acima para $ \theta(x,y) $ para doi processos de Itô $ X_t $ e $ Y_t $ temos que

$$d(X_tY_t)=Y_tdX_t+X_tdY_t+\frac{1}{2}dX_tdY_t+\frac{1}{2}dY_tdX_t=Y_tdX_t+X_tdY_t+dX_tdY_t.$$

Portanto,

$$X_tY_t=X_aY_a+\int_a^t Y_sdX_s+\int_a^t X_sdY_s+\int_a^tdX_sdY_s.$$

A igualdade acima é chamada de formula produto de Itô. Se $ X_t $ e $ Y_t $ é dado por

$$dX_t=f(t)dB(t)+\xi(t)dt$$

e

$$dY_t=g(t)dB(t)+\eta(t)dt$$

Então a formula produtos nos fornece que

$$X_tY_t=X_aY_a+\int_a^t \left(f(s)Y_s+g(s)X_s\right)dB(s)+\int_a^t\left(\xi(s)Y_s+\eta(s)X_s+f(s)g(s)\right)ds$$

Em particular temos que, que quando $ \xi=\eta=0 $, temos que

$$X_tY_t=X_aY_a+\int_a^t\left(f(s)Y_s+g(s)X_s\right)dB(s)+\int_a^t f(s)g(s)ds.$$

This implica que o processo estocástico

$$\left(\int_a^t f(s)dB(s)\right)\left(\int_a^t g(s)dB(s)\right)-\int_a^t f(s)g(s)ds$$

é um martingale local para qualquer $ f,g \in \mathcal{L}_{ad}(\Omega,L^2[a,b]) $.

 

Formula de Itô para Martingales

 

Seja $ M(t) $ um martingale contínua a direita com limite a esquerda, tal que $ \mathbb{E}(M^2(t))\textless \infty $ para cada $ t\in [a,b] $. Omitiremos a demonstração do Teorema a seguir, mas salientamos que para demonstrar esse teorema devemos ter bastante cuidado, pois um martingale qualquer pode ter saltos, ou seja, pode ter partes descontínuas (um exemplo é o compensador do processo de Poisson compensado). Por conta disso, devemos tomar bastante cuidado nesses pontos de salto.

 

Teorema 10.4.4:

Seja $ M_t $ um martingale contínuo a direita e quadrado integrável com limite a esquerda. Suponha que $ F $ seja uma função $ C^2 $. Então

$$F(M_t)=F(M_a)+\int_a^t F^\prime(M_{s-})dM_s+\frac{1}{2}\int_a^t F^{\prime\prime}(M_s)d[M]_s^c+\sum_{a\leq s\leq t}\left(F(M_s)-F(M_{s-})-F^\prime(M_{s-})\Delta M_s\right),$$

no qual, $ [M]^c_s $ é a parte contínua de $ [M]_s $ e $ \Delta M_s=M_s-M_{s-}. $

 

Teorema 10.4.5:

Seja $ M_t $ um martingale contínuo e quadrado integrável. Suponha que $ F(t,x) $ seja uma função contínua com derivadas parciais

$$\frac{\partial F}{\partial t}, \frac{\partial F}{\partial x},\quad \frac{\partial^2 F}{\partial x^2}.$$

Então,

$$F(t,M_t)=F(a,M_a)+\int_a^t \frac{\partial F}{\partial t}(s,M_s)ds+\int_a^t \frac{\partial F}{\partial x}(s,M_s)dM_s+\frac{1}{2}\int_a^t \frac{\partial^2 F}{\partial x^2}(s,M_s)d\langle M\rangle_s$$

 

Teorema 10.4.6:

Suponha $ M_1(t)\dots,M_n(t) $ são martingales contínuos e quadrado integráveis. Seja $ F(t,x_1,\dots, x_n) $ uma função com derivadas parciais contínuas

$$\frac{\partial F}{\partial t}, \frac{\partial F}{\partial x_i}, \quad \frac{\partial^2 F}{\partial x_i\partial x_j}$$

para $ 1\leq i,j\leq n $. Então

$$dF=\frac{\partial F}{\partial t}dt+\sum_{i=1}^n \frac{\partial F}{\partial x_i}dM_i(t)+\frac{1}{2}\sum_{i,j=1}^n \frac{\partial^2 F}{\partial x_i\partial x_j} d\langle M_i,M_j\rangle_t,$$

no qual $ \langle \cdot,\cdot\rangle $ é a variação cruzada do processo dada por

$$\langle X,Y\rangle_t=\frac{1}{4}\left\{\langle X+Y\rangle_t-\langle X-Y\rangle_t\right\}.$$

 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]