10.4 - Fórmula de Itô

Você está aqui

A regra básica para a diferenciação é a regra da cadeia. Se $f$ e $g$ são funções diferenciáveis, então $f(g(t))$ também é diferenciável e sua derivada é dada por

$$\frac{d}{dt}f(g(t))=\frac{d}{dt}f(g(t))\frac{d}{dt}g(t)$$  

Em termos do teorema fundamental do cálculo, temos que

$$f(g(t))-f(g(a))=\int_a^t\frac{d}{ds}f(g(s))\frac{d}{ds}g(s)ds$$

No cálculo de Itô, estamos interessados em encontrar alguma relação parecida para processos estocásticos. Seja $B(t)$ o movimento browniano e $f$ uma função diferenciável. Considere a função composta $f(B(t))$. Como $B(t)$ não é diferenciável, a igualdade

$$\frac{d}{dt}f(B(t))=\frac{d}{dt}f(B(t))\frac{d}{dt}B(t)$$

não faz sentido. Contudo quando trocamos $\frac{d}{dt}B(t)$ por $dB(t)$ na integral de Itô, surge a seguinte questão:

A igualdade

$$f(B(t))-f(B(a))=\int_a^t\frac{d}{dt}f(B(s))dB(s)$$

é válida para qualquer função diferenciável?  

Se considerarmos a função $f(x)=x^2$, a igualdade anterior nos fornece que a integral estocástica é igual a:

$$B(t)^2-B(a)^2=2\int_a^tB(s)dB(s)$$

Mas como já visto na seção de integral estocástica, o verdadeiro valor para tal integral é:

$$B(t)^2-B(a)^2-(t-a)=2\int_a^tB(s)sB(s)$$

Portanto, a resposta para tal questão é negativa. Mas, existe uma fórmula para a função composta $f(B(t))$ que serve como regra da cadeia na forma integral para o cálculo de Itô? Sim, existe! E este resultado é conhecido como fórmula de Itô.

Considere uma partição $\Delta_n=\{t_0,t_1,\dots,t_n\}$ do intervalo $[a,t]$. Então,

$$f(B(t))-f(B(a))=\sum^{n}_{i=1}(f(B(t_i))-f(B(t_{i-1})))$$ 

Vamos supor que $f$ é uma função de classe $C^2$. A expansão de Taylor para a função $f$ é dada por:

$$f(x)-f(x_0)=f^{\prime}(x_0)(x-x_0)+\frac{1}{2}f^{\prime\prime}(x_0+\lambda(x-x_0))(x-x_0)^2$$

para $0\textless\lambda\leq 1$. Portanto,

$$f(B(t))-f(B(a))=\sum_{i=1}^nf^{\prime}(B(t_{i-1}))(B(t_{i})-B(t_{i-1}))$$

$$\quad{}+\frac{1}{2}\sum_{i=1}^nf^{\prime\prime}(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])(B(t_{i})-B(t_{i-1}))^2$$

com, $0\textless \lambda_i \textless 1$.

Para a primeira somatória, temos que

$$\lim_{||\Delta_n || \to 0}\sum_{i=1}^n f^{\prime}(B(t_{i-1}))(B(t_{i})-B(t_{i-1})) = \int_a^tf^{\prime}(B(s))dB(s)$$

Já para a segunda somatória, vamos mostrar que

$$\sum_{i=1}^nf^{\prime\prime}(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])(B(t_{i})-B(t_{i-1}))^2 \rightarrow \int_a^t f^{\prime\prime}(B(s))ds$$ 

quando $||\Delta_n|| \rightarrow 0$.

Teorema 10.4.1:(Fórmula de Itô)

Seja $f$ uma função de classe $C^2$. Então   

$$f(B(t))-f(B(a))=\int_a^tf^{\prime}(B(s))dB(s)+\frac{1}{2}\int_a^t f^{\prime\prime}(B(s))ds$$ 

Para demonstrarmos o teorema, primeiro vamos enunciar e provar dois lemas. 

Lema 10.4.1:

Seja $g(x)$ uma função contínua sobre $\mathbb{R}$. Para cada $n\geq 1$, seja $\Delta_n=\{t_0,t_1,\dots,t_n\}$partição de $[a,t]$ e $0\textless\lambda_i\textless 1$ para $1\leq i\leq n$. Então existe uma subsequência de 
$$\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2\rightarrow 0$$
quase certamente, quando $||\Delta_n|| \rightarrow 0$.

Prova:

Seja

$$X_n =\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2$$.

Defina a variável aleatória 

$$\xi_n=\max_{1\leq i\leq n, 0\textless \lambda\textless1}|g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))|$$  

Vale que

$$|X_n|=|\sum_{i=1}^n(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))(B(t_{i})-B(t_{i-1}))^2|$$

$$\leq \sum_{i=1}^n|(g(B(t_{i-1})+\lambda_i[B(t_{i})-B(t_{i-1})])-g(B(t_i)))|(B(t_{i})-B(t_{i-1}))^2$$

$$\leq \sum_{i=1}^n \xi_n(B(t_{i})-B(t_{i-1}))^2$$

Pela continuidade de $g(x)$ e do movimento browniano, $\xi_n$ converge para $0$ quase certamente. Como $\sum_{i=1}^n(B(t_{i})-B(t_{i-1}))^2 \rightarrow t-a$ em $L^2(\Omega)$, então existe uma subsequência que converge para 0 quase certamente. Segue então que $\{X_n\}$ tem uma subsequência que converge para 0 quase certamente.

Lema 10.4.2: 

Seja $g(x)$ função contínua sobre $\mathbb{R}$. Para cada $n\geq 1$, seja $\Delta_n=\{t_0,t_1,\dots,t_n\}$ uma partição de $[a,t]$. Então a sequência

$$S_n=\sum_{i=1}^ng(B(t_{i-1}))((B(t_i)-B(t_{i-1}))^2-(t_i-t_{i-1}))$$

converge para 0, quando $||\Delta_n|| \rightarrow 0$.

Para cada $L\textgreater 0$, defina os eventos

$$A_{i-1}^{(L)}\equiv \{|B(t_j)|\leq L \ \text{para todo} \ j\leq i-1\}.$$

Defina também

$$S_{n,L}=\sum_{i=1}^ng(B(t_{i-1}))1\!\!1_{A_{i-1}^{(L)}}((B(t_i)-B(t_{i-1}))^2-(t_i-t_{i-1}))$$
$$=\sum_{i=1}^ng(B(t_{i-1}))1\!\!1_{A_{i-1}^{(L)}}X_i$$
$$=\sum_{i=1}^nY_i$$

Considere $\mathcal{F}_t = \sigma\{B(s): s\leq t \}$. Então, para $i\neq j$, digamos $i\textless j$, podemos calcular a esperança condicional

$$\mathbb{E}[Y_iY_j]=\mathbb{E}[\mathbb{E}[Y_i,Y_j|\mathcal{F}_{t_{j-1}}]]$$
$$=\mathbb{E}[Y_i g(B(t_{j-1}))1\!\!1_{A_{i-1}^{(L)}}\mathbb{E}[X_j|\mathcal{F}_{t_{j-1}}]]$$
$$=0$$

Por outro lado, da definição de $A_{i-1}^{(L)}$, segue que

$$Y_i^2\leq \max_{|x|\leq L}(|g(x)|^2)X_i^2$$

Então

$$\mathbb{E}(Y_i^2)\leq 2(t_i-t_{i-1})^2\max_{|x|\leq L}(|g(x)|^2)$$

de onde segue que 

$$\mathbb{E}[S^2_{n,L}]= \sum_{i=1}^n\mathbb{E}[Y_i^2]$$
$$\leq 2\max_{|x|\leq L}(|g(x)|^2)\sum_{i=1}^n(t_i-t_{i-1})^2$$
$$\leq 2\max_{|x|\leq L}(|g(x)|^2)(t-a)\sum_{i=1}^n(t_i-t_{i-1})\rightarrow 0$$ 
quando $||\Delta_n||\rightarrow 0$.

Assim, para qualquer $L$ fixado maior que zero, a sequência $S_{n,L}$ converge para $0$ em $L^2(\Omega)$ e portanto em probabilidade quando $||\Delta_n||\rightarrow 0$.

Da maneira como definimos o conjunto $A^L_{n-1}$, temos que 

$$A^L_{n-1}\subset \{S_n = S_{n,L}\}$$

que implica que

$$\{S_n\neq S_{n,L}\}\subset (A_{n-1}^{(L)})^c\subset \{\max_{a\leq s\leq t}|B(s)|\textgreater L\}$$

e portanto, segue a desigualdade

$$\mathbb{P}\{S_n\neq S_{n,L}\}\leq \mathbb{P}\{\max_{a\leq s\leq t}|B(s)|\textgreater L\}.$$

Da desigualdade de submartingale 

$$\leq 2\max_{|x|\leq L}(|g(x)|^2)\sum_{i=1}^n(t_i-t_{i-1}) \leq \frac{1}{L}\mathbb{E}[|B(t)|]=\frac{1}{L}\sqrt{\frac{2t}{\pi}}$$ 

então

$$\mathbb{P}\{S_n\neq S_{n,L}\}\leq\frac{1}{L}\sqrt{\frac{2t}{\pi}}.$$

Como

$$\{|S_n|\textgreater \varepsilon\}\subset\{|S_{n,L}|\textgreater\varepsilon\}\cup\{S_n\neq S_{n,L}\}$$

vale que

$$\mathbb{P}\{|S_n|\textgreater \varepsilon\}\leq\mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}+\mathbb{P}\{S_n\neq S_{n,L}\}$$ 
$$\leq\mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}+\frac{1}{L}\sqrt{\frac{2t}{\pi}}$$

Escolha L suficientemente grande, de forma que $\frac{1}{L}\sqrt{\frac{2t}{\pi}}\leq \frac{\varepsilon}{2}$. Já provamos que para qualque $L\textgreater 0$, $S_{n,L}$ converge para $0$, quando $||\Delta_n||\rightarrow 0$. Então, existe $n_0\geq 1$, tal que para $\mathbb{P}\{|S_{n,L}|\textgreater\varepsilon\}\textless \frac{\varepsilon}{2}$ para todo $n\geq n_0$. Provando que $S_n$ converge para $0$ em probabilidade quando $||\Delta_n||\rightarrow 0$.  

Na sequência, apresentamos alguns exemplos simples de aplicação da fórmula de Itô.

Exemplos:

1) Considere $f(x) = x^2$, então temos que $$B^2(t) = f(B(t))=\int_{0}^t 2B(s)dB(s) + \frac{1}{2}t.$$ Assim, concluímos que $$\int_{0}^t B(s) dB(s) = \frac{B^2(t) - t}{2}.$$

2) Vamos calcular $\mathbb{E}[B^4(t)].$. Através da fórmula de Itô obtemos que $$\int_{0}^t 4B^3(s)dB(s) + \frac{1}{2} \int_{0}^t12B^2(s)ds.$$ Com isso, concluímos que $$\mathbb{E}[B^4(t)]=6\int_{0}^t \mathbb{E}[B^2(s)]ds=6\int_{0}^tsds=3t^2.$$

3) Ao tomarmos $f(x)=\exp^{\sigma x}$, obtemos que $f$ é diferenciável com $f^\prime(x)=\sigma \exp^{\sigma x}$ e $f^{\prime \prime}(x)=\sigma^2 \exp^{\sigma x}$. Como aplicação da fórmula de Itô, temos que $$X(t)=\exp^{\sigma B(t)}=1+\int_{0}^t \sigma X(s) dB(s) + \frac{1}{2} \int_{0}^t \sigma^2 X(s) ds. $$ Na sequência, vamos calcular o valor esperado de $X(t)$. Facilmente, obtemos que $$\mathbb{E}[X(t)]=1+\frac{\sigma^2}{2}\int_{0}^t\mathbb{E}(X(s))ds.$$ Ao denotarmos $y(t)=\mathbb{E}(X(t))$, obtemos que $$y(t)=1+\frac{\sigma^2}{2}\int_{0}^ty(s)ds \quad \text{ou} \quad dy(t)=\frac{\sigma^2}{2}y(t)dt$$ com condição inicial $y(0)=1$. Trivialmente, obtemos como solução $\mathbb{E}[X(t)]=y(t)=\exp^{\frac{\sigma^2}{2}t}$.

 

Vamos estender a fórmula de Itô para funções que dependem da variável espacial e da variável temporal. Ou seja, como seria a formula de Itô para o caso em que temos $f(t,x)$ uma função de $t$ (variável temporal) e $x$ (variável espacial). Se substituímos $x=B(t)$ temos $f(t,B(t))$, note que ambas as variáveis dependem de $t$. Em relação a primeira variável podemos usar o calculo tradicional, porém em relação a segunda temos que usar o calculo de Itô.

Assim sendo, suponha $f(t,x)$ com derivadas parciais contínuas $\frac{\partial f}{dt}, \quad\frac{\partial f}{dx}$ e $\frac{\partial^2 f}{dx^2}$. Então usando a expansão por serie de Taylor obtemos

$$f(t,x)-f(s,x_0)=[f(t,x)-f(s,x)]+[f(s,x)-f(s,x_0)]$$
$$=\frac{\partial f}{dt}(s+\rho(t-s),x)(t-s)+\frac{\partial f}{dx}(s,x_0)(x-x_0)+\frac{1}{2}\frac{\partial^2 f}{dx^2}(s,x_0+\lambda(x-x_0))(x-x_0)^2$$
com $0\textless \rho \textless 1$ e $0\textless \lambda \textless 1$. Considere a partição $\Delta_n=\{t_0,t_1,\dots,t_{n-1}, t_n\}$ para $[a,t]$. Então

$$f(t,B(t))-f(a,B(a))=\sum_{i=1}^n\left(f(t_i,B(t_i))-f(t_{i-1},B(t_{i-1}))\right)$$
$$=\sum_{i=1}^n \frac{\partial f}{dt}(t_{i-1}+\rho(t_i-t_{i-1}),B(t_{i-1}))(t_i-t_{i-1})+\sum_{i=1}^n \frac{\partial f}{dx}(t_{i-1},B(t_{i-1}))(B(t_i)-B(t_{i-1}))+\sum_{i=1}^n \frac{\partial^2 f}{dx^2}(t_{i-1},B(t_{i-1})+\lambda(B(t_{i})-B(t_{i-1})))(B(t_i)-B(t_{i-1}))^2$$

Pela continuidade das derivadas e do movimento Browniano temos
$$\sum_{i=1}^n \frac{\partial f}{dt}(t_{i-1}+\rho(t_i-t_{i-1}),B(t_{i-1}))(t_i-t_{i-1})\rightarrow \displaystyle \int_a^t \frac{\partial f}{dt}(s,B(s))ds $$
quase certamente, quanto $\|\Delta_n\|\rightarrow 0$. Por outro lado, podemos modificar os argumentos usados nessa equação e obter

$$\sum_{i=1}^n \frac{\partial f}{dx}(t_{i-1},B(t_{i-1}))(B(t_i)-B(t_{i-1}))\rightarrow \int_a^t \frac{\partial f}{dx}(s,B(s))dB(s), $$
e
$$\sum_{i=1}^n \frac{\partial^2 f}{dx^2}(t_{i-1},B(t_{i-1})+\lambda(B(t_{i})-B(t_{i-1})))(B(t_i)-B(t_{i-1}))^2\rightarrow \int_a^t \frac{\partial^2 f}{dx^2}(s,B(s))ds.$$

Assim obtemos a seguinte formula de Itô para $f(t,B(t))$.

 

Teorema 10.4.2 (Formula de Itô Suavemente Generalizada)

Vamos estender a fórmula de Itô para funções que dependem da variável espacial e da variável temporal. Para isto, tomamos $F:[0,T]\times \mathbb{R} \rightarrow \mathbb{R}$ uma função satisfazendo:

(i) $\frac{\partial}{\partial t}F(t,x)$ existe para todo $x \in \mathbb{R}$;

(ii) $\frac{\partial}{\partial x}F(t,x)$ e $\frac{\partial^2}{\partial^2 x}F(t,x)$ existem para todo $0 \leq t \leq T$.

Para facilidade de notação, se $F$ satisfaz (i) e (ii) denotaremos $F \in C^{1,2}$. Para toda função $F \in C^{1,2}$, a fórmula de Itô é dada por: $$F(t,B(t))=F(0,0)+\int_{0}^t \frac{\partial}{\partial t}F(s,B(s))ds+\int_{0}^t \frac{\partial}{\partial x}F(s,B(s))dB(s)+\frac{1}{2}\int_{0}^t\frac{\partial^2}{\partial^2 x}F(s,B(s))ds=$$ $$F(0,0)+\int_{0}^t \frac{\partial}{\partial x}F(s,B(s))dB(s)+\int_{0}^t \left[\frac{\partial}{\partial t}F(s,B(s))+\frac{1}{2} \frac{\partial^2}{\partial^2 x}F(s,B(s))\right]ds.$$

Exemplos:

1) Ao tomarmos $F(t,x)=tx$, obtemos que $$tB(t)=\int_{0}^tB(s)ds+\int_{0}^tsdB(s).$$

2) Martingale exponencial. Considere a função $f(t,x)=\exp[ux-\frac{u^2}{2}t]$ no qual $u$ é uma constante positiva. Então, concluímos da fórmula de Itô que $$X(t)=\exp[uB(t)-\frac{u^2}{2}t]=1+\int_{0}^tuX(s)dB(s).$$

3)Considere a função a função $f(t,x)=tx^2$. Então

$$\frac{\partial f}{dt}=x^2, \quad \frac{\partial f}{dx}=2tx, \quad \frac{\partial^2 f}{dx^2}=2t$$

Portanto, pela equação
$$tB^2(t)=2\int_0^t sB(s)dB(s)+\left(\int_0^t B^2(s)ds+\frac{1}{2}t^2\right)$$
Podemos usar a esperança condicional para mostrar que $tB(t)^2$ é um submartingale. Portanto, essa igualdade nos fornece a decomposição de Doob-Meyer de $tB(t)^2$. Desta forma temos que
$$\int_0^t sB(s)dB(s)=\frac{1}{2}tB^2(t)-\frac{1}{4}t^2-\frac{1}{2}\int_{0}^t B^2(s)ds.$$

4)

A equação estocástica $M(t)=B^2(t)-t$ é um martingale. Usaremos a formula de Itô para encontrar o compensador de $M^2(t)$. Assim considere a função
$f(t,x)=(x^2-t)^2$. Então
$$\frac{\partial f}{\partial t}=-2(x^2-t), \quad\frac{\partial f}{\partial x}=4x(x^2-t), \quad \frac{\partial^2 f}{\partial x^2}=4(x^2-t)+8x^2.$$
Usando a formula generalizada acima temos que

$$M^2(t)=(B^2(t)-t)^2=4\int_{0}^{t}B(s)(B^2(s)-s)dB(s)+4\int_0^tB^2(s)ds.$$

Observe que a primeira integral é um martingale e a segunda é um processo integral é um processo crescente. Portanto, pelo Teorema decomposição de Doob-Meyer o compensador de $M^2(t)$ é dado por

$$\langle M\rangle_t = 4\int_0^t B^2(s) ds.$$
 

Formula de Itô na formula Geral.

 

$$X_t=X_a+\int_{a}^t f(s)dB(s)+\int_{a}^t g(s)ds, \quad a\leq t\leq b,$$
no qual $X_a$ é $\mathcal{F}_a-$mensurável, $f\in \mathcal{L}_ad(\Omega,L^2[a,b])$, e $g\in \mathcal{L}_ad(\Omega,L^1[a,b]$. Usando a formula diferencial temos que
$$dX_t=f(t)dB(t)+g(t)dt.$$

Então iremos fazer uma formula de Itô mais geral,

Teorema 10.2.3:

Seja $X_t$ um processo de Itô dado por
$$X_t=X_a+\int_{a}^t f(s)dB(s)+\int_{a}^t g(s)ds, \quad a\leq t\leq b,$$
Suponha $\theta(t,x)$ é uma função contínua com derivadas parcial contínuas $\frac{\partial \theta}{\partial t}, \frac{\partial \theta}{\partial x}$ and $\frac{\partial^2 \theta}{\partial x^2}$. Então, $\theta(t,X_t)$ é também um processo de Itô e
$$\theta(t,X_t)=\theta(a,X_a)+\int_a^t \frac{\partial \theta}{\partial x}(s,X_s)f(s)dB(s)$$
$$+\int_a^t \left[\frac{\partial \theta}{\partial t}(s,X_s)+\frac{\partial \theta}{\partial x}(s,X_s)g(s)+\frac{1}{2}\frac{\partial^2 \theta}{\partial x^2}(s,X_s)f^2(s)ds\right]$$
 

Esse teorema pode ser demonstrado fazendo modificações dos argumentos do Teorema da formula de Itô 10.4.2 . Uma boa forma de se obter o resultado é usando a tabela abaixo na qual temos o resultado das multiplicações das derivadas simbolicas, ou seja, $(dB(t))^2=dt$,  $(dt)^2=0$.

x

dB(t)

dt

dB(t) dt 0
dt 0 0

Então, usando a tabela e a expansão em serie de Taylor temos que o resultado segue.

Exemplos

1)  Seja $f\in \mathcal{L}_{ad}(\Omega, L^2[0,1])$. Considere o seguinte processo de Itô.
$$X_t=\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^t f^2(s)ds, 0\leq t\leq 1,$$
e a função $\theta(x)=e^x$. Então $dX_t=f(t)dB(t)-\frac{1}{2}f^2(t)dt$. Aplicando a expansão de serie Taylor junto com tabela acima
$$d\theta(X_t)=e^{X_t}dX_t+\frac{1}{2}e^{X_t}(dX_t)^2=e^{X_t(f(t)dB(t)-\frac{1}{2}f^2(t)dt)+\frac{1}{2}e^{X_t}f^2(t)}dt$$
$$f(t)e^{X_t}dB(t).$$
Portanto temos que
$$e^{\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^tf^2(s)ds}=1+\int_{0}^t f(s)e^{\int_0^tf(u)dB(u)-\frac{1}{2}\int_0^s f^2(u)du}dB(s)$$
Portanto, temos que
$$Y(t)=e^{\int_0^t f(s)dB(s)-\frac{1}{2}\int_0^tf^2(s)ds}$$
é um martingale se $f(t)\in L^2[0,1]$ ou seja, é uma função determinística pelo Teorema 10.2.5
e pelo teorema dessa mesma secção temos que é um martingale local, para $f\in \mathcal{L}^2(\Omega,L^2[0,1])$.

2) Considere a equação de Langevin
$$dX_t=\alpha dB(t)-\beta X_t dt, \quad X_0=x_0,$$
no qual $\alpha\in \mathbb{R}$ e $\beta\textgreater 0$. Então, $X_t$ é interpretado como
$$X_t=x_0+\alpha B(t)-\beta\int_0^tX_s ds$$
Podemos então usar um método de iteração e de integração por parte para derivar a solução $X_t$ por cada caminho de $B(t)$. Mas na verdade esse método é bem complicado. Entretanto se usarmos a formula de Itô, então podemos obter a solução de forma bem mais fácil.
Considere $\theta(t,x)=e^{\beta t}x$. Então

$$\frac{\partial \theta}{dt}=\beta e^{\beta t}, \quad \frac{\partial \theta}{dx}= e^{\beta t},\quad \frac{\partial^2 \theta}{dx^2}=0$$
Portanto
$$d(e^{\beta t} X_t)=\beta e^{\beta t}X_tdt+ e^{\beta t}dX(t)=\beta e^{\beta t}X_t dt + e^{\beta t}(\alpha dB(t)-\beta X_t dt)$$
$$=\alpha e^{\beta t} dB(t).$$
Então, a integral estocástica é dada por
$$e^{\beta t}X_t=e^{\beta_s}X_s+\int_s^t \alpha e^{\beta_u}dB(u), s\leq t.$$
Portanto, $X_t$ é dado por
$$X_t=e^{-\beta(t-s)}X_s+\alpha \int_s^t e^{-\beta(t-u)}dB(u), \quad s\leq t.$$
Em particular, quando $s=0$, temos que a solução para a equação de Langevin é dada por
$$X_t=e^{-\beta t}x_0+\alpha \int_0^t e^{-\beta(t-u)}dB(u).$$

Definição 10.4.1:

A solução de $X_t$ é chamada um processo de Ornstein-Uhlenbeck.

 

Teorema 10.4.3:

Seja $X_t$ um processo de Ornstein-Uhlenbeck dado por
$$X_t=e^{-\beta t}x_0+\alpha \int_0^t e^{-\beta(t-u)}dB(u).$$
Então, temos que a probabilidade condicional é dada por
$$\mathbb{P}(X_t\leq y|X_s=x)=\int_{-\infty}^y G_{\frac{\alpha^2}{2\beta}(1-e^{-2\beta(t-s)})}(e^{-\beta(t-s)}x,v)dv,\quad s\textless t$$
no qual $G_t(m,v)=\frac{1}{\sqrt{2\pi t}}e^{-\frac{1}{2t}(v-m)^2}$, é uma função de densidade de uma Normal em v com média $m$ e variância $t$. Em particular quando $s=0$ e $x=x_0$, a variável aleatória $X_t$ é uma Normal com média $x_0e^{\beta t}$ e variância $\frac{\alpha^2}{\beta}(1-e^{-2\beta t})$.
Demonstração:
Seja $s\leq t$. Então, dado $X_s=x$, temos que pela equação acima
$$X_t=e^{-\beta (t-s)}x+\alpha \int_{s}^t e^{-\beta(t-u)}dB(u).$$
Note que a integral da equação acima é uma integral de Wiener, a qual é uma variável aleatória com média 0 e variância
$$\alpha^2\int_s^t e^{-2\beta(t-u)}du=\frac{\alpha^2}{2\beta}(1-e^{-2\beta(t-s)}).$$
Portanto a variável $X_t$ é dado por $X_s=x$ é uma normal com media $e^{-\beta(t-s)}x$ e a variância $\alpha^2(1-e^{2\beta (t-s)})/(2\beta)$. Portanto o resultado segue.
 

Formula de Itô Multidimensional 

 

Seja $B_1(t),B_2(t),\dots B_m(t)$ m movimento Browniano independentes. Considere o processo de Itô $X_t^{(1)}, X_t^{(2)},\dots ,X_t^(n)$ dado por

$$X_t^{i}=X_a^{(i)}+\sum_{j=1}^m \int_a^t f_{ij}(s)dB_j(s)+\int_a^t g_i(s)ds, \quad 1\leq i\leq n,$$ 
no qual $f_{ij}\in \mathcal{L}_{ad}(\Omega,L^2[a,b])$ e $g_i\in \mathcal{L}_{ad}(\Omega,L^1[a,b])$ para todo $1\leq i\leq n$ e $1\leq j\leq m$. Se introduzimos a forma matricial temos

$$B(t)=\left[\begin{array}{l}B_1(t)\\ B_2(t)\\ \vdots\\ B_m(t) \end{array}\right],\quad X_t=\left[\begin{array}{l} X^{(1)}_t\\ X^{(2)}_t\\ \vdots\\ X^{(n)}_t \end{array}\right]$$

$$f(t)=\left[\begin{array}{l} f_{11}(t)\dots f_{1m}(t)\\ \vdots \ddots \vdots\\ f_{n1}(t)\dots f_{nm}(t)\\ \end{array}\right],\quad g(t)=\left[\begin{array}{l} g_1(t)\\ \vdots\\ g_n(t) \end{array}\right]$$
então a equação acima pode ser escrito na forma matricial
$$X_t=X_a+\int_a^t f(s)dB(s)+\int_a^t g(s)ds,\quad \quad a \leq t\leq b.$$

Portanto podemos extender a formula de Itô para o caso multi-dimensional. Suponha $\theta(t,x_1,\dots, x_n)$ é uma função contínua em $[a,b]\times \mathbb{R}^n$ e com derivadas parciais contínuas $\frac{\partial \theta}{\partial t}, \frac{\partial \theta}{\partial x_i}$ e $\frac{\partial^2 \theta}{\partial x_i \partial x_j}$ para $1\leq i,j \leq n$. Então a equação diferencial estocástica de $\theta(t,X_t^{(1)},\dots,X_t^{(n)})$ é dado por

$$d\theta(t,X^{(1)}_t,\dots,X^{(n)}_t)$$
$$=\frac{\partial \theta}{\partial t}(t, X^{(1)}_t,\dots, X_t^{(n)})dt+\sum_{i=1}^n \frac{\partial \theta}{\partial x_i}(t, X^{(1)}_t,\dots, X_t^{(n)})dX_t^{(i)}+\frac{1}{2}\sum_{i,j=1}^n \frac{\partial^2 \theta}{\partial x_i \partial x_j}(t, X^{(1)}_t,\dots, X_t^{(n)})dX_t^{(i)}dX_t^{(j)},$$
no qual o produto $dX_t^{(i)}dX_t^{(j)}$ pode ser calculada usando a tabela abaixo

x $dB_j$(t) dt
$dB_i(t)$ $\delta_{ij}dt$ 0
dt 0 0

 

O produto $dB_i(t)dB_j(t)=0$ para $i\neq j$. Isto decorre $B_1(t)$ e $B_2(t)$ dois processos independentes movimentos Browniano e seja $\Delta_n=\{t_0,t_1,\dots,t_{n-1},t_n\}$ uma partição de $[a,b]$. Então
$$\sum_{i=1}^n (B_1(t_i)-B_1(t_{i-1}))(B_2(t_i)-B_2(t_{i-1}))\rightarrow 0$$
em $L^2(\Omega)$ como $\|\Delta_n\|=\max_{1\leq i\leq n}(t_i-t_{i-1})$ tende a zero.

Exemplos

Considere a função $\theta\ (x,y)=xy$. Temos que $\frac{\partial \theta}{\partial x}=y, \frac{\partial \theta}{\partial y}=x$, $\frac{\partial^2 \theta}{\partial y\partial x}=1$, e $\frac{\partial^2 \theta}{\partial x^2}=\frac{\partial^2 \theta}{\partial y^2}=0$ e $\frac{\partial^2 \theta}{\partial x\partial y}=\frac{\partial \theta}{\partial y\partial x}=1$. Aplicando a equação acima para $\theta(x,y)$ para doi processos de Itô $X_t$ e $Y_t$ temos que
$$d(X_tY_t)=Y_tdX_t+X_tdY_t+\frac{1}{2}dX_tdY_t+\frac{1}{2}dY_tdX_t=Y_tdX_t+X_tdY_t+dX_tdY_t.$$

Portanto,
$$X_tY_t=X_aY_a+\int_a^t Y_sdX_s+\int_a^t X_sdY_s+\int_a^tdX_sdY_s.$$

A igualdade acima é chamada de formula produto de Itô. Se $X_t$ e $Y_t$ é dado por
$$dX_t=f(t)dB(t)+\xi(t)dt$$
e
$$dY_t=g(t)dB(t)+\eta(t)dt$$
Então a formula produtos nos fornece que
$$X_tY_t=X_aY_a+\int_a^t \left(f(s)Y_s+g(s)X_s\right)dB(s)+\int_a^t\left(\xi(s)Y_s+\eta(s)X_s+f(s)g(s)\right)ds$$
Em particular temos que, que quando $\xi=\eta=0$, temos que
$$X_tY_t=X_aY_a+\int_a^t\left(f(s)Y_s+g(s)X_s\right)dB(s)+\int_a^t f(s)g(s)ds.$$
This implica que o processo estocástico
$$\left(\int_a^t f(s)dB(s)\right)\left(\int_a^t g(s)dB(s)\right)-\int_a^t f(s)g(s)ds$$
é um martingale local para qualquer $f,g \in \mathcal{L}_{ad}(\Omega,L^2[a,b])$.

 

Formula de Itô para Martingales

 

Seja $M(t)$ um martingale contínua a direita com limite a esquerda, tal que $\mathbb{E}(M^2(t))\textless \infty$ para cada $t\in [a,b]$. Omitiremos a demonstração do Teorema a seguir, mas salientamos que para demonstrar esse teorema devemos ter bastante cuidado, pois um martingale qualquer pode ter saltos, ou seja, pode ter partes descontínuas (um exemplo é o compensador do processo de Poisson compensado). Por conta disso, devemos tomar bastante cuidado nesses pontos de salto.

 

Teorema 10.4.4:

Seja $M_t$ um martingale contínuo a direita e quadrado integrável com limite a esquerda. Suponha que $F$ seja uma função $C^2$. Então
$$F(M_t)=F(M_a)+\int_a^t F^\prime(M_{s-})dM_s+\frac{1}{2}\int_a^t F^{\prime\prime}(M_s)d[M]_s^c+\sum_{a\leq s\leq t}\left(F(M_s)-F(M_{s-})-F^\prime(M_{s-})\Delta M_s\right),$$
no qual, $[M]^c_s$ é a parte contínua de $[M]_s$ e $\Delta M_s=M_s-M_{s-}.$

 

Teorema 10.4.5:

Seja $M_t$ um martingale contínuo e quadrado integrável. Suponha que $F(t,x)$ seja uma função contínua com derivadas parciais
$$\frac{\partial F}{\partial t}, \frac{\partial F}{\partial x},\quad \frac{\partial^2 F}{\partial x^2}.$$
Então,
$$F(t,M_t)=F(a,M_a)+\int_a^t \frac{\partial F}{\partial t}(s,M_s)ds+\int_a^t \frac{\partial F}{\partial x}(s,M_s)dM_s+\frac{1}{2}\int_a^t \frac{\partial^2 F}{\partial x^2}(s,M_s)d\langle M\rangle_s$$

 

Teorema 10.4.6:

Suponha $M_1(t)\dots,M_n(t)$ são martingales contínuos e quadrado integráveis. Seja $F(t,x_1,\dots, x_n)$ uma função com derivadas parciais contínuas
$$\frac{\partial F}{\partial t}, \frac{\partial F}{\partial x_i}, \quad \frac{\partial^2 F}{\partial x_i\partial x_j}$$
para $1\leq i,j\leq n$. Então
$$dF=\frac{\partial F}{\partial t}dt+\sum_{i=1}^n \frac{\partial F}{\partial x_i}dM_i(t)+\frac{1}{2}\sum_{i,j=1}^n \frac{\partial^2 F}{\partial x_i\partial x_j} d\langle M_i,M_j\rangle_t,$$
no qual $\langle \cdot,\cdot\rangle$ é a variação cruzada do processo dada por
$$\langle X,Y\rangle_t=\frac{1}{4}\left\{\langle X+Y\rangle_t-\langle X-Y\rangle_t\right\}.$$

 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]