9.2 - Processo de Poisson Composto

Você está aqui

Neste módulo, vamos estudar uma extensão do Processo de Poisson nos quais o tamanho do salto não é fixo (igual a 1), mas é representado por uma variável aleatória. O processo de Poisson composto é base para o entendermos a estrutura de salto do processo de Lévy. Considere $(\Omega, \mathcal{F}, \mathbb{P})$ um espaço de probabilidade completo. O processo de Poisson composto com intensidade $\lambda \textgreater 0$ e tamanho de saltos com distribuição $F$ é o processo estocástico definido por $Y(0)=0$ e $$Y(t) = \displaystyle\sum_{i=1}^{N(t)} J_i,$$ em que

(1) Os tamanhos dos saltos $J_i$, $i \in \mathbb{N}$, são v.a.s independentes e identicamente distribuidas com distribuição $F$;

(2) $N=\{N(t):0\leq t \leq T\}$ é um processo de Poisson de intensidade $\lambda$, independente dos saltos $\{J_1, J_2, \ldots \}$.

Ao denotarmos por $0 = T_0 \textless T_1 \textless T_2 \ldots $ os instantes de saltos do processo de Poisson $N$, obtemos que $$Y(t)=\sum_{n=1}^\infty J_i 1\!\!1_{\{T_n\leq t\}},\quad 0 \leq t \leq T.$$  Desde que os instantes de salto são determinados por um processo de Poisson e o tamanho dos saltos são determinados por variáveis aleatórias independentes e identicamente distribuídas, obtemos que $Y$ é um processo de Lévy homogêneo. Denotamos por $\mathbb{F}^0$ a filtragem interna do processo de Poisson composto e por $\mathbb{F}$ a filtragem interna completada, ver a seção sobre base estocástica. Como $Y$ é um processo de Lévy, sabemos que $\mathbb{F}$ é contínua à direita. Ao longo deste módulo, sempre que nos referirmos ao processo de Poisson composto com intensidade $\lambda$ e tamanho dos saltos com distribuição $F$, iremos denotar por $PPC(\lambda, F)$.
 
Teorema 9.2.1:
Seja $Y$ um $PPC(\lambda, F)$. Então, temos que $\mathbb{E}\left[Y(t)\right] = \lambda tk,$ em que $k = \mathbb{E}\left[J_1\right]$, com $J_1$ é o tamanho do primeiro salto.
Demonstração: 
Por propriedade de esperança condicional $$\mathbb{E}\left[Y(t)\right] = \mathbb{E}\left[ \mathbb{E}\left[Y(t)| N(t) \right]\right].$$ Sabemos que, $$\mathbb{E}\left[\mathbb{E}\left[Y(t)\mid N(t) \right]\right]=\mathbb{E}\left[ \mathbb{E}\left[\sum_{l=1}^{N(t)} J_l\Big| N(t)\right]\right]=\sum_{n=0}^{\infty} \mathbb{E}\left[\sum_{l=1}^{N(t)} J_l \Big| N(t) =n\right] P(N(t) =n)= \sum_{n=0}^{\infty} \mathbb{E}\left[\sum_{l=1}^{n} J_l\right] P(N_t =n).$$ Além disso, $$\mathbb{E}\left[\sum_{l=1}^{n} J_l\right]=\sum_{l=1}^{n}\mathbb{E}\left[ J_l\right]=nk.$$ Com os resultados acima, concluímos que $$\mathbb{E}Y(t)=\sum_{n=0}^{\infty} nk P(N(t) =n)= k\sum_{n=0}^{\infty} n P(N_t =n)= k \mathbb{E}\left[N(t)\right].$$ Como $N$ é um processo de Poisson, concluímos o teorema.
A seguir, vamos calcular a função característica associada ao processo de Poisson composto.
 
Teorema 9.2.2:
A função característica do processo $Y$ é dada por $$\varphi_t(u)=\exp\left\{t \int_{-\infty}^{\infty} (e^{iux} -1)\lambda F(dx)\right\},$$ para todo $u\in \mathbb{R}$ e $0 \leq t \leq T$.
Demonstração:
Por definição, temos que $$\varphi_t(u)=\mathbb{E}\left[e^{iuY(t)}\right]=\mathbb{E}\left[\exp{\left(iu \sum_{l=1}^{N(t)} J_l\right)}\right].$$ Via a propriedade de torre da esperança condicional, temos que $$\mathbb{E}\exp{\left(iu \sum_{l=1}^{N(t)} J_l\right)}=\sum_{n=0}^{\infty}\mathbb{E}\left[\exp{\left(iu \sum_{l=1}^{N(t)} J_l\right)} \Big|N(t)=n\right]P(N(t)=n)=\sum_{n=0}^{\infty}\mathbb{E}\left[\exp{\left(iu \sum_{l=1}^{n} J_l\right)} \right]P(N(t)=n).$$
Como $N$ é o processo de Poisson e $\{J_i:i \geq 1\}$ são variáveis aleatórias independentes e identicamente distribuídas, concluímos que $$\varphi_t(u) = \sum_{n=0}^{\infty} \left(\mathbb{E}\left[\exp{(iu J_1)} \right]\right)^n \frac{e^{-\lambda t}(\lambda t)^n}{n!}.$$ Desde que, $$\mathbb{E}\left[\exp{(iu J_1)} \right] = \int_{-\infty}^{\infty} e^{iuy} F(dy),$$ obtemos que $$\varphi_t(u)=\sum_{n=0}^{\infty} \left(\int_{-\infty}^{\infty} e^{iuy} F(dy) \right)^n \frac{e^{-\lambda t}(\lambda t)^n}{n!}=e^{-\lambda t}\sum_{n=0}^{\infty}\dfrac{\left(\lambda t \int_{-\infty}^{\infty} e^{iuy} F(dy) \right)^n}{n!}=\exp\left\{-\lambda t + \lambda t \int_{-\infty}^{\infty} e^{iuy} F(dy)\right\}= \exp\left\{-\lambda t\left(\int_{-\infty}^{\infty} e^{iuy} F(dy) - 1\right)\right\}.$$ Portanto, temos que $$\varphi_t(u)= \exp\left\{-\lambda t\left(\int_{-\infty}^{\infty} e^{iuy} F(dy) - \int_{-\infty}^{\infty} 1F(dy)\right)\right\}= \exp\left\{t \int_{-\infty}^{\infty} (e^{iuy} -1)\lambda F(dy)\right\}.$$ 
 
Na sequência, vamos estudar propriedades da filtragem interna do processo de Poisson composto. Conforme definido no módulo sobre tempos de parada, dado $R$ um tempo de parada, o conjunto de informação até $R$ corresponde a $\sigma$-álgebra avaliada até o tempo de parada $R$, $$\mathcal{F}_R := \{\Lambda \in \mathcal{F}: \Lambda \cap\{R\leq t\}\in\mathcal{F}_t,~0\leq t \leq T\}.$$ O conjunto de informações estritamente anteriores a $R$ será denotado por $\mathcal{F}_{R^{-}}$ e definido por: $$\mathcal{F}_{R^-} := \sigma\{\Lambda\cap\{s\textless R\}: \Lambda \in \mathcal{F}_s, 0 \leq s \leq T\}.$$ No módulo de tempos de parada, mostramos que $\mathcal{F}_{R^-}\subset \mathcal{F}_R$. Além disso, o tempo de parada $R$ é $\mathcal{F}_{R^-}$-mensurável. Denotamos por $\mathbb{F}^o$ a filtragem interna do processo de Poisson composto e por $\mathbb{F}$ o completamento da filtragem interna $\mathbb{F}^o$. 
 
Teorema 9.2.3
Sejam $Y$ um $PPC(\lambda, F)$, $T_1,T_2,\ldots$ os tempos de ocorrências dos saltos e $J_1$, $J_2$, $\ldots$ os tamanhos dos saltos. Valem as igualdades:
 
(1) $\mathcal{F}^o_{T_n}=\sigma\big\{(T_1, J_1); \ldots ;(T_n, J_n)\big\}$;
(2) $\mathcal{F}^o_{{T_n}^-} = \sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1}); T_n\big\}$.
 
Demonstração:
Inicialmente, mostraremos que $$\sigma\big\{(T_1, J_1); \ldots ;(T_n, J_n)\big\} \subset \mathcal{F}^o_{T_n}.$$ De fato, como $T_n ~\text{é} ~\mathcal{F}^o_{T_n}\mbox{-mensurável}$, obtemos que $T_i ~\text{é} ~ \mathcal{F}^o_{T_n}\text{-mensurável}$ para todo $i\leq n.$ 

Na sequência, mostraremos que $Y(T_n)$ é $\mathcal{F}^o_{T_n}$-mensurável. Desde que $\mathbb{F}^o$ é a filtragem interna do processo de Poisson composto, sabemos que $Y$ é adaptado e progressivamente mensurável. Assim, ao tomarmos $B$ um boreliano da reta, obtemos que
$$\left\{ \sum^{\infty}_{l=1} J_l 1\!\!1_{\{T_l \leq T_n\}} \in B\right\} \cap \left\{T_n \leq t\right\} \in \mathcal{F}^o_t.$$ Com isso, concluímos que $\{Y(T_n) \in B\} \in \mathcal{F}^o_{T_n}$. Sabemos que os saltos são dados por,
$$J_n=Y_{T_n} - Y_{T_{n-1}}.$$ Logo, obtemos que $J_n$ é $\mathcal{F}^o_{T_n}$-mensurável. Como consequência, temos que
$$J_i \mbox{ é } \mathcal{F}^o_{T_n}\mbox{-mensurável } \forall i \leq n.$$

Para mostrarmos a recíproca, basta notarmos que $Y(u \wedge T_n)$ é $\sigma\left(\left(T_1, J_1\right),\ldots \left(T_n, J_n\right)\right)$-mensurável, para todo $u \geq 0$. De fato, como  $Y(u \wedge T_n)$ é um processo cadlag $\mathbb{F}$-adaptado, segue a parte (1).

Na parte (2), mostraremos que $\mathcal{F}^o_{{T_n}^-} = \sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1}); T_n\big\}$. Como
$$\mathcal{F}^o_{{T_n}^{-}} = \sigma\{\Lambda \cap \{T_n \textgreater t\}\ e \ \Lambda \in \mathcal{F}^o_t ;\ t\geq 0\},$$ basta mostrarmos que a classe
$$\{\Lambda \cap \{T_n \textgreater t\}\} \subset \sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1}); T_n\big\}.$$ Sabemos que
$$\mathcal{F}^o_t = \sigma\left\{1\!\!1_{\{J_n \in A\}} 1\!\!1_{\{T_n \leq s\}},n\geq 1,~0\leq s\leq t,~A\in \beta(\mathbb{R})\right\},$$
em que $\beta(\mathbb{R})$ corresponde a $\sigma$-álgebra dos borelianos da reta.

Tomamos
$$\Lambda = \left\{ \sum_{n=1}^{\infty} 1\!\!1_{\{J_n \in A\}} 1\!\!1_{\{T_n \leq s\}} = k\right\}.$$ Assim, temos que
$$\Lambda \cap \{T_n \textgreater t\} = \underbrace{\left\{\sum_{l=1}^{n-1} 1\!\!1_{\{J_l \in A\}} 1\!\!1_{\{T_l \leq s\}}=k\right\}}_{\in\ \mathcal{F}_{{T_n}^{-}}} \cap \underbrace{\{T_n \textgreater t\}}_{\in\ \sigma(T_n)}.$$ Portanto, concluímos que
$$\mathcal{F}^o_{{T_n}^{-}} \subset \sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1}); T_n\big\}.$$ 

A seguir, vamos mostrar a recíproca. Como
$$\sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1})\big\}= \mathcal{F}^o_{T_{n-1}} \subset \mathcal{F}^o_{T_{n^{-}}},$$ basta observarmos que que $T_n$ é $\mathcal{F}^o_{T_{n^{-}}}$-mensurável, ver o módulo de tempos de parada. Logo, concluímos que
$$\sigma\big\{(T_1, J_1); \ldots ;(T_{n-1}, J_{n-1}); T_n\big\} \subset \mathcal{F}^o_{{T_n}^{-}} .$$ Segue o teorema.

Sabemos que a filtragem interna $\mathbb{F}^o$ é dada por $$\mathcal{F}^o_t=\sigma\{Y(s \wedge t): s \geq 0\}.$$ Desta forma, para todo $n \geq 0$, temos que $$\mathcal{F}^o_t \cap \{T_n \leq t \textless T_{n+1} \} =\sigma\{X(s \wedge T_n): s \geq 0\} \cap \{T_n \leq t \textless T_{n+1} \},$$ pois $Y(s \wedge T_n(\omega), \omega)=Y(s \wedge t,\omega)$ para todo $\omega \in \{T_n \leq t \textless T_{n+1} \} $ para todo $s \geq 0$. Por construção, temos que $$\sigma\{X(s \wedge T_n): s \geq 0\} = \sigma\big\{(T_1, J_1); \ldots ;(T_n, J_n)\big\}, ~ ~ n \geq 1.$$ Como consequência do teorema 9.2.3, concluímos que $$\mathcal{F}^o_t = \cup_{n=1}^\infty \left\{ \mathcal{F}^o_{T_n} \cap \{T_n \leq t \textless T_{n+1} \} \right\}, ~ ~ t \geq 0,$$ no qual $\mathcal{F}_0^o$ é a $\sigma$-álgebra trivial. Neste caso, dizemos que a filtragem inerna do processo de Poisson composto $Y$ é do tipo discreta.

Na sequência, vamos estudar propriedades dos saltos do processo de Poissom composto. Considere $X$ um processo estocástico adaptado à filtragem interna $\mathbb{F}$ do processo de Poisson composto $Y$. Dizemos que $X \in \textbf{B}^p$ se $$\mathbb{E} [\sup_{0 \leq s \leq T} \mid X(t) \mid ]^p \textless \infty,$$ para $p \textgreater 0$. A seguir, vamos rever alguns conceitos introduzidos na seção sobre processo estocástico. A $\sigma$-álgebra dos subconjuntos em $[0, \infty) \times \Omega$ gerada pelos processos $\mathbb{F}$-adaptados e contínuos é denominada previsível e será denotada por $\mathcal{P}$. Da mesma forma, denotamos por $\mathcal{O}$ a $\sigma$-álgebra gerada pelos processo contínuos à direita e com limites à esquerda (cadlag), denominada $\sigma$-álgebra opcional.

Definição 9.2.4: Dado um processo estocástico $X \in \textbf{B}$. Se existe um processo $\mathbb{F}$-previsível $N$, tal que $X-N$ é um $\mathbb{F}$-martingale, dizemos que $N$ é o compensador de $X$.

Se$X \in \textbf{B}$ é um processo de Lévy, sabemos que o processo $M(t)=X(t)-\mathbb{E}(X(t))$ é um $\mathbb{F}$-martingale. Portanto, o compensador $N(t) =\mathbb{E}(X(t))$ é determinístico. Como o processo de Poisson composto pode ser escrito na forma $$Y(t,\omega) = \sum_{n=1}^{\infty}\Delta Y(T_i(\omega), \omega) 1\!\!1_{\{T_i(\omega) \leq t\}}(\omega),$$ podemos associar ao processo $Y$ uma medida aleatória $\mu: \Omega\times \beta([0, T]) \times \beta(\mathbb{R})\rightarrow [0, \infty]$, de modo que
$$\mu\left(\omega, \left[ 0,t \right], B\right) = \sum_{n=1}^{\infty}1\!\!1_B(J_n)1\!\!1_{\{T_n(\omega)\leq t\}}(\omega),$$ para todo $\omega \in \Omega$, $t \in [0,T]$ e $B \in \beta(\mathbb{R})$. A medida $\mu$ caracteriza o processo $Y$, pois $$Y(t, \omega) = \int_0^t\int_{-\infty}^{\infty}x\mu(\omega, ds, dx), \quad t \geq 0.$$

Como os incrementos do processo de Poisson composto são independentes, obtemos que o processo estocástico $\mu(\cdot , [0,t], B)$ também tem incrementos independentes, para todo $B \in \beta(\mathbb{R})$ fixo. Assim, existe uma medida $\nu$ definida sobre $([0,T]\times \mathbb{R}; \beta([0,T]\times \beta(\mathbb{R})))$, que é o compensador de $\mu$, definida por $$ \nu([0,t], B) = \mathbb{E}\left[\mu([0,t]\times B)\right], \quad t \geq 0 \quad \mbox{e} \quad B \in \beta(\mathbb{R}).$$  Por definição, temos que $$ \nu([0,t], B) = \mathbb{E}\left[\mu([0,t]\times B)\right] = \mathbb{E}\left[\sum_{n=1}^{\infty}1\!\!1_{\{B\}}(J_n)1\!\!1_{\{T_n\leq t\}}\right] = \sum_{n=1}^{\infty}\mathbb{E}\left[1\!\!1_{\{B\}}(J_n)1\!\!1_{\{T_n\leq t\}}\right]=$$ $$\sum_{n=1}^{\infty}\mathbb{E}\left[1\!\!1_{\{B\}}(J_n)\right]\mathbb{E}\left[1\!\!1_{\{T_n\leq t\}}\right]=\int_BF(dx)\mathbb{E}\left[N_t\right] = \int_B\int_0^t\lambda F(dx)ds,\quad t\geq 0\quad \mabox{e} \quad B \in \beta(\mathbb{R}).$$

Portanto, obtemos que $$\nu(ds, dx) = \lambda F(dx)ds \quad \mbox{e} \quad \int^{\infty}_{-\infty} x\nu([0,t], dx) = \lambda t\mathbb{E} \left[J_1\right] \textless \infty.$$ Nesta seção, vamos admitir que $\mathbb{E} [J_1]^2 \textless \infty$. Assim, concluímos que $$\int^{\infty}_{-\infty} |x|^2\nu([0,T], dx) = \lambda T\mathbb{E} \left[J_1\right]^2 \textless \infty.$$ A seguir, introduzimos o conceito de variação quadrática do processo de Poisson composto $Y$.

Definição 9.2.5: O processo variação quadrática $[Y,Y]$ é definido por $$[Y,Y](t) = \sum_{n=1}^{\infty}\left(Y(T_n)-Y(T_{n-1})\right)^2 1\!\!1_{\{T_n \ \leq t\}}.$$

Podemos decompor o  processo variação quadrática, na forma $$[Y,Y](t) = \int_0^t\int_{-\infty}^{\infty}x^2 \mu( ds, dx)= \int_0^t\int_{-\infty}^{\infty}x^2 \mu( ds, dx) - \int_0^t\int_{-\infty}^{\infty}x^2 \nu(ds, dx) + \int_0^t\int_{-\infty}^{\infty}x^2 \nu(ds, dx)$$
$$ = \int_0^t\int_{-\infty}^{\infty}x^2 (\mu(ds, dx) - \nu(ds, dx)) + \int_0^t\int_{-\infty}^{\infty}x^2 \nu(ds, dx).$$

Como o processo $\nu( [0,t], B)$ é compensador de $\mu(\cdot, [0,t], B)$, definimos o processo angle bracket $\left\langle Y, Y \right\rangle$ por
$$\left\langle Y, Y\right\rangle(t)= \int_0^t\int_{-\infty}^{\infty}x^2 \nu(ds, dx) = \int_0^t\int_{-\infty}^{\infty}x^2\lambda F(dx)ds =\lambda t\theta,$$
em que $\mathbb{E}\left[J_i^2\right] = \theta$, $i \in \mathbb{N}$. Por construção temos que  $[Y,Y](t) - \left\langle Y, Y\right\rangle(t)$ é um martingale.

 

 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]