7 - Processo de Poisson

Você está aqui

O processo de Poisson é o processo estocástico a tempo contínuo com a estrutura mais simples. Este processo conta o número de eventos de interesse em um intervalo da reta. Por exemplo, o número de falhas de um sistema durante um intervalo de tempo.  Nesta seção, vamos construir o processo de Poisson e estudar suas principais propriedades.

Seja $(T_n)_{n\textgreater 0}$ uma sequência de variáveis aleatórias positivas estritamente crescente $(T_0=0 \ \textless \ T_1 \ \textless \ T_2 \cdots)$ definidas na base estocástica $\mathfrak{B}=(\Omega,\mathcal{F},\mathbb{F},\mathbb{P})$. As variáveis aleatórias $\{T_n\}$ representam os instantes de tempo nos quais o evento de interesse ocorre. Para contar o número de eventos ocorridos até o tempo $t \geq 0$, introduzimos a função indicadora

$$1\!\!1_{\{T_n\leq t\}}=\left\{\begin{array}{l} 1,~~se~~T_n(\omega)\leq t \\ 0,~~se~~T_n(\omega)\textgreater t.\end{array}\right,$$ para $n \geq 1$. A partir destes elementos, vamos introduzir o processo de contagem dos eventos de interesse.

Definição 7.1:

O processo estocástico $N=(N_t)_{0\leq t \leq \infty}$ definido por: $$N_t=\displaystyle \sum_{n\geq 1}1\!\!1_{\{T_n\leq t\}}$$ é denominado processo de contagem associado a sequência $(T_n)_{n\geq 1}.$

Definimos também $T= \sup_n T_n$, então $$[T_n,\infty)=\{N\geq n\}=\{(t,\omega):N_t(\omega)\geq n\},$$ e ainda $$[T_n,T_{n+1})=\{N=n\}=\{(t,\omega):N_t(\omega)= n\}, ~ [T,\infty)=\{N=\infty\} ~ ~ \text{e} ~ ~ N_{T_n}=n.$$

A variável aleatória T é denominada tempo de explosão do processo de contagem $N$. Se temos $T=\infty$ quase certamente então $N$ é um processo de contagem não explosivo. Para um processo de contagem $N$ não explosivo e para $0\leq s\textless t\textless \infty$, temos que

$$N_t-N_s=\displaystyle\sum_{n\geq 1}1\!\!1_{\{s\textless T_n\leq t\}}$$ conta o numero de eventos que ocorrem entre o tempos $s$ e $t$ fixos.

Observação: 

É importante notarmos que da maneira como definimos o processo de contagem $N$, este não necessariamente é um processo adaptado a filtagem $\mathbb{F}$. Pois, ser um processo adaptado depende estritamente da filtragem, ou seja, o processo pode ser adaptado para uma determinada filtragem e não ser para outra. O teorema a seguir o nos diz sob qual circunstância $N$ é um processo adaptado com respeito a filtragem $\mathbb{F}$.

Teorema 7.1: 

O processo de contagem $N$ é um processo adaptado, se e somente se, a variável aleatória $T_n$ é um tempo de parada para to $n \geq 1$.

Demonstração: 

Suponha primeiramente que $(T_n)_{n\geq 1}$ são tempos de parada, assim temos que o evento $$\{N_t=n\}=\{\omega\in \Omega: T_n(\omega )\leq t\textless T_{n+1}(\omega)\}\in \mathcal{F}_t,$$ para todo $n\geq 0$. Então temos que $N_t$ é $ \mathcal{F}_t$-mensurável e portanto N é um processo adaptado.

Agora suponha que $N$ seja um processo adaptado, então o evento $$\{T_n\leq t\}=\{N_t\geq n\}\in \mathcal{F}_t,$$ para todo $t \geq 0$.  Portanto temos que $T_n$ é um tempo de parada. E o resultado segue.

Definição 7.2: 

Um processo estocástico $\{N_t, t\geq 0\}$ é dito possuir incrementos independentes se para quaisquer $t_1, t_2, t_3,\cdots, t_n$, com $0\textless t_1\textless t_2\textless \cdots \textless t_n$ temos que $$N_0, N_{t_1}-N_{0}, N_{t_2}-N_{t_1},\cdtos , N_{t_n}-N_{t_{n-1}}$$ são variáveis aleatórias independentes em $(\Omega, \mathcal{F} , \mathbb{P})$.

Por exemplo, isto significa que o número de eventos que tenham ocorrido até tempo t (que é dado por $N_t$) deve ser independente do número de eventos que ocorrem entre os tempos de t e t + s (isto é, $N_{t + s}-N_t$).

Definição 7.3: 

Um processo estocástico $N=\{N_t, t\geq 0\}$  é dito ter incrementos estacionários se $P[N_{t+s}-N_{t}=k]=P[N_{s}=k]$, para qualquer $t\geq 0$ e qualquer $k \geq 0$.

Definição 7.4: 

O processo de contagem $\{N_t, t\geq 0\}$ adaptado na filtragem $\mathbb{F}=\{\mathcal{F}_t : t \geq 0\}$ e não explosivo é dito ser um processo de Poisson se:

  1.  N(0)=0.
  2. Incrementos independentes.
  3. Incrementos estacionários.

Com o resultado a seguir, vamos mostrar que o número de saltos relacionado com o processo de Poisson segue a distribuição de Poisson, ou seja,  $N_t$ tem distribuição de Poisson com parâmetro $\lambda t$ para algum $\lambda \textgreater 0$, o que justifica o nome do processo estocástico de contagem.  Note que na definição do processo $N$ em momento algum foi citado que o processo tem alguma relação com a distribuição de Poisson, obtemos isso como consequência desta definição.

Teorema 7.2: 

Seja  N um processo de Poisson. Então, temos que $$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N},$$ para algum $\lambda\textgreater 0$. Ou seja, $N_t\sim ~~Poisson(\lambda t)$. Além disso, o processo $N$ é contínuo em probabilidade (ou seja, $\displaystyle \lim_{t\rightarrow u}N_t=N_u$ tomando o limite em probabilidade, ou equivalentemente temos que $\lim_{t\rightarrow u}\mathbb{P}(|N_t-N_u|\geq \epsilon)=0, ~~\forall \epsilon \textgreater 0$) .

Demonstração: 

Para demonstrarmos esse resultado, vamos  dividi-lo em algumas etapas.

(a) Para todo $t\geq 0$, temos que $$\mathbb{P}(N_t=0)=e^{-\lambda t},$$ para algum $\lambda\textgreater 0.$

(b) $\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0.$

(c) $\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lambda$, no qual $\lambda$ é a constante que aparece em (a).

(d) E por fim o resultado desejado. Temos que $$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N}.$$

 

(a) Primeiramente observe que o número de chegadas no intervalo $[0,t+s]$ é zero se, e somente se, não existe chegada no intervalo $[0,t]$ e no intervalo $(t,t+s]$, ou seja, o evento $\{N_{t+s}=0\}$ é igual ao evento $\{N_t=0, N_{t+s}-N_t=0\}$. Por definição esses eventos são independentes, então, $$\mathbb{P}[N_{s+t}=0]=\mathbb{P}[N_t=0, N_{t+s}-N_t=0]=\mathbb{P}[N_t=0]\mathbb{P}[N_{t+s}-N_t=0].$$

Por outro lado temos que a distribuição é estacionária. Assim, temos que $$\mathbb{P}[N_{t+s}-N_t=0]=\mathbb{P}[N_s=0].$$  Logo, concluímos que $$\mathbb{P}[N_{s+t}=0]=\mathbb{P}[N_t=0, N_{t+s}-N_t=0]=\mathbb{P}[N_t=0]\mathbb{P}[N_s=0].$$ Portanto, temos que a função $g(t)=\mathbb{P}[N_t=0]$, satisfaz a seguinte condição $$g(t+s)=g(t)g(s).$$ Por um resultado clássico de análise matemática, sabemos que apenas duas funções satisfazem essa condição, ou $g(t)=0,~~ \forall t\geq 0$, ou $$g(t)=e^{-\lambda t},$$ para algum $\lambda \geq 0$. Formalmente temos que $\lambda\in \mathbb{R}$, porém como estamos tomando a função $g$ igual a uma probabilidade, temos que  $\lambda$ é não negativo. Assim, basta mostrarmos que $g(t)$ não pode ser zero para todo $t$.

De fato, note que se $g(t)$ for igual a $0$ para todo $t$, temos que $$N_{s}\stackrel{d}{=}N_{t+s}-N_t\geq 1, ~ ~ \mathbb{P}-q.c.,$$ não importando quão pequeno seja $s$. Assim sejam $t_1\textless t_2\textless t_3\textless \cdots \textless t_n=t$, então $$N_t=N_{t_1}+(N_{t_2}-N_{t_1})+\cdots +(N_{t_n}-N_{t_{n-1}}).$$ Desde que $$N_{t_i}-N_{t_{i-1}}\geq 1, ~~ \forall i=1,\cdots, n,$$ obtemos que $N_t(\omega)\geq n,~~ \forall n\in\mathbb{N} ~ \mathbb{P}-q.c.$. Mas isto implica que $$N_t=\infty,$$ o que é absurdo pois por hipótese N é um processo não explosivo. Isto implica que $g(t)$ não pode ser identicamente igual a $0$. Assim, concluímos que $g(t)=e^{-\lambda t}$ para algum $\lambda$ não negativo. Agora, se $\lambda =0$, temos que $\mathbb{P}[N_t=0]=1$ para todo $t \geq 0$. Como consequência, temos que $T_1 = \infty ~ ~ \mathbb{P}-q.c.$, o que é um absurdo, pois $T_1$ é uma variável aleatória. Assim, tomamos $\lambda \textgreater 0$.

(b) Queremos mostrar que $\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0$. Defina $f(t)=\mathbb{P}[N_t\geq 2]$.

Note que se $N_{t}\geq 2$ então $N_{t+s}\geq 2$, ou seja, $\{N_{t}\geq 2\}\subset\{N_{t+s}\geq 2\}$, isto implica que $$\mathbb{P}[N_t\geq 2]\leq \mathbb{P}[N_{t+s}\geq 2],$$ ou seja, $f(t)\leq f(t+s)$, isto é f é uma função não decrescente. Seja $n_t=\sup\{n\in\mathbb{N}: ~n\leq 1/t\}$, então $t\leq \displaystyle \frac{1}{n_t}$ e ainda $\displaystyle \frac{1}{t}\textless n_t+1$. Portanto temos que $f(t)\leq f\left(\frac{1}{n_t}\right)$ e

$$\displaystyle 0\leq \frac{1}{t}f(t)\leq (n_t+1)f\left(\frac{1}{n_t}\right)=\frac{n_t+1}{n_t}n_t f\left(\frac{1}{n_t}\right)$$

 

Como temos que $t\downarrow 0$, isto implica que $n_t\uparrow \infty$ e ainda $\displaystyle \frac{(n_t+1)}{n_t}\downarrow 1$. Desta forma é suficiente mostrar que $\displaystyle n f\left(\frac{1}{n}\right)$ quando $n\rightarrow \infty$.

Na sequência, dividimos o intervalo $[0,1]$ em n subintervalos de comprimento $1/n$ cada, seja $S_n(\omega)$ o número de subintervalos durante os quais houveram duas ou mais chegadas para a realização $\omega$.

Como $N$ tem incrementos independentes, interpretamos $S_n$ como sendo o número de sucessos em n ensaios de Bernoulli, no qual o sucesso na k-ésima tentativa significa que houveram duas ou mais chegadas durante o k-ésimo subintervalo. Então a probabilidade de sucesso de qualquer ensaio é dada por $p=f\left(\frac{1}{n}\right)$. Portanto temos que $$E[S_n]=np=\displaystyle nf\left(\frac{1}{n}\right).$$

Como $N$ é processo não explosivo, temos que para quase todo $\omega \in \Omega$, existe um tempo minimo $\delta(\omega)\textgreater 0$ entre duas chegadas no [0,1]. Assim para $n$ for suficientemente grande temos que $$\displaystyle\frac{1}{n}\textless \delta(\omega).$$ Então nenhum subintervalo irá conter duas chegadas, logo $S_n(\omega)=0$, para quase todo $\omega\in \Omega$. Portanto, obtemos que  $$\displaystyle \lim_{n\rightarrow \infty}S_n(\omega)=0,~~\mathbb{P}-qc.$$

Além disso, temos que $S_n$ é limitado, pois não pode ser maior que o número de chegadas que ocorrem no $[0,1]$, ou seja, $S_n$ é limitada por $N_1$, o qual o valor esperado é finito. Então, temos que $$E[S_n]\leq E[N_1]\textless \infty.$$ Logo, temos que a sequência $S_n$ é dominada. Portanto, pelo teorema da convergência dominada, temos que

$$\displaystyle \lim_{n\rightarrow \infty}nf\left(\frac{1}{n_t}\right)=\lim_{n\rightarrow \infty}E[S_n]=E[\lim_{n\rightarrow \infty} S_n]=E[0]=0,$$ o que implica que $\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0$. Como queríamos demonstrar.

(c) Queremos mostrar que $\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lambda$, no qual $\lambda$ é a constante que aparece em (a).

Note que, $$\mathbb{P}[N_t=1]=1-\mathbb{P}[N_t=0]-\mathbb{P}[N_t\geq 2].$$ Então, pelos itens (a) e (b) temos que $$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lim_{t\downarrow 0}\frac{1-e^{-\lambda t}}{t}-\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=\lambda.$$ E portanto o resultado segue.

(d) Por fim, iremos demonstrar o resultado principal, o qual nos diz que:

$$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N}.$$ Para isso, definimos a função $$F(t)=E[\alpha^{N_t}], ~~ com ~~\alpha \in (0,1).$$  Sabemos que $N_{t+s}=N_{t}+(N_{t+s}-N_t).$ Pela independência da variáveis aleatórias $N_{t+s}-N_t$ e $N_t$, temos que $$F(t+s)=E[\alpha^{N_{t+s}}]=E[\alpha^{N_{t}+(N_{t+s}-N_t)}]=E[\alpha^{N_{t}}]E[\alpha^{N_{t+s}-N_t}]=F(t)F(s.)$$

 

Desta forma, obtemos que $F(t)=0$ ou $F(t)=e^{tf(\alpha)}$, com $f$ sendo a derivada $F$ no ponto $t=0$. Desde que, $$F(t)=E[\alpha^{N_t}]=\displaystyle \sum_{n=0}^{\infty}\alpha^n \mathbb{P}[N_t=n]\geq P[N_t=0]=e^{-\lambda t},$$ obtemos que $F(t)$ não pode ser identicamente nula. Note também que $F(0)=1$, e $F(t)=\displaystyle \sum_{n=0}^{\infty}\alpha^{n}\mathbb{P}[N_t=n]$, portanto sua derivada é dada por

$$f(\alpha)=\displaystyle \lim_{t\downarrow 0}\frac{1}{t}(F(t)-1)=$$

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[\mathbb{P}(N_t=0)-1\right]+\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\alpha \mathbb{P}[N_t=1]+$$

$$+\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t=n].$$

Mas pelo item (a) temos que

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[\mathbb{P}(N_t=0)-1\right]=\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[e^{-\lambda t}-1\right]=-\lambda,$$ e pelo item (b), o segundo limite $$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\alpha \mathbb{P}[N_t=1]=\alpha \lambda.$$

Além disso, pelo item (c) e para todo $\alpha \in[0,1]$, temos que $$0\leq \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t=n]\leq $$

$$\leq \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t\geq 2]=\sum_{n=2}^{\infty}\alpha^n\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]\leq$$

$$\displaystyle \leq \sum_{n=0}^{\infty}\alpha^n\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=\frac{1}{1-\alpha}\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=0.$$ Como consequência, $$f(\alpha)=-\lambda +\lambda\alpha,~~\forall \alpha \in [0,1].$$ Desta forma, $$F(t)=e^{-\lambda t+\lambda t\alpha}.$$ Abrindo em serie de taylor em torno do zero. Temos

$$\displaystyle \sum_{n=0}^{\infty}\alpha^n \mathbb{P}[N_t=n]=\sum_{n=0}^{\infty}\frac{e^{-\lambda t}(\lambda t)^n}{n!}\alpha^n.$$ Pela igualdade da series temos que $$\mathbb{P}[N_t=n]=\displaystyle \frac{e^{-\lambda t}(\lambda t)^n}{n!}.$$ Portanto o resultado segue.

Na sequência, vamos mostrar que o processo de Poisson é contínuo em probabilidade, ou seja,  $$\displaystyle \lim_{t\rightarrow u}\mathbb{P}(|N_t-N_u|\geq \epsilon)=0,~~ \forall \epsilon \geq 0.$$

Para isso, primeiro observemos que para $t\textgreater u$ e $\epsilon \textgreater 1$ temos $$\mathbb{P}(|N_t-N_u|\geq \epsilon)=\mathbb{P}(N_t-N_u\geq \epsilon)=\mathbb{P}(N_t-N_u\neq 0)=$$

$$1-\mathbb{P}(N_t-N_u=0)=1-\mathbb{P}(N_{t-u}=0)=1-e^{-\lambda (t-u)}.$$

 

Da mesma forma para $t\textless u$ e $\epsilon \textgreater 1$ temos que

$$\mathbb{P}(|N_t-N_u|\geq \epsilon)=\mathbb{P}(N_u-N_t\geq \epsilon)=\mathbb{P}(N_u-N_t\neq 0)=$$

$$1-\mathbb{P}(N_u-N_t=0)=1-\mathbb{P}(N_{u-t}=0)=1-e^{-\lambda (u-t)}.$$

 

Logo,

$$\mathbb{P}(|N_t-N_s|\geq \epsilon)=1-e^{-\lambda |u-t|}.$$

 

Além disso, temos que 

$$[|N_t-N_u|\geq \epsilon]\subset [|N_t-N_u|\textgreater 0], ~~ \forall \epsilon \geq 0.$$ Portanto, temos que $$\mathbb{P}(|N_t-N_u|\textgreater 0)\geq \mathbb{P}(|N_t-N_u|\geq \epsilon) .$$  Desta forma, ao tomarmos o limite temos que $$\displaystyle \lim_{t\rightarrow u}\mathbb{P}(|N_t-N_s|\textgreater 0)=\lim_{t\rightarrow u}1-e^{-\lambda |u-t|}=0.$$ Portanto o resultado segue.

Definição 7.5:

O parâmetro $\lambda$ associado ao processo de Poisson dado pelo teorema 7.2 é denominado de intensidade ou taxa de chegada do processo.

Corolário 7.1:

O processo de Poisson com intensidade $\lambda$ satisfaz:

(a) $E[N_t]=\lambda t$

(b) $Var[N_t]=\lambda t$

Demonstração:

A demonstração deste fato, decorre imediatamente do teorema 7.2. Para isto, basta calcularmos a esperança e a variância de uma v.a. com distribuição de Poisson de parâmetro $\lambda t$.

Como consequência do teorema 7.2, obtemos a seguinte caracterização infinitessimal do processo de Poisson:

i) $\mathbb{P}[N_{t+h} - N_t = 0]=1 - \lambda h + o(h)$,

ii) $\mathbb{P}[N_{t+h} - N_t = 1]=\lambda h + o(h)$,

iii) $\mathbb{P}[N_{t+h} - N_t \geq 2]=o(h)$,

no qual $o$ é uma função tal que $o(h)/h \rightarrow 0$ quando $h \rightarrow 0$. Com isso, concluímos que exceto para um conjunto de probabilidade pequena comparada com $h \textgreater 0$, o processo de Poisson tem distribuição de Bernoulli tomando o valor $0$ com probabilidade $1-\lambda t$ e o valor $1$ com probabilidade $\lambda t$. Desde que o processo de Poisson tem incrementos independentes, temos que $$N_{t+s}-N_t = \sum_{j=1}^n N_{t+jh}-N_{t+(j-1)h},$$ com $h=s/n$, tem aproximadamente distribuição binomial com parâmetros $(n, \lambda s/n)$. Quando $n \rightarrow \infty$, obtemos a convergência da distribuição binomial para a distribuição de Poisson. 

Como consequência direta do teorema 7.2, temos que $$\mathbb{P}[T_1 \textgreater t] = \mathbb{P} [N_t = 0]=e^{-\lambda t}.$$ Portanto, obtemos que $T_1$ tem distribuição exponencial com parâmetro $\lambda$. Da mesma forma, temos que $$\mathbb{P}[T_{N_s + 1} -s \textgreater t] = \mathbb{P} [N_{t+s}-N_s = 0]=e^{-\lambda t},$$ no qual $T_{N_s + 1} -s$ é o tempo de espera após $s$ de ocorrência do evento de interesse. 

Na sequência, vamos mostrar que o processo de Poisson é um processo de Markov.  Seja $N=\{N_t : t \geq 0\}$ um processo de Poisson com intensidade $\lambda$. Para todo $s,t \textgreater 0$, tomamos  $$N^s_t = N_{s+t} - N_t.$$ Da definição do processo de Poisson, obtemos que $\{N_t^s : t \geq 0\}$ também é um processo de Poisson com intensidade $\lambda$ e independente de $\{N_r : 0 \leq r \leq s \}$.  Além disso, sabemos que o conhecimento de $\{N_r : 0 \leq r \leq s \}$ é equivalente ao conhecimento de $\{N_s , T_1, \cdots , T_{N_s}\}$. 

Desde que os incrementos $\{N_{s+t} - N_s: t \geq 0\}$ depois de $s$ são independentes de $\{N_r : 0 \leq r \leq s \}$, concluímos que o futuro $\{N_{s+t} : t \geq 0\}$ depois de $s$ dado o passado $\{N_r : 0 \leq r \leq s \}$ depende somente do presente $N_s$. Em outras palavras, passado e futuro são condicionalmente independentes dado o presente. Com isso, concluímos que o processo de Poisson é um processo de Markov.

Proposição 7.1:

Seja $N$ um processo de Poisson com intensidade $\lambda$. Então $N_t-\lambda t$ e $(N_t-\lambda t)^2 -\lambda t$ são martingales.

Demonstração:  

Queremos mostrar que $M_t=N_t-\lambda t$ é um martingale. Desde que $\mathbb{E} M_t=0$, basta mostrarmos que  $E[M_t|\mathcal{F}_s]=M_s,$ para todo $ t \geq s.$ De fato, note primeiramente que $\lambda t$ é uma função não aleatória e ainda que

$$E[M_t- M_s|\mathcal{F}_s]=E[N_t-\lambda t-(N_s-\lambda s)|\mathcal{F}_s]=E[N_t-N_s|\mathcal{F}_s]-\lambda(t-s).$$ Mas $N_t-N_s$ é independente de $\mathcal{F}_s$ pela definição do processo de Poisson. Portanto, temos que

$$E[N_t-N_s|\mathcal{F}_s]-\lambda(t-s)=E[N_t-N_s]-\lambda(t-s)=E[N_{t-s}]-\lambda(t-s)=\lambda(t-s)-\lambda(t-s)=0.$$ O que implica que, $$E[M_t-M_s|\mathcal{F}_s]=E[M_t|\mathcal{F}_s]-M_s=0\Rightarrow E[M_t|\mathcal{F}_s]=M_s.$$ O que mostra que $N_t-\lambda t$ é um martingale.

Agora seja $W_t=(N_t-\lambda)^2-\lambda t=M^2_t-\lambda t$. Queremos mostrar que $W_t$ também é um martingale, mas antes disso mostremos algumas propriedades importantes. Sabemos que $Var(N_t)=\lambda t$. Com isso calculamos $E[N^2_t]$, na forma

$$Var[N_t]=E[N^2_t]-E^2[N_t]=E[N^2_t]-\lambda^2 t^2=\lambda t$$

$$\Rightarrow E[N^2_t]=\lambda t +\lambda^2 t^2.$$ Além disso, temos que $$E[M^2_t]=E[(N_t-\lambda t)^2]=E[N^2_t-2\lambda t N_t+\lambda^2 t^2]=\lambda t$$ e $$E[M_t M_s|\mathcal{F}_s]=M_sE[M_t|\mathcal{F}_s]=M^2_s.$$ Assim 

$$E[W_t-W_s|\mathcal{F}_s]=E[M^2_t-M^2_s-\lambda(t-s)|\mathcal{F}_s]=$$

$$E[M^2_t - M^2_s-2M_sM_t+2M_sM_t-\lambda(t-s)|\mathcal{F}_s]=E[M^2_t-M^2_s+2M^2_s-2M_sM_t-\lambda(t-s)|\mathcal{F}_s]=$$

$$E[(M_t-M_s)^2-\lambda(t-s)|\mathcal{F}_s]=E[(M_t-M_s)^2]-\lambda(t-s)$$

$$E[(M_{t-s})^2]-\lambda(t-s)=\lambda(t-s)-\lambda(t-s)=0.$$ Portanto, concluímos que  $$E[W_t-W_s|\mathcal{F}_s]=0\Rightarrow E[W_t|\mathcal{F}_s]=W_s.$$ Logo temos que $W_t$ é um martingale e o resultado segue.

Com a proposição 7.1, obtemos que o processo estocástico $Y_t = N_t - \lambda t$ é um martingale com respeito a filtragem $\mathbb{F}$. Além disso, temos que $Var(Y_t)=\lambda t$. Como $\lambda \textgreater 0$, obtemos que $$\mathbb{E} [N_{t+s} \mid \mathcal{F}_t]= N_s + \lambda (t-s) \geq N_s, \quad s,t \geq 0.$$ Como consequência, dizemos que o processo de Poisson $N$ é um submartingale. A decomposição do submartingale $N$ em um martingale $Y$ mais um processo "determinístico" $\lambda t$  é denominada decomposição de Doob-Meyer.  

Definição 7.6:

Seja $Z = \{Z_t : t \geq 0\}$ um processo estocástico qualquer definido na base estocástica $(\Omega, \mathcal{F} , \mathbb{F} , \mathbb{P})$. A filtragem natural ou interna de $Z$, é denotada por $\mathbb{F}^0=(\mathcal{F}^0_t)_{t\geq 0}$ e é definida como sendo $\mathcal{F}^0_t=\sigma \{Z_s : s\leq t\}$, a $\sigma$-álgebra gerada pela família de variáveis aleatórias $\{Z_s : s\leq t\}$.

Observação:

Quando não houver confusão denotaremos $\mathbb{F}^0$ apenas por $\mathbb{F}$. Além disso, temos que a filtragem natural é a menor filtragem que torna $Z$ um processo estocástico adaptado. De modo geral também temos que essa filtragem não necessariamente  é completa.

Dado $N$ um processo de Poisson com intensidade $\lambda$, denotamos por $\mathbb{F}^0$ a filtragem interna relacionada com $N$. Por definição, temos que $$\mathcal{F}^0_t = \sigma\{N_s : s \leq t\} = \sigma\{N_t , T_1 , \cdots , T_{N_t} \}.$$

Um tempo de parada $S$ com respeito a filtragem interna $\mathbb{F}^0$ é uma variável aleatória não negativa satisfazendo $\{S \leq t \} \in \mathcal{F}^0_t$ para todo $t \geq 0.$  Para todo $s \textgreater 0$, temos $S=s$ é um tempo de parada. Para todo $n \geq 1$, as variáveis aleatórias $T_n$ e $T_{N_s + 1}$ também são tempos de parada.  Porém, a variável aleatória $T_{N_s}$ não é um tempo de parada, pois para todo $t \textless s$, temos que $$\{T_{N_s} \leq t \}=\{N_s - N_t = 0 \} \not \in \mathcal{F}^0_t.$$

Para qualquer tempo de parada $S$ com respeito a filtragem $\mathbb{F}^0$, relacionamos a $\sigma$-álgebra dos eventos que são determinados pelas trajetórias $\{N_{u\wedge S}: u \geq 0\}$ paradas no tempo $S$. Por definição, sabemos que $$\mathcal{F}_{S} = \{A \in \mathcal{F}^0_{\infty}: A \cap \{S \leq t \} \in \mathcal{F}^0_t , \quad t \geq 0\}.$$ Propriedades da $\sigma$-álgebra relacionada com um tempo de parada pode ser encontrado no módulo sobre "tempos de Parada"

Como $T_n$ é $\mathcal{F}^0_{T_n}$-mensurável , temos que $T_i$ também é $\mathcal{F}^0_{T_n}$-mensurável para todo $i \leq n$. Com isso consluímos que $\sigma \{T_1, \cdots , T_n\} \subset \mathcal{F}^0_{T_n}$.  Por outro lado, como  $N(u \wedge T_n)$ é mesurável com respeito a  $\sigma \{T_1, \cdots , T_n\}$ para todo $u \geq 0$, concluímos que $$\sigma \{T_1, \cdots , T_n\} = \mathcal{F}^0_{T_n}=\sigma \{ N(u \wedge T_n) : u \geq 0 \}.$$ Sabemos que $T_n$ é $\mathcal{F}_{T_{n}^{-}}^0$-mensurável. Assim, obtemos que $T_i$ também é $\mathcal{F}_{T_{n}^{-}}^0$-mensurável, para todo $i \geq 1$. Desta forma concluímos que $$\mathcal{F}^0_{T_n} = \sigma \{T_1, \cdots , T_n\} = \mathcal{F}_{T_{n}^{-}}^0.$$ 

Para todo $A \in \mathcal{F}^0_t$, obtemos do teorema de representação de Doob-Dynkin que existe uma variável $g$ mensurável com respeito a $\sigma$-álgebra $\sigma\{N_{t}, T_1 , \cdots , T_{N_t}\}$ satisfazendo $$1\!\!1_{ \{ A \}}=g(N_t, T_1, \cdots , T_{N_t})= g(0,0)1\!\!1_{ \{ t \textless T_{1} \}} + \sum_{n=1}^\infty g(N_t, T_1, \cdots , T_{N_t}) 1\!\!1_{ \{ T_n \leq t \textless t_{n+1} \}}= g(0,0)1\!\!1_{ \{ t \textless T_{1} \}} + \sum_{n=1}^\infty g(n, T_1, \cdots , T_{n}) 1\!\!1_{ \{ T_n \leq t \textless t_{n+1} \}}.$$ Como consequência, concluímos que $$A = (H_0 \cap \{ t \textless T_{1} \} ) \cup_{n=1}^\infty ( H_{n} \cap \{ T_n \leq t \textless t_{n+1} \}),$$ nos quais $H_0 \in \mathcal{F}^0_0$ e $H_n \in \mathcal{F}^0_{T_n}$. Neste caso, dizemos que a filtragem interna $\mathbb{F}^0$ do processo de Poisson $N$ é do tipo discreta, isto é, $$\mathcal{F}^0_{t} = \{\cup_{n=0}^\infty ( H_{n} \cap \{ T_n \leq t \textless t_{n+1} \}) : H_0 \in \mathcal{F}^0_0, ~ ~ H_n \in \mathcal{F}^0_{T_n}\}$$ para todo $t \textgreater 0$.

 

Teorema 7.3:

Seja $N=\{N_t : t \geq 0\}$ um processo de Poisson com intensidade $\lambda$ e $S$ um tempo de parada com respeito a filtragem interna de $N$. Sobre o evento $\{S \textless \infty \}$ definimos $$N^S_t = N_{S+t} - N_S, t \geq 0.$$ Condicional ao evento $\{S \textless \infty \}$, temos que $N^S : N^S_t : t \geq 0 \}$ também é um processo de Poisson com intensidade $\lambda$ independente de $\mathcal{F}_S^o$.

Demonstração: Sabemos que se $S$ é uma constante o resultado é válido. Na sequência, suponha que $S$ toma valores em um sequência crescente $\{s_j: j \geq 1 \}$ de número reais positivos. Desde que $S$ é um tempo de parada, temos que $$\{S=s_j\}=\{S \leq s_j\} - \{S \leq s_{j-1}\} \in \mathcal{F}^o_{s_j},$$ para todo $j \geq 1$.

Para todo $A \in \mathcal{F}^o_S$, $0 \textless t_1 \textless t_2 \textless \cdots \textless t_\ell$ e $n_1, \cdots , n_\ell$ pertencente aos naturais, temos que $$\mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^S_{t_k} = n_k \} \right\} \right] = \sum_{j=1}^\infty \mathbb{P} \left[ \{S_j = s_j\} \cap A \cap \left\{ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right\}\right]$$ $$= \sum_{j=1}^\infty \mathbb{P} \left[ \{S=s_j\} \cap A \right] \mathbb{P} \left[ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right] = \mathbb{P} (A) \mathbb{P} \left[ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right],$$ no qual utilizamos o fato de que $\{S=s_j\} \cap A \in \mathcal{F}^o_{s_j}$ e o fato de que o processo de Poisson $N$ tem incrementos estacionários. Portanto, o resultado é válido se $S$ assume valores em uma sequência crescente de valores. 

De forma geral, sabemos que qualquer tempo de parada $S$ pode ser aproximado por uma sequência decrescente de tempos de parada $\{S_ n : n \geq 1\}$, na forma $$S_n = \sum_{k=1}^\infty k 2^{-n} 1\!\!1_{ \{ (k-1)2^{-n} \textless S \leq k 2^{-n} \} } .$$ Desde que $S_n$ assume valores em uma sequência crescente de valores, sabemos que o resultado é válido para $S_n$. Como $S \leq S_n$, obtemos que $\mathcal{F}^o_{S} \subset \mathcal{F}^o_{S_n}$, para todo $n \geq 1$.

O fato de que $N$ tem trajetórias contínuas à direita e de que $A \in \mathcal{F}^o_{S} \subset \mathcal{F}^o_{S_n}$, nos leva a concluir que $$\mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^{S_n}_{t_k} = n_k \} \right\} \right] \rightarrow \mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^{S}_{t_k} = n_k \} \right\} \right],$$ quando $n \rightarrow \infty$. Com isso, obtemos o resultado.

Como consequência do Teorema 7.3, obtemos o seguinte corolário.

Corolário

Seja $N=\{N_t : t \geq 0\}$ um processo de Poisson com parâmetro $\lambda$ e $\{T_n\}$ a sequência de tempos de salto relacionado com $N$. Tomamos os tempos de parada $S_1=T_1$, $S_2=T_2 - T_1$ e $S_n=T_n - T_{n-1}$. As variáveis aleatórias $S_1, S_2 , \cdots$ são independentes e identicamente distribuídas com distribuição exponencial de parâmetro $\lambda$.

Demonstração: Sabemos que $T_1$ tem distribuição exponencial com parâmetro $\lambda$. Como consequência do teorema 7.3, ao tomarmos $S=T_n$, obtemos que $S_n=T_n - T_{n-1}$ é o primeiro salto do processo de Poisson $N^{T_n}$ e portanto, $S_n$ também tem distribuição exponencial com parâmetro $\lambda$ e é independente de $T_1, \cdots , T_n$. Assim, concluímos que $S_n$ é independente de $S_1, \cdots , S_n$. Com isso, obtemos o resultado.

A seguir, apresentamos uma outra forma de definirmos o processo de Poisson que é utilizado em simulação. 

 

Teorema 7.4:

Seja $N$ um processo de contagem. A filtragem natural de $N$ é contínua a direita.

Demonstração: 

Desejamos mostrar que

 $$ \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} = \mathcal{F}^{0}_t .$$

 

Para isso, temos de mostrar apenas que $\bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} \subset \mathcal{F}^{0}_t$, uma vez que $\mathcal{F}^{0}_t \subset \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} $ segue de forma trivial, pois $\mathcal{F}^0_t\subset \matcal{F}^0_{t+\frac{1}{n}},~~\forall n\geq 0,$ pela própria definição de filtragem.

Tome $E = [0,\infty]$ e $\mathcal{B}$ os borelianos de $E$. Seja $\Gamma$ o espaço produto dado por

$$ \Gamma = \left(\prod_{s \in [0, \infty)} E_s; \bigotimes_{s \in[0, \infty)} \mathcal{B}_s\right).$$ Definimos a relação $\pi_t: \Omega \rightarrow \Gamma$ dada por $$ \pi_t(\omega) = s\mapsto N_{s\wedge t}(\omega).$$ Assim, temos que $\pi_t$ é a relação que leva os elementos $\omega$ no conjunto de funções constantes após $t$ $$\omega \rightarrow \{N_{t\wedge s}(\omega) : \ s \in [0, \infty)\}.$$

Note que, por construção, $\pi_t$ é um gerador da filtragem interna $\mathcal{F}^0_t$, pois $\pi_t$ tem como imagem todos os possíveis caminhos até $N_t$, logo $\mathcal{F}^0_t=\sigma(\pi_t)$.

Para ilustramos melhor como funciona a função $\pi_t$ elaboramos um gráfico. Este gráfico ilustra um ponto da função $\pi_t$. Note que, cada ponto da função $\pi_t$ é dado como uma trajetória (uma função). O gráfico ilustra o ponto $\pi_t(\omega)$ para $\omega$ fixado.

Tome agora um evento $\Lambda$ em $\bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}}$, temos que existe um conjunto $A \in \bigotimes_{s \in[0, \infty)} \mathcal{B}_s$ de modo que $\Lambda = \left\{\pi_{t+\frac{1}{n}} \in A\right\}$.

Defina agora um conjunto $W_n = \left\{\pi_t = \pi_{t +\frac{1}{n}}\right\}$, temos que como o processo $N_t$ é não explosivo, para cada $\omega$, existe um $n$, de modo que a função permanece constante em $\left[t, t+\frac{1}{n}\right]$. Logo $\bigcup_{n\geq 1} W_n = \Omega$.

Assim

$$\Lambda= \Omega \cap \Lambda= \lim_{n\rightarrow \infty} \left( W_n \cap \Lambda\right)$$

$$= \lim_{n\rightarrow \infty} \left( W_n \cap \left\{\pi_{t+\frac{1}{t}} \in A\right\}\right)= \lim_{n\rightarrow \infty} \left( W_n \cap \left\{\pi_{t} \in A\right\}\right)$$

$$= \lim_{n\rightarrow \infty} \left( \left\{\pi_{t} \in A\right\}\right)$$

 

Concluímos que $\Lambda \in \mathcal{F}^0_t$.

Portanto

$$\bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} \subset \mathcal{F}^{0}_t.$$ Com isso, obtemos o resultado.

 

Exemplo 7.1: 

Suponha que os defeitos que ocorrem um cano subaquático de petróleo da Petrobras acontecem de acordo com um processo de Poisson com média $\lambda=0,1$ por Quilômetro.

i) Qual a probabilidade de acontecer zero defeito nos primeiros 2 Quilômetros ?

ii) Dado que não houve defeito nos primeiros 2 Quilômetros. Qual a probabilidade condicional de ter um defeito entre o segundo e o terceiro Quilômetro?

i) Basta usarmos a definição do processo de Poisson $P[(N(t+s)-N(s))=n]=e^{-\lambda t}\frac{(\lambda t)^{n}}{n!}$ assim temos que

$$P[(N(2)-N(0))=0]=e^{- 0,2}\frac{(0,2)^{0}}{0!}=e^{- 0,2}=0,8187.$$

ii) Como $N(3)-N(2)$ é independente de $N(2)-N(1)$, a probabilidade condicional é dada por,

$$P[N(3)-N(2)=1|N(2)-N(0)=0]=P[N(3)-N(2)=1]=e^{- 0,1}\frac{(0,1)^{1}}{1!} = e^{-0,1} = 0,09048.$$

 

Exemplo 7.2: 

Suponha que os clientes de uma determinada loja chegam de acordo com um processo de Poisson com média $\lambda$. Seja $N(t)$ o número de clientes que entram até o tempo t.

i) Qual é a P[N(t)=k] para $k=0,1,\cdots$?

ii) Fixemos t, assim para $s\in(0,t)$. Determine $P[N(t)=n+k|N(s)=n]$ e a $E[N(t)N(s)]$.

i)Nesta primeira questão basta usarmos a definição do processo de Poisson como temos que N(0)=0 então $$P[(N(t+s)-N(s))=n]=e^{-\lambda t}\frac{(\lambda t)^{n}}{n!}$$

 

o que implica que

$$P[(N(t+0)-N(0))=k]=P[(N(t+0)-N(0))=k]=e^{-\lambda t}\frac{(\lambda t)^{k}}{k!}$$

 

para $k=0,1,\cdots$

ii) Notemos que dado que $$\displaystyle P[N(t)=n+k|N(s)=n]=\frac{P[N(t)=n+k,N(s)=n]}{P[N(s)=n]}=\frac{P[N(t)-N(s)=k,N(s)=n]}{P[N(s)=n]}=$$

$$\frac{P[N(t)-N(s)=k]P[N(s)=n]}{P[N(s)=n]}=P[N(t)-N(s)=k]=e^{-\lambda (t-s)}\frac{(\lambda (t-s))^{k}}{k!}$$

 

A

$$E[N(s).N(t)]=E[N(s)[N(s)+N(t)-N(s)]]=E[N^2(s)+N(s)[N(t)-N(s)]]=$$

$$E[N^2(s)]+E[N(s)[N(t)-N(s)]]=E[N^2(s)]+E[N(s)]E[N(t)-N(s)]=$$

$$\lambda s+\lambda^2 s^2+\lambda s(\lambda(t-s))=\lambda s + \lambda^2 st$$

 

Exemplo 7.3: 

Suponha que em um call center cheguem ligações de acordo com um processo de Poisson com média $\lambda=3$ ligações por minuto.

Qual a probabilidade de que nenhuma ligação chegue durante toda amanha das 8:00 ao 12:00.

Notemos que durante toda as 4 horas pela manha que o call center funciona para não chegar nenhuma ligação é necessário que durante todo os 240min ou seja temos queremos calcular $P[N(240)=0]=e^{-(3)(240)}\frac{-3(240)^0}{0!}=e^{-720}$.

Exemplo 7.4: 

Suponha que os clientes de um supermercado cheguem a um dos caixas do mesmo de acordo com um processo de Poisson com média $\lambda=4$ por hora dado que o supermercado abre as 7:00 qual a probabilidade de que tenha 1 cliente por volta das 7:30 um total de 5 clientes até as 9:30 ?

Se medirmos o tempo em horas então das 7:00 as 7:30 temos meia hora e das 7:00 as 9:30 temos 2,5 horas.

$$P[N(1/2)=1;N(5/2)=5]=P[N(1/2)=1;N(5/2)-N(1/2)=4]=$$

$$P[N(1/2)=1]P[N(5/2)-N(1/2)=4]=\left[e^{-4/2}\frac{2}{1!}\right]\left[e^{-8}\frac{8^4}{4!}\right]=0,0154965.$$

 

Exemplo 7.5:

Em certa rodovia, a intensidade média do fluxo de tráfego é de 30 carros por minuto. Um medidor é colocado na rua para registrar o número de carros
  passando. Suponha válido as hipótese do processo de poison calcule:

  (a) A probabilidade de que dois ou mais carros sejam registrados durante um determinado intervalo de dois segundos.

  Processo de Poisson: $$\mathbb{P}(A^n_{t,t+s})=\frac{(\lambda s)^^n}{n!}e^{ns}, n=0,1,2,\dots$$
  $\lambda=30/min$. Agora,
  $$\mathbb{P}\left[(A^0_{t,t+\frac{1}{30}})\cup(A^1_{t,t+\frac{1}{30}})^c\right]=1-\frac{(30\frac{1}{30})}{0!}e^{-30\frac{1}{30}}- \frac{(30\frac{1}{30})^1}{1!}e^{-30\frac{1}{30}}=1-2e^{-1}$$

  (b) A probabilidade de passar mais de um minuto até registar o primeiro carro.
  $$\mathbb{P}(A_{0,1}^0)=\frac{((30)1)^0}{0!}e^{-30\frac{1}{30}}=e^{-30}.$$

 

Exemplo 7.6:  Consideremos um experimento em que será contado o número de estrelas em uma região longíqua do espaço, a região sendo de volume V. Façamos as seguintes
  hipóteses, que são análogas espaciais das hipóteses do processo de Poisson:

  (H1) A probabilidade de achar k estrelas na região depende somente de V.
  (H2) Os números de estrelas contadas em regiões disjuntas do espaço são independentes.
  (H3) Duas estrelas não ocupam o mesmo lugar.

  Interpretando estas hipóteses de maneira semelhante à do processo de Poisson, obtenha o valor de $\mathbb{P}_k(V)=$ probabilidade de achar exatamente $k$
  estrelas na região sendo considerada.

  Contaremos o número de estrelas em uma determinada região V. Então, escolheremos um eixo arbitrário de coordenadas e um ponto de referência.
  $$V=\frac{4}{3}\pi r^3$$
  uma esfera de raio $r$ e fazemos
  $$\Omega=\left\{\omega:[0,\infty]\rightarrow \{0,1,\dots\}, \exists 0\textless V_1\textless V_2\textless \dots (V_n\uparrow \infty)| \omega(V)=0, \text{ para } V\in [0,V_1), \omega(V)=1 \text{ para } V\in [V_1,V_2)\right\}$$
  Com W=[Volume da esfera de centro $(0,0,0)$ e raio $r=\frac{4}{3}\pi r^3$].
  Seja o evento $A^k_{W,V}=$[Contas exatamente k estrelas no intervalo do volume $(W,W+V]$ ]
  para $W,V \textgreater 0$ e $k=0,1,2,\dots$ e assumiremos que a $\sigma$-álgebra $\mathcal{A}$ de conjunto de $\Omega$ contenha todos os eventos do tipo $A^k_{W,V}$. Com
  $$A^k_{W,V}=\{\omega\in \Omega: \omega(W+V)-\omega(W)=k\}, \quad s,t\geq 0, k=0,1,2,\dots$$
  As três hipóteses adotadas são:

  (H1): Incrementos estacionário: $\mathbb{P}(A_{W,V}^k)=\mathbb{P}(A^k_{0,V})=\mathbb{P}_k(V)$, $\forall k=0,1,2,\dots$, $V \textgreater 0$.

  (H3) "Chegadas" não simultâneas: $\frac{1-\mathbb{P}_0(V)-\mathbb{P}_1(V)}{1-\mathbb{P}_0(V)}\stackrel{\rightarrow}{V\rightarrow 0} 0.$

  (H2) Incrementos independentes: ($A^k_{W,V}$ e $A^j_{U,Z}$ são independentes para toda escolha de $k$ e $j$ se $(W,W+V]\cap (U,U+Z)=\emptyset$, e temos independência também no caso de $3,4,5, \dots$ intervalos disjuntos)

  Então, temos que
  $$\mathbb{P}_k(V)=\frac{(\lambda V)^k}{k!}e^{-(\lambda V)}, k=0,1,2,\dots$$
  no qual $\lambda=$(número médio de estrelas Contadas/Volume). V=(Volume de contagem)$\geq 0$

 

 

Exemplo 7.7: 

N pontos são escolhidos, independentemente e ao acaso, de uma esfera(bola) de raio R.

  (a) Calcule a probabilidade da distância entre o centro da esfera e o ponto mais proximo ser maior que r.

  Seja $A_r=$(evento distância entre centro e ponto mais próximo é maior).
  $\mathbb{P}(A_r)=$($\mathbb{P}$( todos os pontos distanciar do centro mais que r)=$\mathbb{P}$( do ponto distanciar mais que r).
  $$\left\{\begin{array}{l}1, r=0\\ 1-\frac{r}{R}^3, 0\textless r\leq R\\ 0, r\textgreater R \end{array}\right.$$
  Então,
  $$\mathbb{P}(A_r)=\left\{\begin{array}{l}1, r=0\\ \left(1-\frac{r}{R}^3\right)^N, 0\textless r\leq R\\ 0, r\textgreater R \end{array}\right.$$

  (b) Qual o limite da probabilidade obtida no item (a) quando $r\rightarrow \infty$ e $\frac{N}{r^3}$ e
  $\frac{N}{r^3}\rightarrow \frac{4}{3}\pi \lambda$ ? (Observação: este $\lambda$ é o mesmo exercício anterior)
  $$\lim \mathbb{P}(A_r)=\lim \left(1-\frac{r}{R}^3\right)^N=\lim \left\{\left[1-\frac{r^3}{R^3}\right]^{R^3}\right\}^{\frac{N}{R^3}}=\lim (e^{-r_3})^{\frac{N}{R^3}}=e^{-\frac{4}{3}\pi r^3 \lambda}$$
  no qual $V_r=$ volume da espera de centro na origem e raio $r$.
  Obs: Isto é o mesmo que $\mathbb{P}_0(V_r)$ no exercício anterior.

 

 Exemplo 7.8:

Acende-se uma lâmpada no instante $t=0$. Para $t= 0$. Para $t \textgreater 0$, seja $Q(t+\Delta t|t)$ a probabilidade condicional da lâmpada queimar
  até o instante $t+\Delta t$, dado que ficou acesa até o instante t. Suponha que
  $$\forall t\textgreater 0, \quad \quad \frac{Q(t+\Delta t|t)}{\Delta t}\rightarrow \lambda t$$
  quando $\Delta t\rightarrow 0$, onde $\lambda \textgreater 0$ não depende de t.(Este limite é chamada taxa de falha da lâmpada. Neste exemplo, a taxa de
  falha, $\lambda t$, é proporcional à idade)

  (a) Ache a equação diferencial satisfeita pela função $\mathbb{P}(t)$= probabilidade da lâmpada ficar acesa até o instante t. Você pode supor que a função
  $\mathbb{P}$ seja contínua, com $\mathbb{P}(0)=1$, e que as derivadas à direita e à esquerda sejam iguais.
  $$Q(t+\Delta |t)=\mathbb{P}(T\textgreater t+\Delta t| T\textgreater t)=\frac{\mathbb{P}(T\textless t+\Delta t, T\textgreater t)}{\mathbb{P}(T\textgreater t)}$$
  Já que as derivadas são iguais a direita e a esquerda e a função é contínua então $\mathbb{P}(t)$ é diferenciável em todo $t\textgreater 0$. Assim
  $$\mathbb{P}(t)=\lim_{\Delta t\rightarrow 0}\frac{\mathbb{P}(t+\Delta t)-\mathbb{P}(t)}{\Delta t}=\lim_{\Delta t\rightarrow 0}-\mathbb{P}(t)\left[1-\frac{1-\frac{\mathbb{P}(t+\Delta t)}{\mathbb{P}(t)}}{\Delta t}\right]=-\mathbb{P}(t)Q(t+\Delta t/t)=-\lambda t\mathbb{P}(t).$$
  então, a equação diferencial será:
  $$\mathbb{P}(t)+\lambda t \mathbb{P}(t)=0, \quad \quad \mathbb{P}(0)=1$$

  (b) Resolva a equação diferencial do item (a)
  $$\mathbb{P}(t)+\lambda t\mathbb{P}(t)=0 \rightarrow \frac{d\mathbb{P}}{dt}=-\lambda t \mathbb{P}(t)$$
  o que implica
  $$\int \frac{d\mathbb{P}}{\mathbb{P}}=\int -\lambda t dt\rightarrow \ln \mathbb{P}+C=-\frac{\lambda t^2}{2}$$
  o que implica que
  $$\mathbb{P}(t)=k e^{-\frac{\lambda t^2}{2}}$$
  no qual $k=e^{-c}$. Agora:
  $$\mathbb{P}(0)=ke^{-\frac{\lambda 0^2}{2}}=k=1 \rightarrow \mathbb{P}(t)=e^{-\frac{\lambda t^2}{2}}, t\geq 0.$$

  (c) Obtenha e resolva a equação diferencial satisfeita por $\mathbb{P}(t)$ quando a taxa de falha é constante ($=\lambda$).
  Teremos:
  $$\mathbb{P}(t)=-\mathbb{P}(t)Q(t+\Delta t|t)=-\mathbb{P}(t)\lambda$$
  o implica que
  $$\int \frac{d\mathbb{P}}{\mathbb{P}}=\int -\lambda dt\Rightarrow \ln \mathbb{P}(t) +C=e^{-\lambda t}\Rightarrow \mathbb{P}(t)= k e^{-\lambda t}$$
  Agora $\mathbb{P}(0)=1=k e^{-0 \lambda}=k$
  o que implica que
  $$\mathbb{P}(t)=e^{-\lambda t}, t\geq 0$$

 

Exemplo 7.9:

Uma lâmpada está acesa no tempo $t=0$. Sempre que a lâmpada queimar, é substituída por uma lâmpada nova, embora isso não seja feito imediatamente.
  Suponha que para todo $t\textgreater 0$;

  (H1) dado que a lâmpada esteja acesa no instante t, a probabilidade dela estar queimada no instante $t+\Delta t$, dividida por $\Delta t$, converge para
  $\lambda$ quando $\Delta t\rightarrow 0;$ e

  (H2) dado que a lâmpada esteja queimada no instante t, a probabilidade dela estar novamente acesa em $t+\Delta t$, divida por $\Delta t$, converge para
  $\xi$ quando $\Delta \rightarrow 0$. ($\lambda, \xi \textgreater 0.$)

  (a) Seja $\mathbb{P}(t)$ a probabilidade da lâmpada estar acesa no instante t, $t\geq 0$. Ache a equação diferencial satisfeita por $\mathbb{P}(t)$.
    $$\mathbb{P}_{q/a}(t+\Delta t|t)=\{\text{ probabilidade de estar queimada em } t+\Delta t \text{ dado que estava acesa em } t\}$$
    $$\mathbb{P}_{a/q}(t+\Delta t|t)=\{\text{ probabilidade de estar acesa em } t+\Delta t \text{ dado que estava queimada em } t\}$$
    Pela hipótese $(H1)$,
    $$\frac{\mathbb{P}_{q/a}(t+\Delta t|t)}{\Delta t}\rightarrow \lambda$$
    Por (H2)
    $$\frac{\mathbb{P}_{a/q}(t+\Delta t|t)}{\Delta t}\rightarrow \xi$$
    e seja $\mathbb{P}_a(t)=\{\text{ probabilidade de estar acesa em t}\}$. Então
    $$\mathbb{P}_a(t+\Delta t)=\mathbb{P}(\text{ acesa em } t+\Delta t, \text{ acesa em } t \cup \text{queimada em } t)= $$

$$\mathbb{P}(\text{ acesa em } t+\Delta t, \text{ acesa em } t) \mathbb{P}(\text{ acesa em } t+\Delta t, \text{queimada em } t)=$$

$$\left[1-\mathbb{P}_{q/a}(t+\Delta t|t)\right]\mathbb{P}_a(t)+\left[\mathbb{P}_{a/q}(t+\Delta t| t)\right]\left[1-\mathbb{P}_a(t)\right]$$
    Então,
    $$\mathbb{P}_a(t+\Delta t)-\mathbb{P}_a(t)=\left[-\mathbb{P}_{q/a}(t+\Delta t|t)-\mathbb{P}_{a/q}(t+\Delta t|t)\right]\mathbb{P}_a(t)+\mathbb{P}_{a/q}(t+\Delta t| t).$$
    Agora sendo $\mathbb{P}_a$ contínua e com derivados iguais a direita e esquerda e portanto diferenciável em todo t.
    $$\mathbb{P}^\prime_a(t)=\lim_{\Delta t\rightarrow 0} \frac{\mathbb{P}_a(t+\Delta t)-\mathbb{P}_a(t)}{\Delta t}= \lim_{\Delta t\rightarrow 0}\mathbb{P}_a(t)\left[-\mathbb{P}_{q/a}(t+\Delta t| t){\Delta t}-\frac{\mathbb{P}_{a/q}(t+\Delta t| t)}{\Delta t}\right]+\frac{\mathbb{P}_{a/q}(t+\Delta t|t)}{\Delta t}= -\mathbb{P}_a(t)[\lambda +\xi]+\xi.$$
    Então, a equação diferencial será
    $$\mathbb{P}^\prime_a(t)+\mathbb{P}_a(t)[\lambda+\xi]-\xi=0, \mathbb{P}_a(0)=1.$$

  (b) Resolva a  equação diferencial do item (a). Determine $\lim_{t\rightarrow \infty} \mathbb{P}(t)$.

  Temos que
  $$\mathbb{P}^\prime_a(t)+\mathbb{P}_a(t)[\lambda+\xi]=0$$
  o que implica que
  $$\mathbb{P}_a^h(t)=k e^{-(\lambda+\xi)t}$$
  solução particular
  $$\mathbb{P}_a(t)=C\Rightarrow C[\lambda +\xi]=\xi \Rightarrow C=\frac{\xi}{\lambda +\xi}$$
  o que implica que
  $$\mathbb{P}^p_a(t)=\frac{\xi}{\lambda+\xi}$$
  e então
  $$\mathbb{P}_a(t)=\mathbb{P}_a^h(t)+\mathbb{P}_a^p(t)=ke^{(\lambda+\xi)t}+\frac{\xi}{\lambda +\xi}, t\geq 0$$
  Agora,
  $$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)=\frac{\xi}{\lambda+\xi}.$$
  Este resultado tem um apelo intuitivo, pois se $\xi\gg \lambda$ então
  $$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)\approx 1$$
  ou seja, a lâmpada permanece acesa e se, $\lambda \gg \xi$ então
  $$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)\approx 0$$
  ou seja, a lâmpada permanece queimada. De fato, esta relação nos dá uma idéia da proporção do tempo que a lâmpada fica acesa.

Exemplo 7.10:  Suponhamos que cada elemento de certa população ou morre ou se divide. (Exemplo: uma colônia de bactérias.) Façamos três hipóteses:

  (H1) A probabilidade de que um elemento, vivo no instante t, venha a morrer até o instante $t+\Delta t$, é assintoticamente equivalente a $\mu\Delta
  t$(i.e., a razão dos dois converge para 1 quando $\Delta t \rightarrow 0$).

  (H2) Um elemento vivo no instante t se divide até o instante $t+\Delta t$ com probabilidade assintoticamente equivalente a $\lambda \Delta t$, e produz
  "netos" (i.e., se divide ao menos duas vezes) com probabilidade que, dividida por $\Delta t$, converge para 0 quando $\Delta t\rightarrow 0$.

  (H3) Não há interação entre os elementos, e eles morrem ou se dividem independentemente.

  (a) Ache as equações diferenciais satisfeitas pelas probabilidades $\mathbb{P}_n(t)=$ probabilidade da população conter exatamente $n$ elementos no instante t $(n=0,1,2, \dots; t\geq 0).$

  (b) Mostre que se $\lambda= \mu=1$ e $\mathbb{P}_1(0)=1$, uma solução será
  $$\mathbb{P}_0(t)=\frac{t}{1+t}; \mathbb{P}_n(t)=\frac{t^{n-1}}{(1+t)^{n+1}}, n=1,2, \dots.$$

  (c) Supondo que a solução do item (b) seja a única, qual a probabilidade da população mais cedo ou mais tarde ficar extinta ?
 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]