7 - Processo de Poisson

Você está aqui

O processo de Poisson é o processo estocástico a tempo contínuo com a estrutura mais simples. Este processo conta o número de eventos de interesse em um intervalo da reta. Por exemplo, o número de falhas de um sistema durante um intervalo de tempo.  Nesta seção, vamos construir o processo de Poisson e estudar suas principais propriedades.

Seja $ (T_n)_{n\textgreater 0} $ uma sequência de variáveis aleatórias positivas estritamente crescente $ (T_0=0 \ \textless \ T_1 \ \textless \ T_2 \cdots) $ definidas na base estocástica $ \mathfrak{B}=(\Omega,\mathcal{F},\mathbb{F},\mathbb{P}) $. As variáveis aleatórias $ \{T_n\} $ representam os instantes de tempo nos quais o evento de interesse ocorre. Para contar o número de eventos ocorridos até o tempo $ t \geq 0 $, introduzimos a função indicadora

$$1\!\!1_{\{T_n\leq t\}}=\left\{\begin{array}{l} 1,~~se~~T_n(\omega)\leq t \\ 0,~~se~~T_n(\omega)\textgreater t.\end{array}\right,$$

para $ n \geq 1 $. A partir destes elementos, vamos introduzir o processo de contagem dos eventos de interesse.

Definição 7.1:

O processo estocástico $ N=(N_t)_{0\leq t \leq \infty} $ definido por:

$$N_t=\displaystyle \sum_{n\geq 1}1\!\!1_{\{T_n\leq t\}}$$

é denominado processo de contagem associado a sequência $ (T_n)_{n\geq 1}. $

Definimos também $ T= \sup_n T_n $, então

N_t(\omega)\geq n\},$$

 e ainda 

N_t(\omega)= n\}, ~ [T,\infty)=\{N=\infty\} ~ ~ \text{e} ~ ~ N_{T_n}=n.$$

A variável aleatória T é denominada tempo de explosão do processo de contagem $ N $. Se temos $ T=\infty $ quase certamente então $ N $ é um processo de contagem não explosivo. Para um processo de contagem $ N $ não explosivo e para $ 0\leq s\textless t\textless \infty $, temos que

$$N_t-N_s=\displaystyle\sum_{n\geq 1}1\!\!1_{\{s\textless T_n\leq t\}}$$

conta o numero de eventos que ocorrem entre o tempos $ s $ e $ t $ fixos.

Observação: 

É importante notarmos que da maneira como definimos o processo de contagem $ N $, este não necessariamente é um processo adaptado a filtagem $ \mathbb{F} $. Pois, ser um processo adaptado depende estritamente da filtragem, ou seja, o processo pode ser adaptado para uma determinada filtragem e não ser para outra. O teorema a seguir o nos diz sob qual circunstância $ N $ é um processo adaptado com respeito a filtragem $ \mathbb{F} $.

Teorema 7.1: 

O processo de contagem $ N $ é um processo adaptado, se e somente se, a variável aleatória $ T_n $ é um tempo de parada para to $ n \geq 1 $.

Demonstração: 

Suponha primeiramente que $ (T_n)_{n\geq 1} $ são tempos de parada, assim temos que o evento

 T_n(\omega )\leq t\textless T_{n+1}(\omega)\}\in \mathcal{F}_t,$$

para todo $ n\geq 0 $. Então temos que $ N_t $ é $  \mathcal{F}_t $-mensurável e portanto N é um processo adaptado.

Agora suponha que $ N $ seja um processo adaptado, então o evento

$$\{T_n\leq t\}=\{N_t\geq n\}\in \mathcal{F}_t,$$

para todo $ t \geq 0 $.  Portanto temos que $ T_n $ é um tempo de parada. E o resultado segue.

Definição 7.2: 

Um processo estocástico $ \{N_t, t\geq 0\} $ é dito possuir incrementos independentes se para quaisquer $ t_1, t_2, t_3,\cdots, t_n $, com $ 0\textless t_1\textless t_2\textless \cdots \textless t_n $ temos que

$$N_0, N_{t_1}-N_{0}, N_{t_2}-N_{t_1},\cdtos , N_{t_n}-N_{t_{n-1}}$$

são variáveis aleatórias independentes em $ (\Omega, \mathcal{F} , \mathbb{P}) $.

Por exemplo, isto significa que o número de eventos que tenham ocorrido até tempo t (que é dado por $ N_t $) deve ser independente do número de eventos que ocorrem entre os tempos de t e t + s (isto é, $ N_{t + s}-N_t $).

Definição 7.3: 

Um processo estocástico $ N=\{N_t, t\geq 0\} $  é dito ter incrementos estacionários se $ P[N_{t+s}-N_{t}=k]=P[N_{s}=k] $, para qualquer $ t\geq 0 $ e qualquer $ k \geq 0 $.

Definição 7.4: 

O processo de contagem $ \{N_t, t\geq 0\} $ adaptado na filtragem  t \geq 0\} $ e não explosivo é dito ser um processo de Poisson se:

  1.  N(0)=0.
  2. Incrementos independentes.
  3. Incrementos estacionários.

Com o resultado a seguir, vamos mostrar que o número de saltos relacionado com o processo de Poisson segue a distribuição de Poisson, ou seja,  $ N_t $ tem distribuição de Poisson com parâmetro $ \lambda t $ para algum $ \lambda \textgreater 0 $, o que justifica o nome do processo estocástico de contagem.  Note que na definição do processo $ N $ em momento algum foi citado que o processo tem alguma relação com a distribuição de Poisson, obtemos isso como consequência desta definição.

Teorema 7.2: 

Seja  N um processo de Poisson. Então, temos que

$$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N},$$

para algum $ \lambda\textgreater 0 $. Ou seja, $ N_t\sim ~~Poisson(\lambda t) $. Além disso, o processo $ N $ é contínuo em probabilidade (ou seja, $ \displaystyle \lim_{t\rightarrow u}N_t=N_u $ tomando o limite em probabilidade, ou equivalentemente temos que $ \lim_{t\rightarrow u}\mathbb{P}(|N_t-N_u|\geq \epsilon)=0, ~~\forall \epsilon \textgreater 0 $) .

Demonstração: 

Para demonstrarmos esse resultado, vamos  dividi-lo em algumas etapas.

(a) Para todo $ t\geq 0 $, temos que

$$\mathbb{P}(N_t=0)=e^{-\lambda t},$$

para algum $ \lambda\textgreater 0. $

(b) $ \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0. $

(c) $ \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lambda $, no qual $ \lambda $ é a constante que aparece em (a).

(d) E por fim o resultado desejado. Temos que

$$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N}.$$

 

(a) Primeiramente observe que o número de chegadas no intervalo $ [0,t+s] $ é zero se, e somente se, não existe chegada no intervalo $ [0,t] $ e no intervalo $ (t,t+s] $, ou seja, o evento $ \{N_{t+s}=0\} $ é igual ao evento $ \{N_t=0, N_{t+s}-N_t=0\} $. Por definição esses eventos são independentes, então,

$$\mathbb{P}[N_{s+t}=0]=\mathbb{P}[N_t=0, N_{t+s}-N_t=0]=\mathbb{P}[N_t=0]\mathbb{P}[N_{t+s}-N_t=0].$$

Por outro lado temos que a distribuição é estacionária. Assim, temos que

$$\mathbb{P}[N_{t+s}-N_t=0]=\mathbb{P}[N_s=0].$$

  Logo, concluímos que

$$\mathbb{P}[N_{s+t}=0]=\mathbb{P}[N_t=0, N_{t+s}-N_t=0]=\mathbb{P}[N_t=0]\mathbb{P}[N_s=0].$$

Portanto, temos que a função $ g(t)=\mathbb{P}[N_t=0] $, satisfaz a seguinte condição

$$g(t+s)=g(t)g(s).$$

Por um resultado clássico de análise matemática, sabemos que apenas duas funções satisfazem essa condição, ou $ g(t)=0,~~ \forall t\geq 0 $, ou

$$g(t)=e^{-\lambda t},$$

para algum $ \lambda \geq 0 $. Formalmente temos que $ \lambda\in \mathbb{R} $, porém como estamos tomando a função $ g $ igual a uma probabilidade, temos que  $ \lambda $ é não negativo. Assim, basta mostrarmos que $ g(t) $ não pode ser zero para todo $ t $.

De fato, note que se $ g(t) $ for igual a $ 0 $ para todo $ t $, temos que 

$$N_{s}\stackrel{d}{=}N_{t+s}-N_t\geq 1, ~ ~ \mathbb{P}-q.c.,$$

não importando quão pequeno seja $ s $. Assim sejam $ t_1\textless t_2\textless t_3\textless \cdots \textless t_n=t $, então

$$N_t=N_{t_1}+(N_{t_2}-N_{t_1})+\cdots +(N_{t_n}-N_{t_{n-1}}).$$

Desde que

$$N_{t_i}-N_{t_{i-1}}\geq 1, ~~ \forall i=1,\cdots, n,$$

obtemos que $ N_t(\omega)\geq n,~~ \forall n\in\mathbb{N} ~ \mathbb{P}-q.c. $. Mas isto implica que

$$N_t=\infty,$$

o que é absurdo pois por hipótese N é um processo não explosivo. Isto implica que $ g(t) $ não pode ser identicamente igual a $ 0 $. Assim, concluímos que $ g(t)=e^{-\lambda t} $ para algum $ \lambda $ não negativo. Agora, se $ \lambda =0 $, temos que $ \mathbb{P}[N_t=0]=1 $ para todo $ t \geq 0 $. Como consequência, temos que $ T_1 = \infty ~ ~ \mathbb{P}-q.c. $, o que é um absurdo, pois $ T_1 $ é uma variável aleatória. Assim, tomamos $ \lambda \textgreater 0 $.

(b) Queremos mostrar que $ \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0 $. Defina $ f(t)=\mathbb{P}[N_t\geq 2] $.

Note que se $ N_{t}\geq 2 $ então $ N_{t+s}\geq 2 $, ou seja, $ \{N_{t}\geq 2\}\subset\{N_{t+s}\geq 2\} $, isto implica que

$$\mathbb{P}[N_t\geq 2]\leq \mathbb{P}[N_{t+s}\geq 2],$$

ou seja, $ f(t)\leq f(t+s) $, isto é f é uma função não decrescente. Seja  ~n\leq 1/t\} $, então $ t\leq \displaystyle \frac{1}{n_t} $ e ainda $ \displaystyle \frac{1}{t}\textless n_t+1 $. Portanto temos que $ f(t)\leq f\left(\frac{1}{n_t}\right) $ e

$$\displaystyle 0\leq \frac{1}{t}f(t)\leq (n_t+1)f\left(\frac{1}{n_t}\right)=\frac{n_t+1}{n_t}n_t f\left(\frac{1}{n_t}\right)$$

 

Como temos que $ t\downarrow 0 $, isto implica que $ n_t\uparrow \infty $ e ainda $ \displaystyle \frac{(n_t+1)}{n_t}\downarrow 1 $. Desta forma é suficiente mostrar que $ \displaystyle n f\left(\frac{1}{n}\right) $ quando $ n\rightarrow \infty $.

Na sequência, dividimos o intervalo $ [0,1] $ em n subintervalos de comprimento $ 1/n $ cada, seja $ S_n(\omega) $ o número de subintervalos durante os quais houveram duas ou mais chegadas para a realização $ \omega $.

Como $ N $ tem incrementos independentes, interpretamos $ S_n $ como sendo o número de sucessos em n ensaios de Bernoulli, no qual o sucesso na k-ésima tentativa significa que houveram duas ou mais chegadas durante o k-ésimo subintervalo. Então a probabilidade de sucesso de qualquer ensaio é dada por $ p=f\left(\frac{1}{n}\right) $. Portanto temos que

$$E[S_n]=np=\displaystyle nf\left(\frac{1}{n}\right).$$

Como $ N $ é processo não explosivo, temos que para quase todo $ \omega \in \Omega $, existe um tempo minimo $ \delta(\omega)\textgreater 0 $ entre duas chegadas no [0,1]. Assim para $ n $ for suficientemente grande temos que

$$\displaystyle\frac{1}{n}\textless \delta(\omega).$$

Então nenhum subintervalo irá conter duas chegadas, logo $ S_n(\omega)=0 $, para quase todo $ \omega\in \Omega $. Portanto, obtemos que 

$$\displaystyle \lim_{n\rightarrow \infty}S_n(\omega)=0,~~\mathbb{P}-qc.$$

Além disso, temos que $ S_n $ é limitado, pois não pode ser maior que o número de chegadas que ocorrem no $ [0,1] $, ou seja, $ S_n $ é limitada por $ N_1 $, o qual o valor esperado é finito. Então, temos que

$$E[S_n]\leq E[N_1]\textless \infty.$$

Logo, temos que a sequência $ S_n $ é dominada. Portanto, pelo teorema da convergência dominada, temos que

$$\displaystyle \lim_{n\rightarrow \infty}nf\left(\frac{1}{n_t}\right)=\lim_{n\rightarrow \infty}E[S_n]=E[\lim_{n\rightarrow \infty} S_n]=E[0]=0,$$

 o que implica que $ \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t\geq 2)=0 $. Como queríamos demonstrar.

(c) Queremos mostrar que $ \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lambda $, no qual $ \lambda $ é a constante que aparece em (a).

Note que,

$$\mathbb{P}[N_t=1]=1-\mathbb{P}[N_t=0]-\mathbb{P}[N_t\geq 2].$$

Então, pelos itens (a) e (b) temos que

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}(N_t= 1)=\lim_{t\downarrow 0}\frac{1-e^{-\lambda t}}{t}-\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=\lambda.$$

 E portanto o resultado segue.

(d) Por fim, iremos demonstrar o resultado principal, o qual nos diz que:

$$\mathbb{P}(N_t=n)=\frac{e^{-\lambda t}(\lambda t)^n}{n!},~~\forall n\in \mathbb{N}.$$

 Para isso, definimos a função

$$F(t)=E[\alpha^{N_t}], ~~ com ~~\alpha \in (0,1).$$

  Sabemos que $ N_{t+s}=N_{t}+(N_{t+s}-N_t). $ Pela independência da variáveis aleatórias $ N_{t+s}-N_t $ e $ N_t $, temos que

$$F(t+s)=E[\alpha^{N_{t+s}}]=E[\alpha^{N_{t}+(N_{t+s}-N_t)}]=E[\alpha^{N_{t}}]E[\alpha^{N_{t+s}-N_t}]=F(t)F(s.)$$

 

Desta forma, obtemos que $ F(t)=0 $ ou $ F(t)=e^{tf(\alpha)} $, com $ f $ sendo a derivada $ F $ no ponto $ t=0 $. Desde que,

$$F(t)=E[\alpha^{N_t}]=\displaystyle \sum_{n=0}^{\infty}\alpha^n \mathbb{P}[N_t=n]\geq P[N_t=0]=e^{-\lambda t},$$

obtemos que $ F(t) $ não pode ser identicamente nula. Note também que $ F(0)=1 $, e $ F(t)=\displaystyle \sum_{n=0}^{\infty}\alpha^{n}\mathbb{P}[N_t=n] $, portanto sua derivada é dada por

$$f(\alpha)=\displaystyle \lim_{t\downarrow 0}\frac{1}{t}(F(t)-1)=$$

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[\mathbb{P}(N_t=0)-1\right]+\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\alpha \mathbb{P}[N_t=1]+$$

$$+\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t=n].$$

Mas pelo item (a) temos que

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[\mathbb{P}(N_t=0)-1\right]=\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\left[e^{-\lambda t}-1\right]=-\lambda,$$

e pelo item (b), o segundo limite

$$\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\alpha \mathbb{P}[N_t=1]=\alpha \lambda.$$

Além disso, pelo item (c) e para todo $ \alpha \in[0,1] $, temos que

$$0\leq \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t=n]\leq $$

$$\leq \displaystyle \lim_{t\downarrow 0}\frac{1}{t}\sum_{n=2}^{\infty}\alpha^n \mathbb{P}[N_t\geq 2]=\sum_{n=2}^{\infty}\alpha^n\displaystyle \lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]\leq$$

$$\displaystyle \leq \sum_{n=0}^{\infty}\alpha^n\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=\frac{1}{1-\alpha}\lim_{t\downarrow 0}\frac{1}{t}\mathbb{P}[N_t\geq 2]=0.$$

 Como consequência, 

$$f(\alpha)=-\lambda +\lambda\alpha,~~\forall \alpha \in [0,1].$$

Desta forma,

$$F(t)=e^{-\lambda t+\lambda t\alpha}.$$

Abrindo em serie de taylor em torno do zero. Temos

$$\displaystyle \sum_{n=0}^{\infty}\alpha^n \mathbb{P}[N_t=n]=\sum_{n=0}^{\infty}\frac{e^{-\lambda t}(\lambda t)^n}{n!}\alpha^n.$$

Pela igualdade da series temos que

$$\mathbb{P}[N_t=n]=\displaystyle \frac{e^{-\lambda t}(\lambda t)^n}{n!}.$$

Portanto o resultado segue.

Na sequência, vamos mostrar que o processo de Poisson é contínuo em probabilidade, ou seja, 

$$\displaystyle \lim_{t\rightarrow u}\mathbb{P}(|N_t-N_u|\geq \epsilon)=0,~~ \forall \epsilon \geq 0.$$

Para isso, primeiro observemos que para $ t\textgreater u $ e $ \epsilon \textgreater 1 $ temos

$$\mathbb{P}(|N_t-N_u|\geq \epsilon)=\mathbb{P}(N_t-N_u\geq \epsilon)=\mathbb{P}(N_t-N_u\neq 0)=$$

$$1-\mathbb{P}(N_t-N_u=0)=1-\mathbb{P}(N_{t-u}=0)=1-e^{-\lambda (t-u)}.$$

 

Da mesma forma para $ t\textless u $ e $ \epsilon \textgreater 1 $ temos que

$$\mathbb{P}(|N_t-N_u|\geq \epsilon)=\mathbb{P}(N_u-N_t\geq \epsilon)=\mathbb{P}(N_u-N_t\neq 0)=$$

$$1-\mathbb{P}(N_u-N_t=0)=1-\mathbb{P}(N_{u-t}=0)=1-e^{-\lambda (u-t)}.$$

 

Logo,

$$\mathbb{P}(|N_t-N_s|\geq \epsilon)=1-e^{-\lambda |u-t|}.$$

 

Além disso, temos que 

$$[|N_t-N_u|\geq \epsilon]\subset [|N_t-N_u|\textgreater 0], ~~ \forall \epsilon \geq 0.$$

Portanto, temos que

$$\mathbb{P}(|N_t-N_u|\textgreater 0)\geq \mathbb{P}(|N_t-N_u|\geq \epsilon) .$$

  Desta forma, ao tomarmos o limite temos que

$$\displaystyle \lim_{t\rightarrow u}\mathbb{P}(|N_t-N_s|\textgreater 0)=\lim_{t\rightarrow u}1-e^{-\lambda |u-t|}=0.$$

Portanto o resultado segue.

Definição 7.5:

O parâmetro $ \lambda $ associado ao processo de Poisson dado pelo teorema 7.2 é denominado de intensidade ou taxa de chegada do processo.

Corolário 7.1:

O processo de Poisson com intensidade $ \lambda $ satisfaz:

(a) $ E[N_t]=\lambda t $

(b) $ Var[N_t]=\lambda t $

Demonstração:

A demonstração deste fato, decorre imediatamente do teorema 7.2. Para isto, basta calcularmos a esperança e a variância de uma v.a. com distribuição de Poisson de parâmetro $ \lambda t $.

Como consequência do teorema 7.2, obtemos a seguinte caracterização infinitessimal do processo de Poisson:

i) $ \mathbb{P}[N_{t+h} - N_t = 0]=1 - \lambda h + o(h) $,

ii) $ \mathbb{P}[N_{t+h} - N_t = 1]=\lambda h + o(h) $,

iii) $ \mathbb{P}[N_{t+h} - N_t \geq 2]=o(h) $,

no qual $ o $ é uma função tal que $ o(h)/h \rightarrow 0 $ quando $ h \rightarrow 0 $. Com isso, concluímos que exceto para um conjunto de probabilidade pequena comparada com $ h \textgreater 0 $, o processo de Poisson tem distribuição de Bernoulli tomando o valor $ 0 $ com probabilidade $ 1-\lambda t $ e o valor $ 1 $ com probabilidade $ \lambda t $. Desde que o processo de Poisson tem incrementos independentes, temos que

$$N_{t+s}-N_t = \sum_{j=1}^n N_{t+jh}-N_{t+(j-1)h},$$

com $ h=s/n $, tem aproximadamente distribuição binomial com parâmetros $ (n, \lambda s/n) $. Quando $ n \rightarrow \infty $, obtemos a convergência da distribuição binomial para a distribuição de Poisson. 

Como consequência direta do teorema 7.2, temos que

$$\mathbb{P}[T_1 \textgreater t] = \mathbb{P} [N_t = 0]=e^{-\lambda t}.$$

Portanto, obtemos que $ T_1 $ tem distribuição exponencial com parâmetro $ \lambda $. Da mesma forma, temos que 

$$\mathbb{P}[T_{N_s + 1} -s \textgreater t] = \mathbb{P} [N_{t+s}-N_s = 0]=e^{-\lambda t},$$

no qual $ T_{N_s + 1} -s $ é o tempo de espera após $ s $ de ocorrência do evento de interesse. 

Na sequência, vamos mostrar que o processo de Poisson é um processo de Markov.  Seja  t \geq 0\} $ um processo de Poisson com intensidade $ \lambda $. Para todo $ s,t \textgreater 0 $, tomamos  

$$N^s_t = N_{s+t} - N_t.$$

Da definição do processo de Poisson, obtemos que  t \geq 0\} $ também é um processo de Poisson com intensidade $ \lambda $ e independente de  0 \leq r \leq s \} $.  Além disso, sabemos que o conhecimento de  0 \leq r \leq s \} $ é equivalente ao conhecimento de $ \{N_s , T_1, \cdots , T_{N_s}\} $

Desde que os incrementos  t \geq 0\} $ depois de $ s $ são independentes de  0 \leq r \leq s \} $, concluímos que o futuro  t \geq 0\} $ depois de $ s $ dado o passado  0 \leq r \leq s \} $ depende somente do presente $ N_s $. Em outras palavras, passado e futuro são condicionalmente independentes dado o presente. Com isso, concluímos que o processo de Poisson é um processo de Markov.

Proposição 7.1:

Seja $ N $ um processo de Poisson com intensidade $ \lambda $. Então $ N_t-\lambda t $ e $ (N_t-\lambda t)^2 -\lambda t $ são martingales.

Demonstração:  

Queremos mostrar que $ M_t=N_t-\lambda t $ é um martingale. Desde que $ \mathbb{E} M_t=0 $, basta mostrarmos que  $ E[M_t|\mathcal{F}_s]=M_s, $ para todo $  t \geq s. $ De fato, note primeiramente que $ \lambda t $ é uma função não aleatória e ainda que

$$E[M_t- M_s|\mathcal{F}_s]=E[N_t-\lambda t-(N_s-\lambda s)|\mathcal{F}_s]=E[N_t-N_s|\mathcal{F}_s]-\lambda(t-s).$$

 Mas $ N_t-N_s $ é independente de $ \mathcal{F}_s $ pela definição do processo de Poisson. Portanto, temos que

$$E[N_t-N_s|\mathcal{F}_s]-\lambda(t-s)=E[N_t-N_s]-\lambda(t-s)=E[N_{t-s}]-\lambda(t-s)=\lambda(t-s)-\lambda(t-s)=0.$$

 O que implica que, 

$$E[M_t-M_s|\mathcal{F}_s]=E[M_t|\mathcal{F}_s]-M_s=0\Rightarrow E[M_t|\mathcal{F}_s]=M_s.$$

 

O que mostra que $ N_t-\lambda t $ é um martingale.

Agora seja $ W_t=(N_t-\lambda)^2-\lambda t=M^2_t-\lambda t $. Queremos mostrar que $ W_t $ também é um martingale, mas antes disso mostremos algumas propriedades importantes. Sabemos que $ Var(N_t)=\lambda t $. Com isso calculamos $ E[N^2_t] $, na forma

$$Var[N_t]=E[N^2_t]-E^2[N_t]=E[N^2_t]-\lambda^2 t^2=\lambda t$$

$$\Rightarrow E[N^2_t]=\lambda t +\lambda^2 t^2.$$

Além disso,

 temos que 

$$E[M^2_t]=E[(N_t-\lambda t)^2]=E[N^2_t-2\lambda t N_t+\lambda^2 t^2]=\lambda t$$

 

e

$$E[M_t M_s|\mathcal{F}_s]=M_sE[M_t|\mathcal{F}_s]=M^2_s.$$

Assim 

$$E[W_t-W_s|\mathcal{F}_s]=E[M^2_t-M^2_s-\lambda(t-s)|\mathcal{F}_s]=$$

$$E[M^2_t - M^2_s-2M_sM_t+2M_sM_t-\lambda(t-s)|\mathcal{F}_s]=E[M^2_t-M^2_s+2M^2_s-2M_sM_t-\lambda(t-s)|\mathcal{F}_s]=$$

$$E[(M_t-M_s)^2-\lambda(t-s)|\mathcal{F}_s]=E[(M_t-M_s)^2]-\lambda(t-s)$$

$$E[(M_{t-s})^2]-\lambda(t-s)=\lambda(t-s)-\lambda(t-s)=0.$$

Portanto, concluímos que 

$$E[W_t-W_s|\mathcal{F}_s]=0\Rightarrow E[W_t|\mathcal{F}_s]=W_s.$$

Logo temos que $ W_t $ é um martingale e o resultado segue.

Com a proposição 7.1, obtemos que o processo estocástico $ Y_t = N_t - \lambda t $ é um martingale com respeito a filtragem $ \mathbb{F} $. Além disso, temos que $ Var(Y_t)=\lambda t $. Como $ \lambda \textgreater 0 $, obtemos que

$$\mathbb{E} [N_{t+s} \mid \mathcal{F}_t]= N_s + \lambda (t-s) \geq N_s, \quad s,t \geq 0.$$

Como consequência, dizemos que o processo de Poisson $ N $ é um submartingale. A decomposição do submartingale $ N $ em um martingale $ Y $ mais um processo "determinístico" $ \lambda t $  é denominada decomposição de Doob-Meyer.  

Definição 7.6:

Seja  t \geq 0\} $ um processo estocástico qualquer definido na base estocástica $ (\Omega, \mathcal{F} , \mathbb{F} , \mathbb{P}) $. A filtragem natural ou interna de $ Z $, é denotada por $ \mathbb{F}^0=(\mathcal{F}^0_t)_{t\geq 0} $ e é definida como sendo  s\leq t\} $, a $ \sigma $-álgebra gerada pela família de variáveis aleatórias  s\leq t\} $.

Observação:

Quando não houver confusão denotaremos $ \mathbb{F}^0 $ apenas por $ \mathbb{F} $. Além disso, temos que a filtragem natural é a menor filtragem que torna $ Z $ um processo estocástico adaptado. De modo geral também temos que essa filtragem não necessariamente  é completa.

Dado $ N $ um processo de Poisson com intensidade $ \lambda $, denotamos por $ \mathbb{F}^0 $ a filtragem interna relacionada com $ N $. Por definição, temos que

 s \leq t\} = \sigma\{N_t , T_1 , \cdots , T_{N_t} \}.$$

Um tempo de parada $ S $ com respeito a filtragem interna $ \mathbb{F}^0 $ é uma variável aleatória não negativa satisfazendo $ \{S \leq t \} \in \mathcal{F}^0_t $ para todo $ t \geq 0. $  Para todo $ s \textgreater 0 $, temos $ S=s $ é um tempo de parada. Para todo $ n \geq 1 $, as variáveis aleatórias $ T_n $ e $ T_{N_s + 1} $ também são tempos de parada.  Porém, a variável aleatória $ T_{N_s} $ não é um tempo de parada, pois para todo $ t \textless s $, temos que

$$\{T_{N_s} \leq t \}=\{N_s - N_t = 0 \} \not \in \mathcal{F}^0_t.$$

Para qualquer tempo de parada $ S $ com respeito a filtragem $ \mathbb{F}^0 $, relacionamos a $ \sigma $-álgebra dos eventos que são determinados pelas trajetórias  u \geq 0\} $ paradas no tempo $ S $. Por definição, sabemos que

 A \cap \{S \leq t \} \in \mathcal{F}^0_t , \quad t \geq 0\}.$$

 Propriedades da $ \sigma $-álgebra relacionada com um tempo de parada pode ser encontrado no módulo sobre "tempos de Parada"

Como $ T_n $ é $ \mathcal{F}^0_{T_n} $-mensurável , temos que $ T_i $ também é $ \mathcal{F}^0_{T_n} $-mensurável para todo $ i \leq n $. Com isso consluímos que $ \sigma \{T_1, \cdots , T_n\} \subset \mathcal{F}^0_{T_n} $.  Por outro lado, como  $ N(u \wedge T_n) $ é mesurável com respeito a  $ \sigma \{T_1, \cdots , T_n\} $ para todo $ u \geq 0 $, concluímos que 

 u \geq 0 \}.$$

Sabemos que $ T_n $ é $ \mathcal{F}_{T_{n}^{-}}^0 $-mensurável. Assim, obtemos que $ T_i $ também é $ \mathcal{F}_{T_{n}^{-}}^0 $-mensurável, para todo $ i \geq 1 $. Desta forma concluímos que

$$\mathcal{F}^0_{T_n} = \sigma \{T_1, \cdots , T_n\} = \mathcal{F}_{T_{n}^{-}}^0.$$

 

Para todo $ A \in \mathcal{F}^0_t $, obtemos do teorema de representação de Doob-Dynkin que existe uma variável $ g $ mensurável com respeito a $ \sigma $-álgebra $ \sigma\{N_{t}, T_1 , \cdots , T_{N_t}\} $ satisfazendo 

$$1\!\!1_{ \{ A \}}=g(N_t, T_1, \cdots , T_{N_t})= g(0,0)1\!\!1_{ \{ t \textless T_{1} \}} + \sum_{n=1}^\infty g(N_t, T_1, \cdots , T_{N_t}) 1\!\!1_{ \{ T_n \leq t \textless t_{n+1} \}}= g(0,0)1\!\!1_{ \{ t \textless T_{1} \}} + \sum_{n=1}^\infty g(n, T_1, \cdots , T_{n}) 1\!\!1_{ \{ T_n \leq t \textless t_{n+1} \}}.$$

Como consequência, concluímos que 

$$A = (H_0 \cap \{ t \textless T_{1} \} ) \cup_{n=1}^\infty ( H_{n} \cap \{ T_n \leq t \textless t_{n+1} \}),$$

 nos quais $ H_0 \in \mathcal{F}^0_0 $ e $ H_n \in \mathcal{F}^0_{T_n} $. Neste caso, dizemos que a filtragem interna $ \mathbb{F}^0 $ do processo de Poisson $ N $ é do tipo discreta, isto é, 

 H_0 \in \mathcal{F}^0_0, ~ ~ H_n \in \mathcal{F}^0_{T_n}\}$$

para todo $ t \textgreater 0 $.

 

Teorema 7.3:

Seja  t \geq 0\} $ um processo de Poisson com intensidade $ \lambda $ e $ S $ um tempo de parada com respeito a filtragem interna de $ N $. Sobre o evento $ \{S \textless \infty \} $ definimos

$$N^S_t = N_{S+t} - N_S, t \geq 0.$$

Condicional ao evento $ \{S \textless \infty \} $, temos que  t \geq 0 \} $ também é um processo de Poisson com intensidade $ \lambda $ independente de $ \mathcal{F}_S^o $.

Demonstração: Sabemos que se $ S $ é uma constante o resultado é válido. Na sequência, suponha que $ S $ toma valores em um sequência crescente  j \geq 1 \} $ de número reais positivos. Desde que $ S $ é um tempo de parada, temos que

$$\{S=s_j\}=\{S \leq s_j\} - \{S \leq s_{j-1}\} \in \mathcal{F}^o_{s_j},$$

para todo $ j \geq 1 $.

Para todo $ A \in \mathcal{F}^o_S $, $ 0 \textless t_1 \textless t_2 \textless \cdots \textless t_\ell $ e $ n_1, \cdots , n_\ell $ pertencente aos naturais, temos que 

$$\mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^S_{t_k} = n_k \} \right\} \right] = \sum_{j=1}^\infty \mathbb{P} \left[ \{S_j = s_j\} \cap A \cap \left\{ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right\}\right]$$

 

$$= \sum_{j=1}^\infty \mathbb{P} \left[ \{S=s_j\} \cap A \right] \mathbb{P} \left[ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right] = \mathbb{P} (A) \mathbb{P} \left[ \bigcap_{k=1}^\ell \{N_{s_j+t_k} - N_{s_j} = n_k \} \right],$$

no qual utilizamos o fato de que $ \{S=s_j\} \cap A \in \mathcal{F}^o_{s_j} $ e o fato de que o processo de Poisson $ N $ tem incrementos estacionários. Portanto, o resultado é válido se $ S $ assume valores em uma sequência crescente de valores. 

De forma geral, sabemos que qualquer tempo de parada $ S $ pode ser aproximado por uma sequência decrescente de tempos de parada  n \geq 1\} $, na forma

$$S_n = \sum_{k=1}^\infty k 2^{-n} 1\!\!1_{ \{ (k-1)2^{-n} \textless S \leq k 2^{-n} \} } .$$

Desde que $ S_n $ assume valores em uma sequência crescente de valores, sabemos que o resultado é válido para $ S_n $. Como $ S \leq S_n $, obtemos que $ \mathcal{F}^o_{S} \subset \mathcal{F}^o_{S_n} $, para todo $ n \geq 1 $.

O fato de que $ N $ tem trajetórias contínuas à direita e de que $ A \in \mathcal{F}^o_{S} \subset \mathcal{F}^o_{S_n} $, nos leva a concluir que

$$\mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^{S_n}_{t_k} = n_k \} \right\} \right] \rightarrow \mathbb{P} \left[ A \cap \left\{ \bigcap_{k=1}^\ell \{N^{S}_{t_k} = n_k \} \right\} \right],$$

quando $ n \rightarrow \infty $. Com isso, obtemos o resultado.

Como consequência do Teorema 7.3, obtemos o seguinte corolário.

Corolário

Seja  t \geq 0\} $ um processo de Poisson com parâmetro $ \lambda $ e $ \{T_n\} $ a sequência de tempos de salto relacionado com $ N $. Tomamos os tempos de parada $ S_1=T_1 $, $ S_2=T_2 - T_1 $ e $ S_n=T_n - T_{n-1} $. As variáveis aleatórias $ S_1, S_2 , \cdots $ são independentes e identicamente distribuídas com distribuição exponencial de parâmetro $ \lambda $.

Demonstração: Sabemos que $ T_1 $ tem distribuição exponencial com parâmetro $ \lambda $. Como consequência do teorema 7.3, ao tomarmos $ S=T_n $, obtemos que $ S_n=T_n - T_{n-1} $ é o primeiro salto do processo de Poisson $ N^{T_n} $ e portanto, $ S_n $ também tem distribuição exponencial com parâmetro $ \lambda $ e é independente de $ T_1, \cdots , T_n $. Assim, concluímos que $ S_n $ é independente de $ S_1, \cdots , S_n $. Com isso, obtemos o resultado.

A seguir, apresentamos uma outra forma de definirmos o processo de Poisson que é utilizado em simulação. 

 

Teorema 7.4:

Seja $ N $ um processo de contagem. A filtragem natural de $ N $ é contínua a direita.

Demonstração: 

Desejamos mostrar que

 

$$ \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} = \mathcal{F}^{0}_t .$$

 

Para isso, temos de mostrar apenas que $ \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} \subset \mathcal{F}^{0}_t $, uma vez que $ \mathcal{F}^{0}_t \subset \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}}  $ segue de forma trivial, pois $ \mathcal{F}^0_t\subset \matcal{F}^0_{t+\frac{1}{n}},~~\forall n\geq 0, $ pela própria definição de filtragem.

Tome $ E = [0,\infty] $ e $ \mathcal{B} $ os borelianos de $ E $. Seja $ \Gamma $ o espaço produto dado por

$$ \Gamma = \left(\prod_{s \in [0, \infty)} E_s; \bigotimes_{s \in[0, \infty)} \mathcal{B}_s\right).$$

Definimos a relação  \Omega \rightarrow \Gamma $ dada por

$$ \pi_t(\omega) = s\mapsto N_{s\wedge t}(\omega).$$

Assim, temos que $ \pi_t $ é a relação que leva os elementos $ \omega $ no conjunto de funções constantes após $ t $

 \ s \in [0, \infty)\}.$$

Note que, por construção, $ \pi_t $ é um gerador da filtragem interna $ \mathcal{F}^0_t $, pois $ \pi_t $ tem como imagem todos os possíveis caminhos até $ N_t $, logo $ \mathcal{F}^0_t=\sigma(\pi_t) $.

Para ilustramos melhor como funciona a função $ \pi_t $ elaboramos um gráfico. Este gráfico ilustra um ponto da função $ \pi_t $. Note que, cada ponto da função $ \pi_t $ é dado como uma trajetória (uma função). O gráfico ilustra o ponto $ \pi_t(\omega) $ para $ \omega $ fixado.

Tome agora um evento $ \Lambda $ em $ \bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} $, temos que existe um conjunto $ A \in \bigotimes_{s \in[0, \infty)} \mathcal{B}_s $ de modo que $ \Lambda = \left\{\pi_{t+\frac{1}{n}} \in A\right\} $.

Defina agora um conjunto $ W_n = \left\{\pi_t = \pi_{t +\frac{1}{n}}\right\} $, temos que como o processo $ N_t $ é não explosivo, para cada $ \omega $, existe um $ n $, de modo que a função permanece constante em $ \left[t, t+\frac{1}{n}\right] $. Logo $ \bigcup_{n\geq 1} W_n = \Omega $.

Assim

$$\Lambda= \Omega \cap \Lambda= \lim_{n\rightarrow \infty} \left( W_n \cap \Lambda\right)$$

$$= \lim_{n\rightarrow \infty} \left( W_n \cap \left\{\pi_{t+\frac{1}{t}} \in A\right\}\right)= \lim_{n\rightarrow \infty} \left( W_n \cap \left\{\pi_{t} \in A\right\}\right)$$

$$= \lim_{n\rightarrow \infty} \left( \left\{\pi_{t} \in A\right\}\right)$$

 

Concluímos que $ \Lambda \in \mathcal{F}^0_t $.

Portanto

$$\bigcap_{n\geq 1} \mathcal{F}^{0}_{t+\frac{1}{n}} \subset \mathcal{F}^{0}_t.$$

Com isso, obtemos o resultado.

 

Exemplo 7.1: 

Suponha que os defeitos que ocorrem um cano subaquático de petróleo da Petrobras acontecem de acordo com um processo de Poisson com média $ \lambda=0,1 $ por Quilômetro.

i) Qual a probabilidade de acontecer zero defeito nos primeiros 2 Quilômetros ?

ii) Dado que não houve defeito nos primeiros 2 Quilômetros. Qual a probabilidade condicional de ter um defeito entre o segundo e o terceiro Quilômetro?

i) Basta usarmos a definição do processo de Poisson $ P[(N(t+s)-N(s))=n]=e^{-\lambda t}\frac{(\lambda t)^{n}}{n!} $ assim temos que

$$P[(N(2)-N(0))=0]=e^{- 0,2}\frac{(0,2)^{0}}{0!}=e^{- 0,2}=0,8187.$$

ii) Como $ N(3)-N(2) $ é independente de $ N(2)-N(1) $, a probabilidade condicional é dada por,

$$P[N(3)-N(2)=1|N(2)-N(0)=0]=P[N(3)-N(2)=1]=e^{- 0,1}\frac{(0,1)^{1}}{1!} = e^{-0,1} = 0,09048.$$

 

Exemplo 7.2: 

Suponha que os clientes de uma determinada loja chegam de acordo com um processo de Poisson com média $ \lambda $. Seja $ N(t) $ o número de clientes que entram até o tempo t.

i) Qual é a P[N(t)=k] para $ k=0,1,\cdots $?

ii) Fixemos t, assim para $ s\in(0,t) $. Determine $ P[N(t)=n+k|N(s)=n] $ e a $ E[N(t)N(s)] $.

i)Nesta primeira questão basta usarmos a definição do processo de Poisson como temos que N(0)=0 então

$$P[(N(t+s)-N(s))=n]=e^{-\lambda t}\frac{(\lambda t)^{n}}{n!}$$

 

o que implica que

$$P[(N(t+0)-N(0))=k]=P[(N(t+0)-N(0))=k]=e^{-\lambda t}\frac{(\lambda t)^{k}}{k!}$$

 

para $ k=0,1,\cdots $

ii) Notemos que dado que

$$\displaystyle P[N(t)=n+k|N(s)=n]=\frac{P[N(t)=n+k,N(s)=n]}{P[N(s)=n]}=\frac{P[N(t)-N(s)=k,N(s)=n]}{P[N(s)=n]}=$$

$$\frac{P[N(t)-N(s)=k]P[N(s)=n]}{P[N(s)=n]}=P[N(t)-N(s)=k]=e^{-\lambda (t-s)}\frac{(\lambda (t-s))^{k}}{k!}$$

 

A

$$E[N(s).N(t)]=E[N(s)[N(s)+N(t)-N(s)]]=E[N^2(s)+N(s)[N(t)-N(s)]]=$$

$$E[N^2(s)]+E[N(s)[N(t)-N(s)]]=E[N^2(s)]+E[N(s)]E[N(t)-N(s)]=$$

$$\lambda s+\lambda^2 s^2+\lambda s(\lambda(t-s))=\lambda s + \lambda^2 st$$

 

Exemplo 7.3: 

Suponha que em um call center cheguem ligações de acordo com um processo de Poisson com média $ \lambda=3 $ ligações por minuto.

Qual a probabilidade de que nenhuma ligação chegue durante toda amanha das 8:00 ao 12:00.

Notemos que durante toda as 4 horas pela manha que o call center funciona para não chegar nenhuma ligação é necessário que durante todo os 240min ou seja temos queremos calcular $ P[N(240)=0]=e^{-(3)(240)}\frac{-3(240)^0}{0!}=e^{-720} $.

Exemplo 7.4: 

Suponha que os clientes de um supermercado cheguem a um dos caixas do mesmo de acordo com um processo de Poisson com média $ \lambda=4 $ por hora dado que o supermercado abre as 7:00 qual a probabilidade de que tenha 1 cliente por volta das 7:30 um total de 5 clientes até as 9:30 ?

Se medirmos o tempo em horas então das 7:00 as 7:30 temos meia hora e das 7:00 as 9:30 temos 2,5 horas.

$$P[N(1/2)=1;N(5/2)=5]=P[N(1/2)=1;N(5/2)-N(1/2)=4]=$$

$$P[N(1/2)=1]P[N(5/2)-N(1/2)=4]=\left[e^{-4/2}\frac{2}{1!}\right]\left[e^{-8}\frac{8^4}{4!}\right]=0,0154965.$$

 

Exemplo 7.5:

Em certa rodovia, a intensidade média do fluxo de tráfego é de 30 carros por minuto. Um medidor é colocado na rua para registrar o número de carros
  passando. Suponha válido as hipótese do processo de poison calcule:

  (a) A probabilidade de que dois ou mais carros sejam registrados durante um determinado intervalo de dois segundos.

  Processo de Poisson:

$$\mathbb{P}(A^n_{t,t+s})=\frac{(\lambda s)^^n}{n!}e^{ns}, n=0,1,2,\dots$$

  $ \lambda=30/min $. Agora,
 

$$\mathbb{P}\left[(A^0_{t,t+\frac{1}{30}})\cup(A^1_{t,t+\frac{1}{30}})^c\right]=1-\frac{(30\frac{1}{30})}{0!}e^{-30\frac{1}{30}}- \frac{(30\frac{1}{30})^1}{1!}e^{-30\frac{1}{30}}=1-2e^{-1}$$

  (b) A probabilidade de passar mais de um minuto até registar o primeiro carro.
 

$$\mathbb{P}(A_{0,1}^0)=\frac{((30)1)^0}{0!}e^{-30\frac{1}{30}}=e^{-30}.$$


 

Exemplo 7.6:  Consideremos um experimento em que será contado o número de estrelas em uma região longíqua do espaço, a região sendo de volume V. Façamos as seguintes
  hipóteses, que são análogas espaciais das hipóteses do processo de Poisson:

  (H1) A probabilidade de achar k estrelas na região depende somente de V.
  (H2) Os números de estrelas contadas em regiões disjuntas do espaço são independentes.
  (H3) Duas estrelas não ocupam o mesmo lugar.

  Interpretando estas hipóteses de maneira semelhante à do processo de Poisson, obtenha o valor de $ \mathbb{P}_k(V)= $ probabilidade de achar exatamente $ k $
  estrelas na região sendo considerada.

  Contaremos o número de estrelas em uma determinada região V. Então, escolheremos um eixo arbitrário de coordenadas e um ponto de referência.
 

$$V=\frac{4}{3}\pi r^3$$

  uma esfera de raio $ r $ e fazemos
 

[0,\infty]\rightarrow \{0,1,\dots\}, \exists 0\textless V_1\textless V_2\textless \dots (V_n\uparrow \infty)| \omega(V)=0, \text{ para } V\in [0,V_1), \omega(V)=1 \text{ para } V\in [V_1,V_2)\right\}$$

  Com W=[Volume da esfera de centro $ (0,0,0) $ e raio $ r=\frac{4}{3}\pi r^3 $].
  Seja o evento $ A^k_{W,V}= $[Contas exatamente k estrelas no intervalo do volume $ (W,W+V] $ ]
  para $ W,V \textgreater 0 $ e $ k=0,1,2,\dots $ e assumiremos que a $ \sigma $-álgebra $ \mathcal{A} $ de conjunto de $ \Omega $ contenha todos os eventos do tipo $ A^k_{W,V} $. Com
 

 \omega(W+V)-\omega(W)=k\}, \quad s,t\geq 0, k=0,1,2,\dots$$

  As três hipóteses adotadas são:

  (H1): Incrementos estacionário: $ \mathbb{P}(A_{W,V}^k)=\mathbb{P}(A^k_{0,V})=\mathbb{P}_k(V) $, $ \forall k=0,1,2,\dots $, $ V \textgreater 0 $.

  (H3) "Chegadas" não simultâneas: $ \frac{1-\mathbb{P}_0(V)-\mathbb{P}_1(V)}{1-\mathbb{P}_0(V)}\stackrel{\rightarrow}{V\rightarrow 0} 0. $

  (H2) Incrementos independentes: ($ A^k_{W,V} $ e $ A^j_{U,Z} $ são independentes para toda escolha de $ k $ e $ j $ se $ (W,W+V]\cap (U,U+Z)=\emptyset $, e temos independência também no caso de $ 3,4,5, \dots $ intervalos disjuntos)

  Então, temos que
 

$$\mathbb{P}_k(V)=\frac{(\lambda V)^k}{k!}e^{-(\lambda V)}, k=0,1,2,\dots$$

  no qual $ \lambda= $(número médio de estrelas Contadas/Volume). V=(Volume de contagem)$ \geq 0 $


 

 

Exemplo 7.7: 

N pontos são escolhidos, independentemente e ao acaso, de uma esfera(bola) de raio R.

  (a) Calcule a probabilidade da distância entre o centro da esfera e o ponto mais proximo ser maior que r.

  Seja $ A_r= $(evento distância entre centro e ponto mais próximo é maior).
  $ \mathbb{P}(A_r)= $($ \mathbb{P} $( todos os pontos distanciar do centro mais que r)=$ \mathbb{P} $( do ponto distanciar mais que r).
 

$$\left\{\begin{array}{l}1, r=0\\ 1-\frac{r}{R}^3, 0\textless r\leq R\\ 0, r\textgreater R \end{array}\right.$$

  Então,
 

$$\mathbb{P}(A_r)=\left\{\begin{array}{l}1, r=0\\ \left(1-\frac{r}{R}^3\right)^N, 0\textless r\leq R\\ 0, r\textgreater R \end{array}\right.$$

  (b) Qual o limite da probabilidade obtida no item (a) quando $ r\rightarrow \infty $ e $ \frac{N}{r^3} $ e
  $ \frac{N}{r^3}\rightarrow \frac{4}{3}\pi \lambda $ ? (Observação: este $ \lambda $ é o mesmo exercício anterior)
 

$$\lim \mathbb{P}(A_r)=\lim \left(1-\frac{r}{R}^3\right)^N=\lim \left\{\left[1-\frac{r^3}{R^3}\right]^{R^3}\right\}^{\frac{N}{R^3}}=\lim (e^{-r_3})^{\frac{N}{R^3}}=e^{-\frac{4}{3}\pi r^3 \lambda}$$

  no qual $ V_r= $ volume da espera de centro na origem e raio $ r $.
  Obs: Isto é o mesmo que $ \mathbb{P}_0(V_r) $ no exercício anterior.


 

 Exemplo 7.8:

Acende-se uma lâmpada no instante $ t=0 $. Para $ t= 0 $. Para $ t \textgreater 0 $, seja $ Q(t+\Delta t|t) $ a probabilidade condicional da lâmpada queimar
  até o instante $ t+\Delta t $, dado que ficou acesa até o instante t. Suponha que
 

$$\forall t\textgreater 0, \quad \quad \frac{Q(t+\Delta t|t)}{\Delta t}\rightarrow \lambda t$$

  quando $ \Delta t\rightarrow 0 $, onde $ \lambda \textgreater 0 $ não depende de t.(Este limite é chamada taxa de falha da lâmpada. Neste exemplo, a taxa de
  falha, $ \lambda t $, é proporcional à idade)

  (a) Ache a equação diferencial satisfeita pela função $ \mathbb{P}(t) $= probabilidade da lâmpada ficar acesa até o instante t. Você pode supor que a função
  $ \mathbb{P} $ seja contínua, com $ \mathbb{P}(0)=1 $, e que as derivadas à direita e à esquerda sejam iguais.
 

$$Q(t+\Delta |t)=\mathbb{P}(T\textgreater t+\Delta t| T\textgreater t)=\frac{\mathbb{P}(T\textless t+\Delta t, T\textgreater t)}{\mathbb{P}(T\textgreater t)}$$

  Já que as derivadas são iguais a direita e a esquerda e a função é contínua então $ \mathbb{P}(t) $ é diferenciável em todo $ t\textgreater 0 $. Assim
 

$$\mathbb{P}(t)=\lim_{\Delta t\rightarrow 0}\frac{\mathbb{P}(t+\Delta t)-\mathbb{P}(t)}{\Delta t}=\lim_{\Delta t\rightarrow 0}-\mathbb{P}(t)\left[1-\frac{1-\frac{\mathbb{P}(t+\Delta t)}{\mathbb{P}(t)}}{\Delta t}\right]=-\mathbb{P}(t)Q(t+\Delta t/t)=-\lambda t\mathbb{P}(t).$$

  então, a equação diferencial será:
 

$$\mathbb{P}(t)+\lambda t \mathbb{P}(t)=0, \quad \quad \mathbb{P}(0)=1$$

  (b) Resolva a equação diferencial do item (a)
 

$$\mathbb{P}(t)+\lambda t\mathbb{P}(t)=0 \rightarrow \frac{d\mathbb{P}}{dt}=-\lambda t \mathbb{P}(t)$$

  o que implica
 

$$\int \frac{d\mathbb{P}}{\mathbb{P}}=\int -\lambda t dt\rightarrow \ln \mathbb{P}+C=-\frac{\lambda t^2}{2}$$

  o que implica que
 

$$\mathbb{P}(t)=k e^{-\frac{\lambda t^2}{2}}$$

  no qual $ k=e^{-c} $. Agora:
 

$$\mathbb{P}(0)=ke^{-\frac{\lambda 0^2}{2}}=k=1 \rightarrow \mathbb{P}(t)=e^{-\frac{\lambda t^2}{2}}, t\geq 0.$$

  (c) Obtenha e resolva a equação diferencial satisfeita por $ \mathbb{P}(t) $ quando a taxa de falha é constante ($ =\lambda $).
  Teremos:
 

$$\mathbb{P}(t)=-\mathbb{P}(t)Q(t+\Delta t|t)=-\mathbb{P}(t)\lambda$$

  o implica que
 

$$\int \frac{d\mathbb{P}}{\mathbb{P}}=\int -\lambda dt\Rightarrow \ln \mathbb{P}(t) +C=e^{-\lambda t}\Rightarrow \mathbb{P}(t)= k e^{-\lambda t}$$

  Agora $ \mathbb{P}(0)=1=k e^{-0 \lambda}=k $
  o que implica que
 

$$\mathbb{P}(t)=e^{-\lambda t}, t\geq 0$$

 

Exemplo 7.9:

Uma lâmpada está acesa no tempo $ t=0 $. Sempre que a lâmpada queimar, é substituída por uma lâmpada nova, embora isso não seja feito imediatamente.
  Suponha que para todo $ t\textgreater 0 $;

  (H1) dado que a lâmpada esteja acesa no instante t, a probabilidade dela estar queimada no instante $ t+\Delta t $, dividida por $ \Delta t $, converge para
  $ \lambda $ quando $ \Delta t\rightarrow 0; $ e

  (H2) dado que a lâmpada esteja queimada no instante t, a probabilidade dela estar novamente acesa em $ t+\Delta t $, divida por $ \Delta t $, converge para
  $ \xi $ quando $ \Delta \rightarrow 0 $. ($ \lambda, \xi \textgreater 0. $)

  (a) Seja $ \mathbb{P}(t) $ a probabilidade da lâmpada estar acesa no instante t, $ t\geq 0 $. Ache a equação diferencial satisfeita por $ \mathbb{P}(t) $.
   

$$\mathbb{P}_{q/a}(t+\Delta t|t)=\{\text{ probabilidade de estar queimada em } t+\Delta t \text{ dado que estava acesa em } t\}$$

   

$$\mathbb{P}_{a/q}(t+\Delta t|t)=\{\text{ probabilidade de estar acesa em } t+\Delta t \text{ dado que estava queimada em } t\}$$

    Pela hipótese $ (H1) $,
   

$$\frac{\mathbb{P}_{q/a}(t+\Delta t|t)}{\Delta t}\rightarrow \lambda$$

    Por (H2)
   

$$\frac{\mathbb{P}_{a/q}(t+\Delta t|t)}{\Delta t}\rightarrow \xi$$

    e seja $ \mathbb{P}_a(t)=\{\text{ probabilidade de estar acesa em t}\} $. Então
   

$$\mathbb{P}_a(t+\Delta t)=\mathbb{P}(\text{ acesa em } t+\Delta t, \text{ acesa em } t \cup \text{queimada em } t)= $$

$$\mathbb{P}(\text{ acesa em } t+\Delta t, \text{ acesa em } t) \mathbb{P}(\text{ acesa em } t+\Delta t, \text{queimada em } t)=$$

$$\left[1-\mathbb{P}_{q/a}(t+\Delta t|t)\right]\mathbb{P}_a(t)+\left[\mathbb{P}_{a/q}(t+\Delta t| t)\right]\left[1-\mathbb{P}_a(t)\right]$$

    Então,
   

$$\mathbb{P}_a(t+\Delta t)-\mathbb{P}_a(t)=\left[-\mathbb{P}_{q/a}(t+\Delta t|t)-\mathbb{P}_{a/q}(t+\Delta t|t)\right]\mathbb{P}_a(t)+\mathbb{P}_{a/q}(t+\Delta t| t).$$

    Agora sendo $ \mathbb{P}_a $ contínua e com derivados iguais a direita e esquerda e portanto diferenciável em todo t.
   

$$\mathbb{P}^\prime_a(t)=\lim_{\Delta t\rightarrow 0} \frac{\mathbb{P}_a(t+\Delta t)-\mathbb{P}_a(t)}{\Delta t}= \lim_{\Delta t\rightarrow 0}\mathbb{P}_a(t)\left[-\mathbb{P}_{q/a}(t+\Delta t| t){\Delta t}-\frac{\mathbb{P}_{a/q}(t+\Delta t| t)}{\Delta t}\right]+\frac{\mathbb{P}_{a/q}(t+\Delta t|t)}{\Delta t}= -\mathbb{P}_a(t)[\lambda +\xi]+\xi.$$

    Então, a equação diferencial será
   

$$\mathbb{P}^\prime_a(t)+\mathbb{P}_a(t)[\lambda+\xi]-\xi=0, \mathbb{P}_a(0)=1.$$

  (b) Resolva a  equação diferencial do item (a). Determine $ \lim_{t\rightarrow \infty} \mathbb{P}(t) $.

  Temos que
 

$$\mathbb{P}^\prime_a(t)+\mathbb{P}_a(t)[\lambda+\xi]=0$$

  o que implica que
 

$$\mathbb{P}_a^h(t)=k e^{-(\lambda+\xi)t}$$

  solução particular
 

$$\mathbb{P}_a(t)=C\Rightarrow C[\lambda +\xi]=\xi \Rightarrow C=\frac{\xi}{\lambda +\xi}$$

  o que implica que
 

$$\mathbb{P}^p_a(t)=\frac{\xi}{\lambda+\xi}$$

  e então
 

$$\mathbb{P}_a(t)=\mathbb{P}_a^h(t)+\mathbb{P}_a^p(t)=ke^{(\lambda+\xi)t}+\frac{\xi}{\lambda +\xi}, t\geq 0$$

  Agora,
 

$$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)=\frac{\xi}{\lambda+\xi}.$$

  Este resultado tem um apelo intuitivo, pois se $ \xi\gg \lambda $ então
 

$$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)\approx 1$$

  ou seja, a lâmpada permanece acesa e se, $ \lambda \gg \xi $ então
 

$$\lim_{t\rightarrow \infty}\mathbb{P}_a(t)\approx 0$$

  ou seja, a lâmpada permanece queimada. De fato, esta relação nos dá uma idéia da proporção do tempo que a lâmpada fica acesa.

Exemplo 7.10:  Suponhamos que cada elemento de certa população ou morre ou se divide. (Exemplo: uma colônia de bactérias.) Façamos três hipóteses:

  (H1) A probabilidade de que um elemento, vivo no instante t, venha a morrer até o instante $ t+\Delta t $, é assintoticamente equivalente a $ \mu\Delta<br />  t $(i.e., a razão dos dois converge para 1 quando $ \Delta t \rightarrow 0 $).

  (H2) Um elemento vivo no instante t se divide até o instante $ t+\Delta t $ com probabilidade assintoticamente equivalente a $ \lambda \Delta t $, e produz
  "netos" (i.e., se divide ao menos duas vezes) com probabilidade que, dividida por $ \Delta t $, converge para 0 quando $ \Delta t\rightarrow 0 $.

  (H3) Não há interação entre os elementos, e eles morrem ou se dividem independentemente.

  (a) Ache as equações diferenciais satisfeitas pelas probabilidades $ \mathbb{P}_n(t)= $ probabilidade da população conter exatamente $ n $ elementos no instante t $ (n=0,1,2, \dots; t\geq 0). $

  (b) Mostre que se $ \lambda= \mu=1 $ e $ \mathbb{P}_1(0)=1 $, uma solução será
 

$$\mathbb{P}_0(t)=\frac{t}{1+t}; \mathbb{P}_n(t)=\frac{t^{n-1}}{(1+t)^{n+1}}, n=1,2, \dots.$$

  (c) Supondo que a solução do item (b) seja a única, qual a probabilidade da população mais cedo ou mais tarde ficar extinta ?
 

Processo Estocástico

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]