Skip to main content

5.2 - Distribuição de Poisson

Em muitas situações nos deparamos com a situação em que o número de ensaios $ n $ é grande ($ n\rightarrow \infty $) e $ p $ é pequeno ($ p\rightarrow 0 $), no cálculo da função binomial, o que nos leva a algumas dificuldades, pois, como podemos analisar, para $ n $ muito grande e $ p $ pequeno, fica relativamente difícil calcularmos a probabilidade de $ k $ sucessos a partir do modelo binomial, isto é, utilizando a função de probabilidade

\[p(k)=\mathbb{P}(X=k)=\left(\begin{array}{c}n\\k\end{array}\right)p^k(1-p)^{n-k}.\]

Observamos que podemos reescrever a expressão acima da seguinte forma

\[\mathbb{P}(X=k)=\frac{n!}{k!(n-k)!}p^k\frac{n^k}{n^k}\left(1-\frac{np}{n}\right)^{n-k}=\frac{n!}{k!(n-k)!}\frac{(np)^k}{n^k}\left(1-\frac{np}{n}\right)^{n-k}\]

e, tomando $ \lambda = np $, segue que

\[\mathbb{P}(X = k)=\frac{n(n-1)\cdots(n-k+1)}{k!}\frac{\lambda^k}{n^k}\left(1-\frac{\lambda}{n}\right)^{n-k}=\frac{\lambda^k}{k!}1\left(1-\frac{1}{n}\right)\dots\left(1-\frac{k-1}{n}\right)\left(1-\frac{\lambda}{n}\right)^{n-k}.\]

Se tomarmos o limite quando $ n\rightarrow \infty $, obtemos que

\[\lim_{n\rightarrow \infty}1\left(1-\frac{1}{n}\right)\dots\left(1-\frac{k-1}{n}\right)=1\]

e

\[\lim_{n\rightarrow \infty}\left(1-\frac{\lambda}{n}\right)^{n-k}=\lim_{n\rightarrow \infty}\left(1-\frac{\lambda}{n}\right)^{n}=e^{-\lambda}\]

para $ k = 0,1,\ldots $ e $ e\approx 2,718 $.

Assim temos que 

\[\lim_{n\rightarrow \infty}\mathbb{P}(X=k)=\frac{e^{-\lambda}\lambda^k}{k!}.\]

Tal expressão é devida a Poisson e é muito utilizada para calcular probabilidades de ocorrências de defeitos "raros" em sistemas e componentes.


Definição 5.2.1: Uma variável aleatória discreta $ X $ segue a distribuição de Poisson com parâmetro $ \lambda $, $ \lambda \ \textgreater 0 $, se sua função de probabilidade for dada por

\[\mathbb{P}(X=k)=\frac{e^{-\lambda}\lambda^k}{k!}.\]

Utilizamos a notação $ X \sim \ \text{Poisson}(\lambda) $ ou $ X\sim \ \text{Po}(\lambda) $. O parâmetro $ \lambda $ indica a taxa de ocorrência por unidade medida.


Exemplo 5.2.1: Considere um processo que têm uma taxa de $ 0,2 $ defeitos por unidade. Qual a probabilidade de uma unidade qualquer apresentar:
a) dois defeitos?
b) um defeito?
c) zero defeito?

Solução: Neste caso, temos que $ X \sim \ \text{Poisson}(\lambda) $ com $ \lambda=0,2 $. Então

a) $ \displaystyle\mathbb{P}(X=2)=\frac{e^{-0,2}(0,2)^2}{2!}=0,0164 $;

b. $ \displaystyle\mathbb{P}(X=1)=\frac{e^{-0,2}(0,2)^1}{1!}=0,1637 $;

c. $ \displaystyle\mathbb{P}(X=0)=\frac{e^{-0,2}(0,2)^0}{0!}=0,8187 $.


Exemplo 5.2.2: Suponha que uma aplicação de tinta em um automóvel e feita de forma mecânica, e pode produzir defeitos de fabricação, como bolhas ou áreas mal pintadas, de acordo com uma variável aleatória $ X $ que segue uma distribuição de Poisson de parâmetro $ \lambda=1 $. Suponha que sorteamos um carro ao acaso para que sua pintura seja inspecionada, qual a probabilidade de encontrarmos, pelo menos, $ 1 $ defeito? E qual a probabilidade de encontrarmos de $ 2 $ a $ 4 $ defeitos?

A probabilidade de encontrarmos pelo menos um defeito é dada por:

\[\mathbb{P}(X\geq 1)=1-\mathbb{P}(X\textless 1)=1-\frac{e^{-1}1^0}{0!}=1-e^{-1}\approx 0,63212.\]

Já a probabilidade de encontrarmos entre 2 e 4 defeitos é de

\[\mathbb{P}(2\leq X\leq 4)=\mathbb{P}(X=2)+\mathbb{P}(X=3)+\mathbb{P}(X=4)=\frac{e^{-1}1^2}{2!}+\frac{e^{-1}1^3}{3!}+\frac{e^{-1}1^4}{4!}\approx 0,26058.\]


Exemplo 5.2.3: Suponha que 10% das crianças de um determinado bairro do Rio de Janeiro prefiram sorvete de baunilha ao de chocolate. Qual a probabilidade de que, se entrevistarmos $ 10 $ crianças deste bairro, exatamente $ 2 $ duas prefiram soverte de baunilha?

Podemos resolver este problema de duas maneiras. A primeira é a partir da utilização da distribuição binomial com parâmetros $ n=10 $ e $ p=0,1 $. A segunda, através da distribuição de Poisson de parâmetro $ \lambda = np = 1 $ que, embora não seja tão exata quanto a binomial, é bem mais simples de ser calculada. Calculemos primeiramente pela distribuição binomial.

\[\mathbb{P}(X=2)=\left(\begin{array}{c}10\\2\end{array}\right)(0,1)^2(0,9)^8\approx 0,194.\]

Já pelo método de Poisson temos 

\[\mathbb{P}(X=2)=\frac{e^{-1}}{2!}\approx 0,184.\]

Embora pelo método de Poisson tenhamos um erro associado a aproximação da distribuição binomial (que é a distribuição exata), este erro, em muitos casos, não chega a ser significativo.


Exemplo 5.2.4: Suponhamos que em uma indústria farmacêutica 0,001% de um determinado medicamento sai da linha de produção somente com o excipiente, ou seja, sem nenhum princípio ativo. Qual a probabilidade de que em uma amostra de 4 mil medicamentos mais de 2 deles esteja somente com o excipiente.

Vamos calcular esta probabilidade usando a aproximação de poisson, pois além de ser uma aproximação muito boa neste caso é bem mais fácil de ser calculada.

Para usarmos a distribuição de Poisson primeiramente devemos encontrar o $ \lambda $, o qual é dado por $ \lambda=0,001~\cdot ~ 4000=4 $. Assim

\[\mathbb{P}(X\geq 2)=1-\mathbb{P}(X=0)-\mathbb{P}(X=1)=1-\displaystyle \frac{4^0e^{-4}}{4!}-\frac{4^1 e^{-4}}{4!}\approx 1-0,00382=0,99618.\]

Assim a probabilidade de que existam mais de 2 medicamentos com apenas o excipiente é de 99,618%.


Função Geradora de Momentos, Valor Esperado e Variância.


Seja $ X $ uma variável aleatória discreta com distribuição de Poisson, com parâmetro $ \lambda $, ou seja, $ X\sim \ \text{Poisson}(\lambda) $. Então sua função geradora de momentos é dada por:

\[M_{X}(t)=\mathbb{E}[e^{tX}]=\sum_{k=0}^{\infty}\frac{e^{tk}e^{\lambda}\lambda^k}{k!}=e^{-\lambda}\sum_{k=0}^{\infty}\frac{(\lambda e^t)^k}{k!}=e^{-\lambda}e^{\lambda e^t}=e^{\lambda[e^t-1]}.\]

O valor esperado de $ X $, que frequentemente é chamado de taxa de defeitos, é dado por:

\[\mathbb{E}(X)=\sum_{k=0}^\infty k\frac{e^{-\lambda}\lambda^k}{k!}=\sum_{k=1}^{\infty}\lambda \left[\frac{e^{-\lambda}\lambda^{k-1}}{(k-1)!}\right]=\lambda e^{-\lambda}\sum_{k=1}^{\infty}\left[\frac{\lambda^{k-1}}{(k-1)!}\right]=\lambda e^{-\lambda}\sum_{k=0}^{\infty}\left[\frac{\lambda^k}{k!}\right] = \lambda e^{-\lambda}e^{\lambda}=\lambda.\]

Outra forma de calcularmos o valor esperando é utilizando a função geradora de momentos, pois $ M'(0)=\mathbb{E}(X) $. Desta forma temos que:

\[M'(t)=\frac{d}{dt}\exp(\lambda(\exp(t)-1))=\lambda \exp(\lambda(e^t - 1)+t)\]

e então,

\[\mathbb{E}(X) = M'(0)=\lambda \exp(1-1+0)=\lambda.\]

Da mesma forma como feito para a esperança vamos usar a função gerradora de momentos para calcular a a variância, pois temos que $ \mathbb{E}[X^2]=M''(0) $. Assim

\[M''(t)=\lambda(e^{\lambda(e^t - 1)+t}(\lambda e^t +1))\]

e então,

\[\mathbb{E}(X^2) = M''(0)=\lambda(\lambda+1)\]

de onde segue que

\[\text{Var}(X)=\mathbb{E}(X^2)-(\mathbb{E}(X))^2=\lambda(\lambda+1)-\lambda^2=\lambda.\]