5.3 - Distribuição geométrica

Você está aqui

Consideremos uma sequência ilimitada de ensaios de Bernoulli, com probabilidade de sucesso p em cada ensaio. Designemos sucesso por $ S $ e falha por $ F $. Realizamos os ensaios até que ocorra o primeiro sucesso.

O espaço amostral para este experimento é o conjunto $ \{S, FS, FFS, FFFS,\ldots\} $.

Ou seja, um elemento típico desse espaço amostral é uma sequência de $ n $ em que nos $ n-1 $ primeiros ensaios temos $ F $ e na $ n $-ésima temos S.

A distribuição geométrica apresenta duas parametrizações importantes, que têm interpretações distintas. Uma das parametrizações da função geométrica conta o número de falhas até que ocorra o primeiro sucesso. Notemos que nessa parametrização podemos incluir o zero como sendo um possível resultado, pois podemos ter sucesso já no primeiro ensaio de Bernoulli. 

A segunda parametrização da geométrica conta o número de ensaios de bernoulli necessário para se obter um sucesso. Assim nessa parametrização não é possível se ter o zero, portanto nessa parametrização da geométrica o domínio será os números naturais sem o zero. 

Geométrica (conta o número de falhas até o sucesso.)

Definição 5.3.1:

Seja $ X $ a variável aleatória que fornece o número de falhas até o primeiro sucesso. A variável $ X $ tem distribuição Geométrica com parâmetro $ p $, $ 0 \ \textless \ p \ \textless \ 1 $, se sua função de probabilidade é dada por


\[\mathbb{P}\left(X=j\right)=(1-p)^jp, \quad j=0,1,\ldots\]

 

Usaremos a notação $ X \sim \ \text{Geo}(p) $.

O evento $ [X=j] $ ocorre se, e somente se, ocorrem somente falhas nos $ j $ primeiros ensaios e sucesso no $ (j+1) $-ésimo ensaio.

A distribuição geométrica tem uma propriedade que serve para caracterizá-la no conjunto das distribuições discretas:

Propriedade 5.3.1:

Se $ X $ é variável aleatória discreta com distribuição geométrica, então, para todo $ j,k = 1,2,\ldots $ temos que:


\[\mathbb{P}\left(X\textgreater t+s|X\geq s\right)=\mathbb{P}\left(X\textgreater t\right).\]

 

Este resultado reflete a falta de memória ou de desgaste da distribuição geométrica.

Demonstração:

De fato, temos que


\[\mathbb{P}\left(X\textgreater t+s|X\geq s\right)=\frac{\mathbb{P}\left(X\textgreater t+s; X\geq s\left)}{\mathbb{P}\left(X\geq s\right)}=\frac{\mathbb{P}\left(X\textgreater t+s\right)}{\mathbb{P}\left(X\geq s\right)}=\frac{\sum_{k=t+s+1}^{\infty}p(1-p)^k}{\sum_{j=s}^{\infty}p(1-p)^j}\]

 

de onde segue que


\[\mathbb{P}\left(X\textgreater t+s|X\geq s\right)=\frac{1-p\sum_{k=0}^{t+s}(1-p)^k}{1-p\sum_{j=0}^{s-1}(1-p)^j}=\frac{(1-p)^{t+s+1}}{(1-p)^{s}}=(1-p)^{t+1}=1-p\sum_{k=0}^{t}(1-p)^k\]

 

e, portanto,


\[\mathbb{P}\left(X\textgreater t+s|X\geq s\right)=\sum_{k=t+1}^{\infty}p(1-p)^k=\mathbb{P}\left(X\textgreater t\right).\]

 

Portanto a distribuição geométrica apresenta a propriedade de perda de momória. Vale notar que ela é a única distribuição discreta com essa característica.

Propriedade 5.3.2: 

Seja $ h(k)=\displaystyle \frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)} $ mostre que se $ X\sim Geo(p)  $ então h(k)=p

De fato,


\[h(k)=\frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)}=\frac{p(1-p)^k}{\sum_{j=k}^{\infty}p(1-p)^j}=\frac{p(1-p)^k}{1-\sum_{j=0}^{k-1}p(1-p)^j}=\frac{(1-p)^{k}p}{(1-p)^{k}}=p.\]

 

Notemos que h(k) é muito usado em análise de sobrevivência e representa a função risco.

Exemplo 5.3.1: 

Considere o experimento em que uma moeda viciada é lançada sucessivas vezes, até que ocorra a primeira cara. Seja $ X $ a variável aleatória que conta o número de coroas obtidos no experimento (ou seja, a quantidade de lançamentos anteriores a obtenção da primeira cara). Sabendo que a probabilidade de cara é de $ 0,4 $, qual é a probabilidade de $ \mathbb{P}(2\leq X\textless 4) $ e a probabilidade de $ \mathbb{P}(X\textgreater 1| X\leq 2) $.

Observamos que


\[\mathbb{P}(2\leq X\textless 4)=\mathbb{P}(X=2)+\mathbb{P}(X=3)=0,6^2\cdot 0,4+0,6^3\cdot 0,4=0,2304.\]

 

Vamos calcular agora $ \mathbb{P}(X\textgreater 1| X\leq 2) $.


\[\mathbb{P}(X\textgreater 1| X\leq 2)=\frac{\mathbb{P}(X\textgreater 1\cap X\leq 2)}{\mathbb{P}(X\leq2)}=\frac{\mathbb{P}(X=2)}{\mathbb{P}(X=0)+\mathbb{P}(X=1)+\mathbb{P}(X=2)}=\frac{0,144}{0,784}=0,18367.\]

 

Exemplo 5.3.2:

Um pesquisador está realizando um experimentos químico independentes e sabe que a probabilidade de que cada experimento apresente uma reação positiva é $ 0,3 $. Qual é a probabilidade de que menos de 5 reações negativas ocorram antes da primeira positiva?

Para resolver este problema, considere $ X $ como sendo a variável aleatória que representa o número de reações negativas até a ocorrência da primeira positiva. Neste caso, temos que $ X\sim \ \text{Geo}(0,3) $ e então


\[\mathbb{P}(X \ \textless \ 5) = \sum_{i=0}^4\mathbb{P}(X=i)=0,3+0,7\cdot 0,3 + 0,7^2\cdot 0,3 + 0,7^3\cdot 0,3 + 0,7^4\cdot 0,3 = 0,83193.\]

 

 

Exemplo 5.3.3:

Considerando o exemplo 5.3.1, qual a probabilidade de que $ X\geq 1 $.


\[\mathbb{P}(X\geq 1)=1-\mathbb{P}(X\textless 1)=1-\mathbb{P}(X=0)=1-0,4=0,6.\]

 

Função Geradora de Momentos, Valor Esperado e Variância

Seja $ X $ uma variável aleatória discreta com distribuição geométrica. Então a função geradora de momentos é dada por:


\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{k=0}^{\infty}e^{tk}(1-p)^{k}p=p\sum_{k=0}^{\infty}(e^{t})^{k}(1-p)^{k}=p\sum_{k=0}^{\infty}[e^{t}(1-p)]^{k} =\frac{p}{1-(1-p)e^t}.\]

 

Desta forma, o valor esperado de $ X $ é dado por


\[\mathbb{E}(X)=\sum_{j=0}^\infty j(1-p)^jp=p\sum_{j=0}^\infty j(1-p)^j=p(1-p)\sum_{j=0}^\infty j(1-p)^{j-1}=\frac{p(1-p)}{p^2}.\]

 

ou seja,


\[\mathbb{E}(X)=\frac{1-p}{p}.\]

 

Podemos calcular o valor esperado de $ X $ através da função geradora de momentos, sabendo que $ \mathbb{E}(X) = M^\prime(0) $. Para isto, temos que


\[M^\prime_X(t)=-\frac{(1-p)pe^t}{((p-1)e^t+1)^2}.\]

 

Assim o valor esperado é dado por:


\[\mathbb{E}(X)=M^\prime_X(0)=-\frac{(p-1)pe^0}{((p-1)e^0+1)^2}=-\frac{(p-1)p}{((p-1)+1)^2}=-\frac{(p-1)p}{p^2}=\frac{(1-p)}{p}.\]

 

Também podemos utilizar a função geradora de momentos para calcular a variância da variável $ X $, sabendo que $ \mathbb{E}(X^2) = M^{\prime\prime}(0) $. Para isto, temos que


\[M^{\prime\prime}_X(t)=\frac{(p-1)pe^t((p-1)e^t -1)}{((p-1)e^t+1)^3}\]

 

e, portanto


\[\mathbb{E}(X^2)=M^{\prime\prime}_X(0)=\frac{(p-1)p((p-1)-1)}{((p-1)+1)^3}=\frac{p(p-1)(p-2)}{p^3}=\frac{p^3-3p^2+2p}{p^3}\]

 

e a variância é dada por


\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\frac{p^3-3p^2+2p}{p^3}-\frac{(1-p)^2}{p^2}=\frac{1-p}{p^2}.\]

 

Geométrica (conta o número ensaios para se obter um sucesso.)

Definição 5.3.2: 

Seja $ X $ a variável aleatória que fornece o número de ensaios de Bernoulli realizados até a obtenção do primeiro sucesso. A variável $ X $ tem distribuição Geométrica com parâmetro $ p $, $ 0 \ \texless \ p \ \textless \  1 $, se sua função de probabilidade é dada por


\[\mathbb{P}(X=j)=(1-p)^{j-1} p, \quad j=1,2,\ldots\]

 

Usaremos a notação X $ \sim $ Geo(p).

Observação 5.3.1:

Observe que, nesta parametrização os valores possíveis assumidos pela variável aleatória $ X $ são $ \mathcal{R}_X = \{1,2,\ldots\} $ e que a probabilidade de $ X $ ser igual ao valor $ k $ é igual a probabilidade de $ X $ ser igual a $ k-1 $ na parametrização anterior.

Exemplo 5.3.4:

Um dado honesto é lançado sucessivas vezes até que apareça pela primeira vez a face 1. Seja $ X $ a variável aleatória que conta o número de ensaios até que corra o primeiro $ 1 $. Qual a probabilidade de obtermos $ 1 $ no terceiro lançamento.

Como o dado é honesto, a probabilidade de, em um lançamento, obtermos qualquer face é igual a 1/6. Neste caso, a probabilidade de se obter a face $ 1 $ (sucesso) é $ 1/6 $ e a probabilidade de se obter qualquer outra face (fracasso) é $ 5/6 $. Podemos definir a variável aleatória


\[Y = \left\{\begin{array}{l}1, \ \text{se obtemos 1 no lançamento do dado}\\0, \ \text{caso contrário}\end{array}\right.\]

 

Neste caso, $ Y\sim \ \text{Bernoulli}(1/6) $ e, se definirmos $ X $ como sendo a variável que representa o número de lançamentos até a obtenção do primeiro sucesso (aparecimento da face 1), temos que $ X \sim \ \text{Geo}(1/6) $. Portanto, se estamos interessados no cálculo da probabilidade de obter $ 1 $ no terceiro lançamento, precisamos calcular $ \mathbb{P}(X = 3) $, ou seja,


\[\mathbb{P}(X=3)=(1-p)^2p=\left(1-\frac{1}{6}\right)^2\frac{1}{6}=\left(\frac{5}{6}\right)^2\frac{1}{6}=\frac{5^2}{6^3}\approx 0,115741.\]

 

Exemplo 5.3.5: 

Um pesquisador está produzindo um novo tipo de vacina para ser usada em seres humanos. Através de testes em animais ele chegou à conclusão de que esta vacina tem probabilidade de matar o usuário em 0,1% dos casos. Por causa das leis do país onde será aplicada, a vacina deve ter sua produção suspensa após ocorrer sua primeira morte.

Se admitirmos como sendo a ocorrência da morte do paciente como um sucesso então $ p=0,001 $. Assim, se $ X $ é o número de pessoas que tomarão a vacina até a ocorrência da primeira morte, temos que $ X $ tem uma distribuição geométrica com parâmetro $ p $, isto é, $ X\sim \ \text{Geo}(0,001) $, e a probabilidade de que a primeira morte ocorra na $ k $-ésima aplicação da vacina é


\[\mathbb{P}(X=k)=0,001(1-0,001)^k-1.\]

 

Analisando a função podemos verificar que conforme aumenta o número de pessoas que tomam a vacina maior é a chance de que uma pessoa morra e a produção seja interrompida.

Exemplo 5.3.6:

Voltando ao Exemplo 5.3.4 vamos calcular $ \mathbb{P}\left(3 \leq X\leq 5\right) $.


\[\mathbb{P}\left(n\leq X \leq m\right)=\mathbb{P}\left(X\leq m\right)-\mathbb{P}\left(X \ \textless \ n\right)=\sum_{j=1}^{m}p(1-p)^{j-1}-\sum_{j=1}^{n-1}p(1-p)^{j-1}=\sum_{j=n}^{m}p(1-p)^{j-1}.\]

 

Assim 


\[\mathbb{P}\left(3\leq X\leq 5\right)=\sum_{j=3}^{5}\frac{1}{6}(\frac{5}{6})^{j-1}=\frac{25}{216}+\frac{125}{1296}+\frac{625}{7776}\approx 0,29257.\]

 

Observe que as duas parametrizações estão intimamente ligadas. De fato, suponha que $ Y $ seja uma variável aleatória geométrica com a parametrização anterior e com parâmetro $ p $, isto é:


\[\mathbb{P}\left(Y=k\right)=p(1-p)^{k}\]

 

e suponha que $ X $ seja uma distribuição geométrica com a parametrização atual e com o mesmo parâmetro $ p $, ou seja:


\[\mathbb{P}\left(X=k\right)=p(1-p)^{k-1}.\]

 

Assim


\[\mathbb{P}\left(Y=k\right)=p(1-p)^{k}=p(1-p)^{(k+1)-1}=\mathbb{P}\left(X=k+1\right)\]

 

e, portanto,


\[\mathbb{P}\left(Y\textgreater m+n|Y\geq n\right)=\mathbb{P}\left(Y\textgreater m\right)=\mathbb{P}\left(X\textgreater m+1\right).\]

 

Por outro lado 


\[\mathbb{P}\left(Y\textgreater m+n|Y\geq n\right)=\frac{\mathbb{P}\left(Y \textgreater m+n\right)}{\mathbb{P}\left(Y\geq n\right)}=\frac{\mathbb{P}\left(X\textgreater m+n+1\right)}{\mathbb{P}\left(X\geq n+1\right)}=\mathbb{P}\left(X\textgreater m+1\right).\]

 

tomando $ s = n+1 $, temos que:


\[\mathbb{P}\left(X\textgreater m+s|X\geq s\right)=\mathbb{P}\left(X\textgreater m+1\right).\]

 

Exemplo 5.3.7:

Seja $ h(k)=\displaystyle \frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)} $. Mostre que se $ X\sim \ \text{Geo}(p) $ então $ h(k)=p $.

De fato,


\[h(k)=\frac{\mathbb{P}\left(X=k\right)}{\mathbbl{P}\left(X\geq k\right)}=\frac{p(1-p)^{k-1}}{\sum_{j=k}^{\infty}p(1-p)^{j-1}}\]

 

de onde segue que


\[h(k)=\frac{p(1-p)^{k-1}}{1-\sum_{j=1}^{k-1}p(1-p)^j}=\frac{(1-p)^{k-1}p}{(1-p)^{k-1}}=p.\]

 

Função Geradora de Momentos, Valor Esperado e Variância.

Seja $ X $ uma variável aleatória discreta com distribuição geométrica de parâmetro $ p $. Assim a função geradora de momentos é dada por


\[M_{X}(t)=\mathbb{E}[e^{tX}]=pe^{t}\sum_{k=0}^{\infty}(e^{t})^{k-1}(1-p)^{k-1}=pe^{t}\sum_{k=0}^{\infty}[e^{t}(1-p)]^{k-1}=\frac{p}{(1-p)}\sum^\infty_{k=0}[e^t(1-p)]^k=\frac{p}{(1-p)(1-(1-p)e^t)}.\]

 

Agora vamos calcular o valor esperado.


\[\mathbb{E}(X)=\sum_{j=0}^\infty j(1-p)^{j-1}p=p\sum_{j=0}^\infty j(1-p)^{j-1}=\frac{p}{p^2}.\]

 

Assim, temos que


\[\mathbb{E}\left(X\right)=\frac{1}{p}.\]

 

Outra forma de calcularmos o valor esperado é usando a função geradora de momentos. Desta forma


\[M^\prime_X(t)=\frac{pe^t}{((1-p)e^t+1)^2}.\]

 

Como $ \mathbb{E}(X) = M^\prime_X(0 $, temos que


\[\mathbb{E}(X) = M^\prime_X(0)=\frac{p}{((p-1)+1)^2}=\frac{1}{p}.\]

 

Também podemos utilizar a função geradora de momentos para calcular a variância desta variável aleatória, já que $ \mathbb{E}(X^2) = M^{\prime\prime}_X(0) $. Então


\[M_X^{\prime\prime}(t)=-\frac{pe^t((p-1)e^t-1)}{((p-1)e^t+1)^3}\]

 

e, portanto,


\[\mathbb{E}(X^2) = M_X^{\prime\prime}(0)=-\frac{p(p-2)}{p^3}=-\frac{(p-2)}{p^2}=\frac{2-p}{p^2}.\]

 

Logo, a variância de $ X $ é dada por


\[\text{Var}(X) = \mathbb{E}\left(X^2\right)-\mathbb{E}^2\left(X\right)=M^\{\prime\prime}(0)-(M^\prime(0))^2=\frac{2-p}{p^2}-\frac{1}{p^2}=\frac{1-p}{p^2}.\]

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]