- Estatcamp: (16) 3376-2047 [email protected]
- [email protected] https://www.actionstat.com.br
Consideremos uma sequência ilimitada de ensaios de Bernoulli, com probabilidade de sucesso p em cada ensaio. Designemos sucesso por $S$ e falha por $F$. Realizamos os ensaios até que ocorra o primeiro sucesso.
O espaço amostral para este experimento é o conjunto $\{S, FS, FFS, FFFS,\ldots\}$.
Ou seja, um elemento típico desse espaço amostral é uma sequência de $n$ em que nos $n-1$ primeiros ensaios temos $F$ e na $n$-ésima temos S.
A distribuição geométrica apresenta duas parametrizações importantes, que têm interpretações distintas. Uma das parametrizações da função geométrica conta o número de falhas até que ocorra o primeiro sucesso. Notemos que nessa parametrização podemos incluir o zero como sendo um possível resultado, pois podemos ter sucesso já no primeiro ensaio de Bernoulli.
A segunda parametrização da geométrica conta o número de ensaios de bernoulli necessário para se obter um sucesso. Assim nessa parametrização não é possível se ter o zero, portanto nessa parametrização da geométrica o domínio será os números naturais sem o zero.
Seja $X$ a variável aleatória que fornece o número de falhas até o primeiro sucesso. A variável $X$ tem distribuição Geométrica com parâmetro $p$, $0 \ < \ p \ < \ 1$, se sua função de probabilidade é dada por
\[\mathbb{P}\left(X=j\right)=(1-p)^jp, \quad j=0,1,\ldots\]
Usaremos a notação $X \sim \ \text{Geo}(p)$.
O evento $[X=j]$ ocorre se, e somente se, ocorrem somente falhas nos $j$ primeiros ensaios e sucesso no $(j+1)$-ésimo ensaio.
A distribuição geométrica tem uma propriedade que serve para caracterizá-la no conjunto das distribuições discretas:
Se $X$ é variável aleatória discreta com distribuição geométrica, então, para todo $j,k = 1,2,\ldots$ temos que:
\[\mathbb{P}\left(X> t+s|X\geq s\right)=\mathbb{P}\left(X> t\right).\]
Este resultado reflete a falta de memória ou de desgaste da distribuição geométrica.
De fato, temos que
\[\mathbb{P}\left(X> t+s|X\geq s\right)=\frac{\mathbb{P}\left(X> t+s; X\geq s\right)}{\mathbb{P}\left(X\geq s\right)}=\frac{\mathbb{P}\left(X> t+s\right)}{\mathbb{P}\left(X\geq s\right)}=\frac{\sum_{k=t+s+1}^{\infty}p(1-p)^k}{\sum_{j=s}^{\infty}p(1-p)^j}\]
de onde segue que
\[\mathbb{P}\left(X> t+s|X\geq s\right)=\frac{1-p\sum_{k=0}^{t+s}(1-p)^k}{1-p\sum_{j=0}^{s-1}(1-p)^j}=\frac{(1-p)^{t+s+1}}{(1-p)^{s}}=(1-p)^{t+1}=1-p\sum_{k=0}^{t}(1-p)^k\]
e, portanto,
\[\mathbb{P}\left(X> t+s|X\geq s\right)=\sum_{k=t+1}^{\infty}p(1-p)^k=\mathbb{P}\left(X> t\right).\]
Portanto a distribuição geométrica apresenta a propriedade de perda de momória. Vale notar que ela é a única distribuição discreta com essa característica.
Seja $h(k)=\displaystyle \frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)}$ mostre que se $X\sim Geo(p) $ então h(k)=p
De fato,
\[h(k)=\frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)}=\frac{p(1-p)^k}{\sum_{j=k}^{\infty}p(1-p)^j}=\frac{p(1-p)^k}{1-\sum_{j=0}^{k-1}p(1-p)^j}=\frac{(1-p)^{k}p}{(1-p)^{k}}=p.\]
Notemos que h(k) é muito usado em análise de sobrevivência e representa a função risco.
Considere o experimento em que uma moeda viciada é lançada sucessivas vezes, até que ocorra a primeira cara. Seja $X$ a variável aleatória que conta o número de coroas obtidos no experimento (ou seja, a quantidade de lançamentos anteriores a obtenção da primeira cara). Sabendo que a probabilidade de cara é de $0,4$, qual é a probabilidade de $\mathbb{P}(2\leq X< 4)$ e a probabilidade de $\mathbb{P}(X> 1| X\leq 2)$.
Observamos que
\[\mathbb{P}(2\leq X< 4)=\mathbb{P}(X=2)+\mathbb{P}(X=3)=0,6^2\cdot 0,4+0,6^3\cdot 0,4=0,2304.\]
Vamos calcular agora $\mathbb{P}(X> 1| X\leq 2)$.
\[\mathbb{P}(X> 1| X\leq 2)=\frac{\mathbb{P}(X> 1\cap X\leq 2)}{\mathbb{P}(X\leq2)}=\frac{\mathbb{P}(X=2)}{\mathbb{P}(X=0)+\mathbb{P}(X=1)+\mathbb{P}(X=2)}=\frac{0,144}{0,784}=0,18367.\]
Um pesquisador está realizando um experimentos químico independentes e sabe que a probabilidade de que cada experimento apresente uma reação positiva é $0,3$. Qual é a probabilidade de que menos de 5 reações negativas ocorram antes da primeira positiva?
Para resolver este problema, considere $X$ como sendo a variável aleatória que representa o número de reações negativas até a ocorrência da primeira positiva. Neste caso, temos que $X\sim \ \text{Geo}(0,3)$ e então
\[\mathbb{P}(X \ < \ 5) = \sum_{i=0}^4\mathbb{P}(X=i)=0,3+0,7\cdot 0,3 + 0,7^2\cdot 0,3 + 0,7^3\cdot 0,3 + 0,7^4\cdot 0,3 = 0,83193.\]
Considerando o exemplo 5.3.1, qual a probabilidade de que $X\geq 1$.
\[\mathbb{P}(X\geq 1)=1-\mathbb{P}(X< 1)=1-\mathbb{P}(X=0)=1-0,4=0,6.\]
Seja $X$ uma variável aleatória discreta com distribuição geométrica. Então a função geradora de momentos é dada por:
\[M_{X}(t)=\mathbb{E}\left(e^{tX}\right)=\sum_{k=0}^{\infty}e^{tk}(1-p)^{k}p=p\sum_{k=0}^{\infty}(e^{t})^{k}(1-p)^{k}=p\sum_{k=0}^{\infty}[e^{t}(1-p)]^{k} =\frac{p}{1-(1-p)e^t}.\]
Desta forma, o valor esperado de $X$ é dado por
\[\mathbb{E}(X)=\sum_{j=0}^\infty j(1-p)^jp=p\sum_{j=0}^\infty j(1-p)^j=p(1-p)\sum_{j=0}^\infty j(1-p)^{j-1}=\frac{p(1-p)}{p^2}.\]
ou seja,
\[\mathbb{E}(X)=\frac{1-p}{p}.\]
Podemos calcular o valor esperado de $X$ através da função geradora de momentos, sabendo que $\mathbb{E}(X) = M^\prime(0)$. Para isto, temos que
\[M^\prime_X(t)=-\frac{(1-p)pe^t}{((p-1)e^t+1)^2}.\]
Assim o valor esperado é dado por:
\[\mathbb{E}(X)=M^\prime_X(0)=-\frac{(p-1)pe^0}{((p-1)e^0+1)^2}=-\frac{(p-1)p}{((p-1)+1)^2}=-\frac{(p-1)p}{p^2}=\frac{(1-p)}{p}.\]
Também podemos utilizar a função geradora de momentos para calcular a variância da variável $X$, sabendo que $\mathbb{E}(X^2) = M^{\prime\prime}(0)$. Para isto, temos que
\[M^{\prime\prime}_X(t)=\frac{(p-1)pe^t((p-1)e^t -1)}{((p-1)e^t+1)^3}\]
e, portanto
\[\mathbb{E}(X^2)=M^{\prime\prime}_X(0)=\frac{(p-1)p((p-1)-1)}{((p-1)+1)^3}=\frac{p(p-1)(p-2)}{p^3}=\frac{p^3-3p^2+2p}{p^3}\]
e a variância é dada por
\[\text{Var}(X)=\mathbb{E}(X^2)-\mathbb{E}^2(X)=\frac{p^3-3p^2+2p}{p^3}-\frac{(1-p)^2}{p^2}=\frac{1-p}{p^2}.\]
Seja $X$ a variável aleatória que fornece o número de ensaios de Bernoulli realizados até a obtenção do primeiro sucesso. A variável $X$ tem distribuição Geométrica com parâmetro $p$, $0 \ < \ p \ < \ 1$, se sua função de probabilidade é dada por
\[\mathbb{P}(X=j)=(1-p)^{j-1} p, \quad j=1,2,\ldots\]
Usaremos a notação X $\sim$ Geo(p).
Observe que, nesta parametrização os valores possíveis assumidos pela variável aleatória $X$ são $\mathcal{R}_X = \{1,2,\ldots\}$ e que a probabilidade de $X$ ser igual ao valor $k$ é igual a probabilidade de $X$ ser igual a $k-1$ na parametrização anterior.
Um dado honesto é lançado sucessivas vezes até que apareça pela primeira vez a face 1. Seja $X$ a variável aleatória que conta o número de ensaios até que corra o primeiro $1$. Qual a probabilidade de obtermos $1$ no terceiro lançamento.
Como o dado é honesto, a probabilidade de, em um lançamento, obtermos qualquer face é igual a 1/6. Neste caso, a probabilidade de se obter a face $1$ (sucesso) é $1/6$ e a probabilidade de se obter qualquer outra face (fracasso) é $5/6$. Podemos definir a variável aleatória
\[Y = \left\{\begin{array}{l}1, \ \text{se obtemos 1 no lançamento do dado}\\0, \ \text{caso contrário}\end{array}\right.\]
Neste caso, $Y\sim \ \text{Bernoulli}(1/6)$ e, se definirmos $X$ como sendo a variável que representa o número de lançamentos até a obtenção do primeiro sucesso (aparecimento da face 1), temos que $X \sim \ \text{Geo}(1/6)$. Portanto, se estamos interessados no cálculo da probabilidade de obter $1$ no terceiro lançamento, precisamos calcular $\mathbb{P}(X = 3)$, ou seja,
\[\mathbb{P}(X=3)=(1-p)^2p=\left(1-\frac{1}{6}\right)^2\frac{1}{6}=\left(\frac{5}{6}\right)^2\frac{1}{6}=\frac{5^2}{6^3}\approx 0,115741.\]
Um pesquisador está produzindo um novo tipo de vacina para ser usada em seres humanos. Através de testes em animais ele chegou à conclusão de que esta vacina tem probabilidade de matar o usuário em 0,1% dos casos. Por causa das leis do país onde será aplicada, a vacina deve ter sua produção suspensa após ocorrer sua primeira morte.
Se admitirmos como sendo a ocorrência da morte do paciente como um sucesso então $p=0,001$. Assim, se $X$ é o número de pessoas que tomarão a vacina até a ocorrência da primeira morte, temos que $X$ tem uma distribuição geométrica com parâmetro $p$, isto é, $X\sim \ \text{Geo}(0,001)$, e a probabilidade de que a primeira morte ocorra na $k$-ésima aplicação da vacina é
\[\mathbb{P}(X=k)=0,001(1-0,001)^k-1.\]
Analisando a função podemos verificar que conforme aumenta o número de pessoas que tomam a vacina maior é a chance de que uma pessoa morra e a produção seja interrompida.
Voltando ao Exemplo 5.3.4 vamos calcular $\mathbb{P}\left(3 \leq X\leq 5\right)$.
\[\mathbb{P}\left(n\leq X \leq m\right)=\mathbb{P}\left(X\leq m\right)-\mathbb{P}\left(X \ < \ n\right)=\sum_{j=1}^{m}p(1-p)^{j-1}-\sum_{j=1}^{n-1}p(1-p)^{j-1}=\sum_{j=n}^{m}p(1-p)^{j-1}.\]
Assim
\[\mathbb{P}\left(3\leq X\leq 5\right)=\sum_{j=3}^{5}\frac{1}{6}(\frac{5}{6})^{j-1}=\frac{25}{216}+\frac{125}{1296}+\frac{625}{7776}\approx 0,29257.\]
Observe que as duas parametrizações estão intimamente ligadas. De fato, suponha que $Y$ seja uma variável aleatória geométrica com a parametrização anterior e com parâmetro $p$, isto é:
\[\mathbb{P}\left(Y=k\right)=p(1-p)^{k}\]
e suponha que $X$ seja uma distribuição geométrica com a parametrização atual e com o mesmo parâmetro $p$, ou seja:
\[\mathbb{P}\left(X=k\right)=p(1-p)^{k-1}.\]
Assim
\[\mathbb{P}\left(Y=k\right)=p(1-p)^{k}=p(1-p)^{(k+1)-1}=\mathbb{P}\left(X=k+1\right)\]
e, portanto,
\[\mathbb{P}\left(Y> m+n|Y\geq n\right)=\mathbb{P}\left(Y> m\right)=\mathbb{P}\left(X> m+1\right).\]
Por outro lado
\[\mathbb{P}\left(Y> m+n|Y\geq n\right)=\frac{\mathbb{P}\left(Y > m+n\right)}{\mathbb{P}\left(Y\geq n\right)}=\frac{\mathbb{P}\left(X> m+n+1\right)}{\mathbb{P}\left(X\geq n+1\right)}=\mathbb{P}\left(X> m+1\right).\]
tomando $s = n+1$, temos que:
\[\mathbb{P}\left(X> m+s|X\geq s\right)=\mathbb{P}\left(X> m+1\right).\]
Seja $h(k)=\displaystyle \frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)}$. Mostre que se $X\sim \ \text{Geo}(p)$ então $h(k)=p$.
De fato,
\[h(k)=\frac{\mathbb{P}\left(X=k\right)}{\mathbb{P}\left(X\geq k\right)}=\frac{p(1-p)^{k-1}}{\sum_{j=k}^{\infty}p(1-p)^{j-1}}\]
de onde segue que
\[h(k)=\frac{p(1-p)^{k-1}}{1-\sum_{j=1}^{k-1}p(1-p)^j}=\frac{(1-p)^{k-1}p}{(1-p)^{k-1}}=p.\]
Seja $X$ uma variável aleatória discreta com distribuição geométrica de parâmetro $p$. Assim a função geradora de momentos é dada por
\[M_{X}(t)=\mathbb{E}[e^{tX}]=pe^{t}\sum_{k=0}^{\infty}(e^{t})^{k-1}(1-p)^{k-1}=pe^{t}\sum_{k=0}^{\infty}[e^{t}(1-p)]^{k-1}=\frac{p}{(1-p)}\sum^\infty_{k=0}[e^t(1-p)]^k=\frac{p}{(1-p)(1-(1-p)e^t)}.\]
Agora vamos calcular o valor esperado.
\[\mathbb{E}(X)=\sum_{j=0}^\infty j(1-p)^{j-1}p=p\sum_{j=0}^\infty j(1-p)^{j-1}=\frac{p}{p^2}.\]
Assim, temos que
\[\mathbb{E}\left(X\right)=\frac{1}{p}.\]
Outra forma de calcularmos o valor esperado é usando a função geradora de momentos. Desta forma
\[M^\prime_X(t)=\frac{pe^t}{((1-p)e^t+1)^2}.\]
Como $\mathbb{E}(X) = M^\prime_X(0$, temos que
\[\mathbb{E}(X) = M^\prime_X(0)=\frac{p}{((p-1)+1)^2}=\frac{1}{p}.\]
Também podemos utilizar a função geradora de momentos para calcular a variância desta variável aleatória, já que $\mathbb{E}(X^2) = M^{\prime\prime}_X(0)$. Então
\[M_X^{\prime\prime}(t)=-\frac{pe^t((p-1)e^t-1)}{((p-1)e^t+1)^3}\]
e, portanto,
\[\mathbb{E}(X^2) = M_X^{\prime\prime}(0)=-\frac{p(p-2)}{p^3}=-\frac{(p-2)}{p^2}=\frac{2-p}{p^2}.\]
Logo, a variância de $X$ é dada por
\[\text{Var}(X) = \mathbb{E}\left(X^2\right)-\mathbb{E}^2\left(X\right)=M^{\prime\prime}(0)-(M^\prime(0))^2=\frac{2-p}{p^2}-\frac{1}{p^2}=\frac{1-p}{p^2}.\]
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.