- (16) 3376-2047
- [email protected]
- Portfólio de Serviços
- AT
Outro conceito importante da teoria de probabilidade é o de independência entre dois eventos. Na prática, dois eventos são independentes quando a ocorrência de um evento não influência a ocorrência do outro evento. Do ponto de vista probabilístico temos a seguinte definição:
Dois eventos $A$ e $B$ são ditos independentes se
\[\mathbb{P}(A\cap B)=\mathbb{P}(A) \mathbb{P}(B).\]
Um lote contém $10$ peças, sendo $7$ boas ($B$) e $3$ defeituosas ($D$). Retiramos duas peças, ao acaso e com reposição, para inspeção. Qual a probabilidade de se obter duas peças defeituosas?
O experimento de realizar a primeira retirada tem como espaço amostral $\Omega_1= \{D_1,B_1\}$ e a segunda retirada tem como espaço amostral $\Omega_2 = \{D_2,B_2\}$, em que $D_i$ significa que retiramos uma peça defeituosa na i-ésima retirada e $B_i$ significa que retiramos uma peça boa na i-ésima retirada, para $i = 1,2$. Como as duas peças são retiradas ao acaso e com reposição, isto é, após retirarmos a primeira peça esta é colocada novamente no lote para que possamos efetuar a segunda retirada, temos que
\[\mathbb{P}(D_1)=\mathbb{P}(D_2)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\mathbb{P}(B_2)=\frac{7}{10}.\]
Associamos ao experimento de retirar duas peças ao acaso e com reposição o seguinte espaço amostral
\[\Omega=\{(D_1,B_2);(B_1,D_2);(D_1,D_2);(B_1,B_2)\}.\]
Queremos encontrar a probabilidade de se obter duas peças defeituosas, ou seja, a probabilidade das peças na primeira retirada e na segunda retirada serem defeituosas. Assim, desde que a primeira e a segunda retirada sejam executadas de forma independente, temos que
\[\mathbb{P}\left((D_1,D_2)\right)=\mathbb{P}(D_1\cap D_2)=\mathbb{P}(D_1) \mathbb{P}(D_2)=\frac{3}{10}\cdot \frac{3}{10}=\frac{9}{100}.\]
Vamos examinar melhor a diferença entre extrair uma peça de um lote, ao acaso, com reposição ou sem reposição. Como vimos neste exemplo, se a retirada for feita com reposição, então
\[\mathbb{P}(D_1)=\mathbb{P}(D_2)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\mathbb{P}(B_2)=\frac{7}{10}\]
pois cada vez que extraímos peças do lote, sempre existirão $3$ peças defeituosas e $7$ peças boas num total de $10$. No entanto, se estivermos extraindo sem reposição, o resultado é diferente. É ainda verdade, naturalmente, que
\[\mathbb{P}(D_1)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\frac{7}{10},\]
mas as probabilidades de sair uma peça defeituosa ou de sair uma peça boa na segunda retirada não serão as mesmas. Para calcularmos essas probabilidades devemos conhecer a composição do lote no momento de se extrair a segunda peça. Por exemplo, para calcularmos a probabilidade de extrairmos uma peça defeituosa na segunda retirada, D2, temos que saber se ocorreu $D_1$ ou $B_1$. Caso tenha ocorrido $D_1$,
\[\mathbb{P}(D_2) = \frac{2}{9}\]
e, se ocorreu B1,
\[\mathbb{P}(D_2) =\frac{3}{9}.\]
Este exemplo nos mostra a necessidade de introduzirmos a definição de probabilidade condicional.
Um evento $A$ é independente dele mesmo se, e só se, $\mathbb{P}(A)=0$ ou $\mathbb{P}(A)=1$.
Suponha que $\mathbb{P}(A)=a$, com $0 \ < \ a \ < \ 1$. Sabemos que $\mathbb{P}(A\cap A)=\mathbb{P}(A)=a\neq a^2$, para qualquer $a\in (0,1)$, entretanto $\mathbb{P}(A\cap A)=\mathbb{P}(A)=a= a^2$, se $a=0$ ou $a=1$. Logo se $\mathbb{P}(A)=0$ ou $\mathbb{P}(A)=1$ então ele é independente de si mesmo. Caso contrário, ele não será independe de si mesmo. Suponha agora que $A$ seja independente de si mesmo, portanto $a^2=\mathbb{P}(A)\mathbb{P}(A)= \mathbb{P}(A\cap A)=\mathbb{P}(A)=a$, ou seja, $a^2=a$ mas isto é válido se, e somente se, $a=0$ ou $a=1$.
A probabilidade de ocorrer um evento $A$ dado que ocorreu um evento $B$ é dada por
\[\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}.\]
Dessa relação sai a Regra do Produto que é dada no teorema a seguir.
Considere um conjunto finito $A_1,A_2,\ldots,A_n$ um conjunto de eventos tais que os eventos condicionais $A_i|A_1\cap A_2\cap\ldots\cap A_{i-1}$ tenham probabilidades positivas. Então temos que
\[\mathbb{P}\left(\bigcap_{i=1}^nA_i\right)=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\mathbb{P}(A_3|A_1\cap A_2)\ldots \mathbb{P}(A_n|\cap_{i=1}^{n-1}A_i).\]
Para demonstrar este teorema escrevemos
\[\mathbb{P}\left(\bigcap_{i=1}^nA_i\right)=\mathbb{P}(A_1)\frac{\mathbb{P}(A_1\cap A_2)}{\mathbb{P}(A_1)}\frac{\mathbb{P}(A_1\cap A_2\cap A_3)}{\mathbb{P}(A_1\cap A_2)}\ldots \frac{\mathbb{P}(\bigcap_{i=1}^n A_i)}{\mathbb{P}(\bigcap_{i=1}^{n-1} A_i)},\]
e usando a definição de probabilidade condicional, podemos reescrever o lado direito da igualdade acima como
\[\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\mathbb{P}(A_3|A_1\cap A_2)\ldots \mathbb{P}(A_n|\cap_{i=1}^{n-1}A_i).\]
Com caso particular temos que, dados dois eventos $A$ e $B$, concluímos que a probabilidade de ocorrência simultânea dos eventos $A$ e $B$ é igual a probabilidade de ocorrência do evento $A$ (ou $B$) vezes a probabilidade de ocorrência do evento $A$ (ou $B$) dado que ocorreu o evento $B$ (ou $A$), ou seja
\[\mathbb{P}(A\cap B)=\mathbb{P}(B)\mathbb{P}(A|B).\]
Considere o Exemplo 1.4.1, mas agora as retiradas serão feitas sem reposição, isto é, a primeira peça retirada não volta ao lote para retirarmos a segunda peça. Qual a probabilidade de se retirar duas peças defeituosas?
A probabilidade de sair uma peça defeituosa na primeira retirada é $\mathbb{P}(D_1)=\frac{3}{10}$. Além disso, $\mathbb{P}(D_2|D_1)=\frac{2}{9}$. Assim,
\[\mathbb{P}[(D_1,D_2)]=\mathbb{P}(D_1\cap D_2)=\mathbb{P}(D_1)\times \mathbb{P}(D_2|D_1)=\frac{3}{10}\times\frac{2}{9}=\frac{6}{90}=\frac{1}{15}.\]
A seguir, apresentamos o teorema da probabilidade total que é usado com frequência para calcular a probabilidade de vários eventos.
Sejam $A_1, A_2,\ldots, A_n$ eventos dois a dois disjuntos que formam uma partição do espaço amostral, isto é,
\[\bigcup_{i=1}^nA_i=\Omega\]
e assuma que $\mathbb{P}(A_i) \ > \ 0$ para $i = 1, 2, \ldots, n$. Então, para qualquer evento $B$, temos que
\[\mathbb{P}(B)=\mathbb{P}(A_1\cap B) + \cdots + \mathbb{P}( A_n \cap B) = \mathbb{P}(A_1) \mathbb{P}(B|A_1) + \cdots + \mathbb{P}(A_n)\mathbb{P}(B|A_n)=\sum_{i}\mathbb{P}(A_i)\mathbb{P}(B|A_i).\]
Para demonstrarmos esse teorema basta observarmos que como a sequência $A_1, A_2, \ldots$ formam uma partição então para qualquer $B\in \Omega$, temos que $B=\displaystyle\bigcup_{i}(A_i\cap B)$. E como os $A_i$ são disjuntos dois a dois temos que $B\cap A_i$ também são disjuntos e pelo axioma 3 e pelo teorema 1.4.1 temos que
\[\mathbb{P}(B)=\sum_{i}\mathbb{P}(A_i\cap B)=\sum_{i}\mathbb{P}(A_i)\mathbb{P}(B|A_i).\]
Suponha que um jogador participa de um torneio de xadrez onde sua probabilidade de vitória é $0,3$ contra metade dos jogadores (chame-os do tipo $1$), $0,4$ contra um quarto dos jogadores (chame-os do tipo $2$) e $0,5$ contra o um quarto dos jogadores restantes (chame-os do tipo $3$). O jogador disputa uma partida contra um oponente selecionado aleatoriamente. Qual é a probabilidade dele vencer?
Seja $A_i$ o evento de jogar com um oponente do tipo $i$. Temos então que
\[\mathbb{P}(A_1)=0,5; \qquad \mathbb{P}(A_2)=0,25; \qquad \mathbb{P}(A_3)=0,25.\]
Seja $B$ o evento vitória. Então temos
\[\mathbb{P}(B|A_1)=0,3; \qquad \mathbb{P}(B|A_2)=0,4; \qquad \mathbb{P}(B|A_3)=0,5.\]
Assim, pelo teorema da probabilidade total, a probabilidade de vitória é
\[\mathbb{P}(B)=\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\mathbb{P}(A_2)\mathbb{P}(B|A_2)+P(A_3)\mathbb{P}(B|A_3)=0,5\cdot 0,3+0,25\cdot 0,4+0,25\cdot 0,5=0,375.\]
Ou seja, a probabilidade do jogador vencer a partida é de $37,5\%$. O teorema da probabilidade total com frequência é usado em conjunto com o seguinte teorema, chamado de Teorema de Bayes, que relaciona probabilidades condicionais da forma $\mathbb{P}(A|B)$ com probabilidades condicionais da forma $\mathbb{P}(B|A)$, em que a ordem da condicionalidade é reversa.
Sejam $A_1,A_2,\ldots,A_n$ eventos que formam uma partição do espaço amostral, e assuma que $\mathbb{P}(A_i) \ > \ 0$ para todo $i$. Então, para qualquer evento $B$ tal que $\mathbb{P}(B) \ > \ 0$, temos que
\[\mathbb{P}(A_i|B)=\frac{\mathbb{P}(A_i)\mathbb{P}(B|A_i)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i)\mathbb{P}(B|A_i)}{\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\ldots+\mathbb{P}(A_n)\mathbb{P}(B|A_n)}.\]
Para verificar o teorema de Bayes, basta notar que $\mathbb{P}(A_i)\mathbb{P}(B|A_i) = \mathbb{P}(B)\mathbb{P}(A_i|B)$ já que ambos são iguais a $\mathbb{P}(A\cap B)$, o que garante a primeira igualdade. A segunda igualdade segue da aplicação do teorema da probabilidade total para $B$.
A probabilidade condicional também é uma probabilidade ($P(\cdot |B)$, para $B$ um subconjunto fixo de $\Omega$), ou seja a probabilidade condicional satisfaz os três axiomas de probabilidade.
Mostremos primeiramente que $\mathbb{P}(\Omega | B)=1$ e que $\mathbb{P}(\emptyset | B)=0$. De fato, note que
\[\mathbb{P}(\Omega | B)=\frac{\mathbb{P}(\Omega \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(B)}{\mathbb{P}(B)}=1\]
e que
\[\mathbb{P}(\emptyset | B)=\frac{\mathbb{P}(\emptyset \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(\emptyset)}{\mathbb{P}(B)}=\frac{0}{\mathbb{P}(B)}=0\]
o que demonstra o primeiro axioma.
O segundo axioma diz que $0 \leq \mathbb{P}(A|B) \leq 1$, para qualquer $A\subset \Omega$. Observe que $\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}$, e como $A \cap B \subset B$. Temos que por P4 que $0 \leq \mathbb{P}(A \cap B) \leq \mathbb{P}(B)$, o que implica que $0 \leq \mathbb{P}(A|B) \leq 1.$
O terceiro e último axioma diz que para qualquer sequência de eventos mutuamente exclusivos $A_1, A_2, \ldots$, temos que
\[\mathbb{P}(\bigcup_{n=1}^{\infty} A_n | B)=\sum_{n=1}^{\infty}\mathbb{P}(A_n | B).\]
Observamos que:
\[\mathbb{P}(\bigcup_{n=1}^{\infty} A_n | B)= \frac{\mathbb{P}(B\cap\bigcup_{n=1}^{\infty} A_n)}{\mathbb{P}(B)}= \frac{\mathbb{P}(\bigcup_{n=1}^{\infty} A_n \cap B)}{\mathbb{P}(B)}= \frac{\sum_{n=1}^{\infty}\mathbb{P}(A_n \cap B)}{\mathbb{P}(B)}=\sum_{n=1}^{\infty}\mathbb{P}(A_n|B).\]
Logo, a probabilidade condicional satisfaz todos os axiomas da probabilidade, o que implica que a probabilidade condicional também é uma probabilidade. Assim sendo, todas as propriedades de probabilidade também são válidas.
Considere novamente o Exemplo 1.4.3 onde $A_i$ é o evento de ter um adversário do tipo $i$ e
\[\mathbb{P}(A_1)=0,5; \qquad \mathbb{P}(A_2)=0,25; \qquad \mathbb{P}(A_3)=0,25.\]
Além disso, $B$ é evento vencer uma partida e
\[\mathbb{P}(B|A_1)=0,3; \qquad \mathbb{P}(B|A_2)=0,4; \qquad \mathbb{P}(B|A_3)=0,5.\]
Suponha que o jogador disputou uma partida e venceu. Qual a probabilidade $\mathbb{P}(A_1|B)$ dele ter jogado contra um adversário do tipo $1$?
Usando o teorema de Bayes, temos que
\[\mathbb{P}(A_1|B)=\frac{P(\mathbb{A}_1)\mathbb{P}(B|A_1)}{\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\mathbb{P}(A_2)\mathbb{P}(B|A_2)+\mathbb{P}(A_3)\mathbb{P}(B|A_3)}=0,4.\]
Ou seja, a probabilidade do jogador ter disputado uma partida contra um adversário do tipo $1$, dado que ele venceu a partida é de $40\%$.
Suponha que uma pessoa está participando de um programa de televisão e lhe é fornecida a possibilidade de escolher entre $3$ portas. Atrás de uma das portas existe um carro e atrás das demais não existe prêmio algum. O participante escolhe uma porta, digamos a porta $1$ e o apresentador abre outra porta, digamos a porta $3$, revelando que não há nada atrás dela e então oferece ao participante a oportunidade de trocar de porta. O que é mais vantajoso, trocar ou não a porta escolhida?
Este é um problema clássico, conhecido como paradoxo de Monty Hall. A resposta intuitiva ao problema, porém errada, é a de que quando o apresentador revelou uma porta não premiada, o concorrente teria à frente um novo dilema com apenas duas portas e um prêmio, portanto as chances de que o prêmio esteja em qualquer uma das duas portas seriam de 50%. O apresentador teria nos ajudado, já que nossas chances subiram de $1/3$ para $1/2$, mas realmente não faria diferença trocar ou não de porta uma vez que ambas teriam as mesmas chances de possuírem o prêmio. No entanto, esta resposta está errada, pois a porta que o apresentador abre depende da porta que o concorrente escolher inicialmente.
Na verdade, é mais vantajoso trocar de porta e, ao fazê-lo a chance do participante ganhar o carro é de $2/3$. Resolveremos este problema de duas formas diferentes. A primeira apenas descrevendo o problema e a segunda, utilizando o diagrama de árvores e probabilidades condicionais.
Primeiramente, consideremos duas estratégias para o participante do programa: a estratégia $1$, onde o participante seleciona uma porta e, se lhe é fornecida a oportunidade de trocar de porta, ele recusa e a estratégia $2$, na qual o participante sempre troca a porta escolhida. Desta forma, utilizando a estratégia $1$, o participante ganhará o carro com probabilidade $1/3$, já que em $1/3$ das vezes a porta que ele escolhe terá o carro com o prêmio. Utilizando a estratégia $2$, o participante somente ganhará o carro se, a princípio escolhe uma porta que não contém o carro como prêmio, o que ocorre em $2/3$ das vezes, ou seja, a probabilidade de ganhar com a estratégia $2$ é de $2/3$ e, portnato, duas vezes maior do que utilizando a estratégia $1$.
Podemos também, resolver este problema utilizando os conceitos de probabilidade condicional. Para isto, consideramos vários estágios. O carro é colocado atrás de uma porta, o participante escolhe uma porta e, finalmente, o apresentador abre uma porta. Então é natural analisar o problema através de um diagrama de árvore. Assumimos que se o apresentador pode escolher entre as portas (ou seja, o participante escolheu a porta com o carro), então ele escolhe cada porta com probabilidade $1/2$. A árvore resultante é mostrada na figura a seguir
Agora, supondo que o participante tenha escolhido a porta $1$ e o apresentador a porta $3$, então existem apenas dois caminhos possíveis através da árvore. Para um dos caminhos, o carro está atrás da porta $1$ e para o outro, está atrás da porta $2$. O caminho com o carro atrás da porta 2 é duas vezes mais provável que o caminho com o carro atrás da porta $1$. Assim, a probabilidade condicional do carro estar atrás da porta $2$ é $2/3$ e a probabilidade do carro estar atrás da porta $1$ é $1/3$, ou seja, se o participante trocar de porta, ele tem $2/3$ de chances de ganhar o carro.
Um teste de laboratório detecta uma doença quando ela está presente em $95\%$ dos casos. No entanto, o teste também fornece um resultado "falso positivo" para $1\%$ das pessoas saudáveis testadas. (Isto é, se uma pessoa saudável faz o teste, então, com probabilidade $0,01$, o resultado do teste dirá que ela possui a doença.) Se $0,5\%$ da população tem a doença, qual é a probabilidade de uma pessoa ter a doença dado que o resultado do teste é positivo?
Para resolver este problema, consideramos $D$ o evento de a pessoa testada ter a doença e $E$ o evento de que o resultado do teste é positivo. Então, a probabilidade desejada $\mathbb{P}(D|E)$ é obtida por
\[\mathbb{P}(D|E)=\frac{\mathbb{P}(D\cap E)}{\mathbb{P}(E)}=\frac{\mathbb{P}(E|D)\mathbb{P}(D)}{\mathbb{P}(E|D)\mathbb{P}(D)+\mathbb{P}(E|D^c)\mathbb{P}(D^c)},\]
ou seja,
\[\mathbb{P}(D|E)=\frac{(0,95)(0,005)}{(0,95)(0,005)+(0,01)(0,995)}\approx 0,323.\]
Assim, apenas $32\%$ das pessoas cujos resultados do teste deram positivo realmente possuem a doença.
Em um teste de múltipla escolha, ou um estudante sabe a resposta ou arrisca uma das alternativas. Seja $p$ a probabilidade do estudante saber a resposta e $1 - p$ a probabilidade do estudante arriscar adivinhá-la. Assuma que um estudante que arrisca a resposta acerta a resposta correta com probabilidade $1/m$, onde $m$ é o número de alternativas de múltipla escolha. Qual é a probabilidade condicional de que um estudante soubesse a resposta da questão, dado que ele ou ela respondeu corretamente?
Seja $C$ o evento de que o estudante responde a questão corretamente e $K$ o evento de que ele saiba a resposta. Então
\[\mathbb{P}(K|C)=\frac{\mathbb{P}(K\cap C)}{\mathbb{P}(C)}=\frac{\mathbb{P}(C|K)\mathbb{P}(K)}{\mathbb{P}(C|K)\mathbb{P}(K)+\mathbb{P}(C|K^c)\mathbb{P}(K^c)},\]
ou seja,
\[\mathbb{P}(K|C)=\frac{p}{p+(1/m)(1-p )}= \frac{mp}{1+(m-1)p}.\]
Por exemplo, se $m = 5$ e $p = 1/2$, então a probabilidade de que um estudante saber a resposta de uma questão que ele respondeu corretamente é $5/6$.
Uma companhia de seguros acredita que as pessoas possam ser divididas em duas classes: aquelas que são propícias a sofrerem acidentes e as que não são. Suas estatísticas mostram que uma pessoa propícia a acidentes terá um acidente em algum momento dentro do período de um ano com probabilidade $0,4$, enquanto esta probabilidade diminui para $0,2$ para pessoas não propícias a acidentes. Supondo que $30\%$ da população é propícia a sofrer acidentes, qual é a probabilidade de que um novo segurado sofra um acidente durante um ano em que comprou uma apólice?
Obteremos a probabilidade desejada ao condicionar se o segurado é ou não uma pessoa propícia a sofrer um acidente. Seja $A_1$ o evento de que um segurado sofra um acidente durante um ano em que comprou a apólice e $A$ o evento de que o segurado seja uma pessoa propícia a sofrer um acidente. Então a probabilidade desejada, $P(A_1)$, é dada por
\[\mathbb{P}(A_1)=\mathbb{P}(A_1|A)\mathbb{P}(A)+\mathbb{P}(A_1|A^c)\mathbb{P}(A^c)=(0,4)(0,3)+(0,2)(0,7)=0,26.\]
Suponha que você deseja enviar uma carta para sua namorada pelo correio, para isto você resolve pedir para um amigo coloca-la para você, entretanto ele pode esquecer-se de envia-la com uma probabilidade de $0,1$. Caso ele não se esqueça de envia-la, a probabilidade que o correio extravie a carta é de $0,1$. E ainda caso o correio a envie a probabilidade de que o carteiro não a entregue é também é de $0,1$. Sabendo que sua namorada não recebeu sua carta qual é a probabilidade de seu amigo ter esquecido de coloca-la no correio?
Esta é uma questão clássica em probabilidade. Vamos começar definindo os eventos definamos $A=\{\text{O amigo enviou a carta}\}$; $B=\{\text{O correio não extravia a carta}\}$ e $C=\{\text{O carteiro entrega a carta}\}$. Pelos dados do problema temos que:
\[\mathbb{P}(A)=0,9; \quad \mathbb{P}(B|A)=0,9 \quad \text{e} \quad \mathbb{P}(C | A \cap B)=0,9.\]
O nosso problema consiste em encontrar $\mathbb{P}(A^c | C^c)$, utilizando o teorema 1.4.3, concluímos que:
\[\mathbb{P}(A^c|C^c)=\frac{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)}{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)+\mathbb{P}(C^c|A)\mathbb{P}(A)}.\]
Note que $\mathbb{P}(C^c|A^c)=1$, pois dado que o amigo não enviou a carta o carteiro não vai entrega-la com probabilidade 1. Então vamos calcular a probabilidade de $\mathbb{P}(C^c|A)$.
\[\mathbb{P}(C^c|A)=\mathbb{P}(C^c \cap B|A)+\mathbb{P}(C^c \cap B^c|A).\]
Sendo assim, precisamos encontrar $\mathbb{P}(C^c \cap B|A)$. Observe que:
\[\mathbb{P}(C^c \cap B|A)= \frac{\mathbb{P}(C^c\cap B\cap A)}{\mathbb{P}(A)}=\frac{\mathbb{P}(C^c \cap B \cap A)\mathbb{P}(A \cap B)}{\mathbb{P}(A)\mathbb{P}(A\cap B)}=\mathbb{P}(C^c|B\cap A)\mathbb{P}(B|A)=0,1 \cdot 0,9=0,09.\]
Da mesma forma obtemos
\[\mathbb{P}(C^c \cap B^C |A)=\mathbb{P}(C^c | A \cap B^c)\mathbb{P}(B^C|A)=1 \cdot 0,1= 0,1.\]
Substituindo os valores encontrados na formula acima obtemos que
\[\mathbb{P}(C^c|A)=\mathbb{P}(C^c \cap B|A)+\mathbb{P}(C^c \cap B^c|A)=0,09+0,1=0,19.\]
Finalmente substituindo os valores encontrados na formula acima obtemos que
\[\mathbb{P}(A^c|C^c)=\frac{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)}{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)+\mathbb{P}(C^c|A)\mathbb{P}(A)}=\frac{1\cdot 0,1}{1 \cdot 0,1+0,19 \cdot 0,9}=\frac{0,1}{0,271}\thickapprox 0,369.\]
E, portanto, a probabilidade de que o amigo não tenha colocado a carta no correio sabendo que a namorada não recebeu a carta é de, aproximadamente, $36,9\%$.
Vamos supor que vamos selecionar $3$ cartas em um baralho comum (com $52$ cartas) ao acaso e sem reposição. Qual a probabilidade de retirarmos $3$ reis?
Vamos definir o evento $A_i=\{\text{a i-ésima retirada é rei}\}$, onde $i=1,2,3$. Queremos encontrar a probabilidade $\mathbb{P}(A_1\cap A_2 \cap A_3)$ pelo teorema 1.4.1 temos que:
\[\mathbb{P}(A_1\cap A_2 \cap A_3)=\mathbb{P}(A_3 | A_1\cap A_2)\cdot \mathbb{P}(A_2|A_1)\cdot \mathbb{P}(A_1)=\frac{2}{50}\cdot \frac{3}{51} \cdot \frac{4}{52}.\]
Suponha que a ocorrência de chuva (ou não) dependa de das condições do tempo no dia imediatamente anterior. Admitamos que se chova hoje, choverá amanhã com probabilidade de $0,7$ e que se não chove hoje, então choverá amanhã com probabilidade de $0,4$. Sabendo que choveu hoje, calcule a probabilidade de chover depois de amanhã.
Consideremos nosso espaço amostral $\Omega=\{(\omega_1,\omega_2,\omega_3): \omega_i \in \{\text{chover, não chover}\}\}$. Seja o evento $A_1=\{\text{chover hoje}\}$, $A_2=\{\text{chover amanhã}\}$ e $A_3=\{\text{chover depois de amanhã}\}$. Queremos encontrar $\mathbb{P}(A_3|A_1)$, mas
$$\mathbb{P}(A_3|A_1)=\mathbb{P}(\Omega \cap A_3|A_1)$$
$$ = \mathbb{P}(A_3 \cap (A_2\cup A_2^c)|A_1)$$
$$ =\mathbb{P}(A_3 \cap A_2 | A_1)+ \mathbb{P}(A_3 \cap A_2^{c} | A_1)$$
$$= \frac{\mathbb{P}(A_1 \cap A_2 \cup A_3)}{\mathbb{P}(A_1)}+\frac{\mathbb{P}(A_1 \cap A_2^c\cup A_3)}{\mathbb{P}(A_1)}$$
$$= \frac{\mathbb{P}(A_3|A_1\cap A_2) \cdot \mathbb{P}(A_2|A_1)\cdot \mathbb{P}(A_1)}{\mathbb{P}(A_1)}+\frac{\mathbb{P}(A_3|A_1\cap A_2^C) \cdot \mathbb{P}(A_2^C|A_1)\cdot \mathbb{P}(A_1)}{\mathbb{P}(A_1)}$$
$$= \mathbb{P}(A_3|A_1\cap A_2)\cdot \mathbb{P}(A_2|A_1) + \mathbb{P}(A_3|A_1\cap A_2^C)\cdot \mathbb{P}(A_2^C|A_1)$$
$$= \mathbb{P}(A_3|A_2)\cdot \mathbb{P}(A_2| A_1)+\mathbb{P}(A_3|A_2^C)\cdot \mathbb{P}(A_2^C| A_1)$$
$$= 0,7 \cdot 0,7 + 0,4 \cdot 0,3$$
$$=0,61$$
Ou seja, sabendo que choveu hoje, a probabilidade de chover depois de amanhã é de $61\%$.
Em um jogo de dados são jogados dois dados honestos simultaneamente, de forma independente. Considerando que os números das faces voltadas para cima dos dois dados são números diferentes, qual é a probabilidade de que a soma dos números seja $6$?
Primeiramente vamos analisar o nosso espaço amostral. A tabela abaixo mostra todo o espaço amostral:
1 | 2 | 3 | 4 | 5 | 6 | |
1 | (1,1) | (1,2) | (1,3) | (1,4) | (1,5) | (1,6) |
2 | (2,1) | (2,2) | (2,3) | (2,4) | (2,5) | (2,6) |
3 | (3,1) | (3,2) | (3,3) | (3,4) | (3,5) | (3,6) |
4 | (4,1) | (4,2) | (4,3) | (4,4) | (4,5) | (4,6) |
5 | (5,1) | (5,2) | (5,3) | (5,4) | (5,5) | (5,6) |
6 | (6,1) | (6,2) | (6,3) | (6,4) | (6,5) | (6,6) |
Seja $A=\{\text{Soma dos dados ser 6}\}$ e $B=\{\text{O número dos dados serem distintos}\}$. Observem na tabela cima que existem $30$ possibilidades das 36 para as quais os dois números são distintos. E dentre as possibilidades para os quais a soma é $6$, existem $4$ possibilidade para os quais os números são distintos. Assim a probabilidade $P(A|B)$ é dada por
\[\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}=\frac{\frac{4}{36}}{\frac{30}{36}}=\frac{2}{15}.\]
Exemplo 1.4.13: Seja $(\Omega, \mathbb{A}, \mathbb{P})$ um espaço de probabilidade e suponha que todos os conjuntos abaixo pertençam a $\mathbb{A}$. Prove:
(a) Se os $A_n$ são disjuntos e $\mathbb{P}(B|A_n)\geq c$ para todo $n$, então
$$\mathbb{P}(B|\cup A_n)\geq c$$
(b) O item (a) com "=" no lugar de $\geq $.
(c) Se $A_n\supset A_{n+1}$ e $\mathbb{P}(A_{n+1}|A_n)\leq \frac{1}{2}$ para todo n, então $\mathbb{P}(A_n)\rightarrow 0$ quando $n\rightarrow \infty$.
(d) Se os $A_n$ são disjuntos e $\mathbb{P}(B| A_n)=\mathbb{P}(C|A_n) \quad \quad \forall n$, então
$$\mathbb{P}\left(B\bigg |\bigcup A_n\right)=\mathbb{P}\left(C\bigg|\bigcup A_n\right).$$
(e) Se $A_1, A_2, \dots$ são disjuntos e $\bigcup A_n=\Omega$, então
$$\mathbb{P}(B|C)=\sum_n \mathbb{P}(A_n|C)\mathbb{P}(B|A_n\cap C).$$
(a) Primeiramente observe que $[B\cap(\cup A_n)]=\bigcup [B\cap A_n]$ o que implica que
$$\mathbb{P}[B\cap(\cup A_n)]=\sum \mathbb{P}[B\cap A_n].$$
Agora, dado que $\mathbb{P}(B|A_n)\geq c $ temos que
$$\mathbb{P}(B\cap A_n)\geq c\mathbb{P}(A_n)$$
então temos que
$$\sum_n \mathbb{P}(B\cap A_n)\geq c \sum_n \mathbb{P}(A_n)=c\mathbb{P}\left(\bigcup_n A_n\right)$$
Então
$$\mathbb{P}(B\cap (\cup A_n))\geq c \mathbb{P}(\cup A_n)\Rightarrow \frac{\mathbb{P}(B\cap (\cup A_n))}{\mathbb{P}(\cup A_n)}\geq c\Rightarrow \mathbb{P}(B|\cup A_n)\geq c.$$
(b) A demonstração é análoga e obtemos $\mathbb{P}(B|\cup A_n)=c.$
(c) Se $A_n\supset A_{n+1}$ então
$$\mathbb{P}(A_n)=\mathbb{P}(A_1\cap \dots \cap A_{n})=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\dots \mathbb{P}(A_n|A_1\cap A_2\cap \dots \cap A_{n-1})$$
$$=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\dots \mathbb{P}(A_n|A_{n-1})$$
Agora $0\leq \mathbb{P}(A_1)\leq 1$ $0\leq \mathbb{P}(A_i|A_{i-1})\leq \frac{1}{2}$, para $i=1,2,3, \dots$. Desta forma,
$$0\leq \mathbb{P}(A_n)\leq \frac{1}{2^{n-1}}$$
o que implica que
$$0\leq \lim_{n\rightarrow \infty}\mathbb{P}(A_n)\leq 0$$
o que implica que $\lim_{n\rightarrow \infty}\mathbb{P}(A_n)=0$.
(d) Então,
$$\mathbb{P}\left(B|\bigcup A_n\right)=\frac{\mathbb{P}(B\cap(\cup A_n))}{\mathbb{P}(\cup A_n)}=\frac{\mathbb{P}(\cup(B\cap A_n))}{\mathbb{P}(\cup A_n)}=\frac{\sum \mathbb{P}(B\cap A_n)}{\mathbb{P}(\cup A_n)}=\frac{\sum_{n}\mathbb{P}(C|A_n)\mathbb{P}(A_n)}{\mathbb{P}(\cup A_n)}$$
$$=\frac{\sum \mathbb{P}(C\cap A_n)}{\mathbb{P}(\cup A_n)}=\frac{\mathbb{P}(\cup C\cap A_n)}{\mathbb{P}(\cup A_n)}=\mathbb{P}(C|\cup A_n)$$
(e) Temos
$$\sum \mathbb{P}(A_n| C)-\mathbb{P}(B| A_n\cap C)=\sum \frac{\mathbb{P}(A_n\cap C)}{\mathbb{P}(C)}\frac{\mathbb{P}(B\cap C\cap A_n)}{\mathbb{P}(A_n\cap C)}=\frac{1}{\mathbb{P}(C)}\sum_n \frac{\mathbb{P}((B\cap C)\cap A_n)}{\mathbb{P}(A_n)}$$
$$=\frac{1}{\mathbb{P}(C)}\sum \mathbb{P}(B\cap C|A_n)=\frac{\mathbb{P}(B\cap C)}{\mathbb{P}(C)}=\mathbb{P}(B|C)$$
Exemplo 1.4.14: Certo experimento consiste em lançar um dado equilibrado duas vezes independentemente. Dado que os dois números sejam diferentes, qual é a probabilidade
condicional de
(a) pelo menos um dos números ser 6, e
(b) a soma dos números ser 8?
(a) $A=\{\text{Evento de dois número diferentes}\}$, então $\mathbb{P}(A)=\frac{30}{36}=\frac{5}{6}$.
$B=\{\text{ Pelo menos 1 número ser 6 }\}$, $\mathbb{P}(B)=\frac{11}{36}$, $\mathbb{P}(B\cap A)=\frac{10}{36}=\frac{5}{18}$
$C=\{\text{ A soma dos numeros é 8 }\}.$ $\mathbb{P}(C)=\frac{5}{36}$, $\mathbb{P}(C\cap A)=\frac{4}{36}=\frac{1}{9}$
Então, $\mathbb{P}(B|A)=\frac{\mathbb{P}(B\cap A)}{\mathbb{P}(A)}=\frac{\frac{5}{18}}{\frac{5}{6}}=\frac{1}{3}$,
$\mathbb{P}(C|A)=\frac{\mathbb{P}(C\cap A)}{\mathbb{P}(A)}=\frac{\frac{1}{9}}{\frac{5}{6}}=\frac{2}{15}$
Exemplo 1.3.15: Durante o mês de novembro a probabilidade de chuva é de 0,3. O Fluminense ganha um jogo em um dia com chuva com a probabilidade 0,4; em
um dia sem chuva com a probabilidade 0,6. Se ganhou um jogo em novembro, qual é a probabilidade de que choveu nesse dia ?
Defina $C=\{\text{ ocorrer chuva em novembro }\}$ e $G\{\text{ evento fluminense ganha em novembro }\}$.
$$\mathbb{P}(G|C)=0,4, \quad \quad \mathbb{P}(G^c|C)=0,6 \quad\quad \mathbb{P}(G|C^c)=0,6$$
Então
$$\mathbb{P}(C|G)=\frac{\mathbb{P}(C\cap G)}{\mathbb{P}(G)}=\frac{\mathbb{P}(C)\mathbb{P}(G|C)}{\mathbb{P}(G|C)\mathbb{P}(C)+\mathbb{P}(G|C^c)\mathbb{P}(C^c)}=\frac{0,3\times 0,4}{0,3\times 0,4+0,6\times 0,7}=\frac{2}{9}$$
Exemplo 1.3.16: Sejam $A_1, \dots, A_n$ eventos aleatórios independentes, com $p_k=\mathbb{P}(A_k),k=1,\dots, n$. Obtenha a probabilidade de ocorrência dos seguintes
eventos em termos das probabilidades $p_k$
(a) A ocorrência de nenhum dos $A_k$.
$$B_a=\left[\bigcup_{k=1}^n A_k\right]^c=\left[\bigcap_{k=1}^n A_k^c\right]$$
o que implica que pela independência temos que
$$\mathbb{P}(B_a)=\prod_{k=1}^n(1-\mathbb{P}(A_k))=\prod_{k=1}^n(1-p_k)$$
(b) A ocorrência de pelo menos um dos $A_k$
$$B_b=\left[\bigcup_{k=1}^n A_k\right]=\left[\bigcap_{k=1}^n A_k^c\right]^c$$
o que implica que pela independência temos que
$$\mathbb{P}(B_b)=1-\prod_{k=1}^n(1-\mathbb{P}(A_k))=1-\prod_{k=1}^n(1-p_k)$$
(c) A ocorrência de exatamente um dos $A_k$
$$B_c=\bigcup_{k=1}^n\left[\bigcap_{j=1;\\j\neq k}^n A_j^c\right]\cap A_k$$
o que implica que pela independência temos que
$$\mathbb{P}(B_c)=\sum_{k=1}^n\mathbb{P}(A_k)\prod_{j=1;\\j\neq k}^n(1-\mathbb{P}(A_j))=\sum_{k=1}^np_k\prod_{j=1;\\j\neq k}^n(1-p_j)$$
(d) A ocorrência de exatamente um dois dos $A_k$
$$B_d=\bigcup_{1\leq i< j \leq n}\left[\bigcap_{k=1;\\k\neq {i,j}}^n A_k^c\right]\cap A_i\cap A_j$$
o que implica que pela independência temos que
$$\mathbb{P}(B_d)=\sum_{1\leq i< j \leq n}\mathbb{P}(A_j)\mathbb{P}(A_i)\prod_{k=1;\\k\neq (i,j)}(1-\mathbb{P}(A_k))=\sum_{1\leq i< j \leq n}p_jp_i\prod_{k=1;\\k\neq (i,j)}(1-p_j)$$
(e) A ocorrência de todos os $A_k$
$$B_e=\bigcap_{j=1}^n A_j$$
o que implica que pela independência temos que
$$\mathbb{P}(B_e)=\prod_{j=1}^n \mathbb{P}(A_j)=\prod_{j=1}^n p_j$$
(f) A ocorrência de, no máximo, n-1 dos $A_k$.
$$B_f=\left(\bigcap_{j=1}^n A_j\right)^c$$
o que implica que pela independência temos que
$$\mathbb{P}(B_f)=1-\prod_{j=1}^n \mathbb{P}(A_j)=1-\prod_{j=1}^n p_j$$
Exemplo 1.4.17: Sejam $A_1, \dots, A_n$ eventos aleatórios independentes, com $p_k=\mathbb{P}(A_k), k=1, \dots, n$. Faça uma adaptação das desigualdades de Bonferroni
para este caso, expressando-as em termos das $p_k$.
Utilizando as desigualdades de Bonferroni obtemos
i) $$\sum_{i=1}^n p_i-\sum_{1\leq i< j \leq n}p_ip_j\leq \mathbb{P}\left(\bigcup_{i=1}^n A_k\right)$$
$$\leq \sum_{i=1}^n p_i-\sum_{1\leq i< j\leq n}p_ip_j+\sum_{1\leq i< j< k\leq n}p_ip_j p_k$$
ii) Se $k$ é impar, $k\leq n$, então:
$$\mathbb{P}\left(\bigcup_{i=1}^n A_i\right)\leq \sum_{i=1}^n p_i-\sum_{1\leq i_1< i_2\leq n}p_{i_1}p_{i_2}+\dots+(-1)^{k-1}\sum_{1\leq i_1< i_2< \dots < i_k\leq n}p_{i_1}p_{i_2}\dots p_{i_k}.$$
Se $k$ é par vale $\geq$.
O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.