1.4 - Eventos independentes e probabilidade condicional

Você está aqui

Outro conceito importante da teoria de probabilidade é o de independência entre dois eventos. Na prática, dois eventos são independentes quando a ocorrência de um evento não influência a ocorrência do outro evento. Do ponto de vista probabilístico temos a seguinte definição:

Definição 1.4.1(Independência):

Dois eventos $ A $ e $ B $ são ditos independentes se


\[\mathbb{P}(A\cap B)=\mathbb{P}(A) \mathbb{P}(B).\]

 

Exemplo 1.4.1:

Um lote contém $ 10 $ peças, sendo $ 7 $ boas ($ B $) e $ 3 $ defeituosas ($ D $). Retiramos duas peças, ao acaso e com reposição, para inspeção. Qual a probabilidade de se obter duas peças defeituosas?

O experimento de realizar a primeira retirada tem como espaço amostral $ \Omega_1= \{D_1,B_1\} $ e a segunda retirada tem como espaço amostral $ \Omega_2 = \{D_2,B_2\} $, em que $ D_i $ significa que retiramos uma peça defeituosa na i-ésima retirada e $ B_i $ significa que retiramos uma peça boa na i-ésima retirada, para $ i = 1,2 $. Como as duas peças são retiradas ao acaso e com reposição, isto é, após retirarmos a primeira peça esta é colocada novamente no lote para que possamos efetuar a segunda retirada, temos que


\[\mathbb{P}(D_1)=\mathbb{P}(D_2)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\mathbb{P}(B_2)=\frac{7}{10}.\]

 

Associamos ao experimento de retirar duas peças ao acaso e com reposição o seguinte espaço amostral


\[\Omega=\{(D_1,B_2);(B_1,D_2);(D_1,D_2);(B_1,B_2)\}.\]

 

Queremos encontrar a probabilidade de se obter duas peças defeituosas, ou seja, a probabilidade das peças na primeira retirada e na segunda retirada serem defeituosas. Assim, desde que a primeira e a segunda retirada sejam executadas de forma independente, temos que


\[\mathbb{P}\left((D_1,D_2)\right)=\mathbb{P}(D_1\cap D_2)=\mathbb{P}(D_1) \mathbb{P}(D_2)=\frac{3}{10}\cdot \frac{3}{10}=\frac{9}{100}.\]

 

Vamos examinar melhor a diferença entre extrair uma peça de um lote, ao acaso, com reposição ou sem reposição. Como vimos neste exemplo, se a retirada for feita com reposição, então


\[\mathbb{P}(D_1)=\mathbb{P}(D_2)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\mathbb{P}(B_2)=\frac{7}{10}\]

 

pois cada vez que extraímos peças do lote, sempre existirão $ 3 $ peças defeituosas e $ 7 $ peças boas num total de $ 10 $. No entanto, se estivermos extraindo sem reposição, o resultado é diferente. É ainda verdade, naturalmente, que


\[\mathbb{P}(D_1)=\frac{3}{10} \qquad \text{e} \qquad \mathbb{P}(B_1)=\frac{7}{10},\]

 

mas as probabilidades de sair uma peça defeituosa ou de sair uma peça boa na segunda retirada não serão as mesmas. Para calcularmos essas probabilidades devemos conhecer a composição do lote no momento de se extrair a segunda peça. Por exemplo, para calcularmos a probabilidade de extrairmos uma peça defeituosa na segunda retirada, D2, temos que saber se ocorreu $ D_1 $ ou $ B_1 $. Caso tenha ocorrido $ D_1 $,


\[\mathbb{P}(D_2) = \frac{2}{9}\]

 

e, se ocorreu B1,


\[\mathbb{P}(D_2) =\frac{3}{9}.\]

 

Este exemplo nos mostra a necessidade de introduzirmos a definição de probabilidade condicional.

Proposição 1.4.1:

Um evento $ A $ é independente dele mesmo se, e só se, $ \mathbb{P}(A)=0 $ ou $ \mathbb{P}(A)=1 $.

Suponha que $ \mathbb{P}(A)=a $, com $ 0 \ \textless \ a \ \textless \ 1 $. Sabemos que $ \mathbb{P}(A\cap A)=\mathbb{P}(A)=a\neq a^2 $, para qualquer $ a\in (0,1) $, entretanto $ \mathbb{P}(A\cap A)=\mathbb{P}(A)=a= a^2 $, se $ a=0 $ ou $ a=1 $. Logo se $ \mathbb{P}(A)=0 $ ou $ \mathbb{P}(A)=1 $ então ele é independente de si mesmo. Caso contrário, ele não será independe de si mesmo. Suponha agora que $ A $ seja independente de si mesmo, portanto $ a^2=\mathbb{P}(A)\mathbb{P}(A)= \mathbb{P}(A\cap A)=\mathbb{P}(A)=a $, ou seja, $ a^2=a $ mas isto é válido se, e somente se, $ a=0 $ ou $ a=1 $.

Definição 1.4.2(Probabilidade Condicional):

A probabilidade de ocorrer um evento $ A $ dado que ocorreu um evento $ B $ é dada por


\[\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}.\]

 

Dessa relação sai a Regra do Produto que é dada no teorema a seguir.

Teorema 1.4.1: 

Considere um conjunto finito $ A_1,A_2,\ldots,A_n $ um conjunto de eventos tais que os eventos condicionais $ A_i|A_1\cap A_2\cap\ldots\cap A_{i-1} $ tenham probabilidades positivas. Então temos que 


\[\mathbb{P}\left(\bigcap_{i=1}^nA_i\right)=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\mathbb{P}(A_3|A_1\cap A_2)\ldots \mathbb{P}(A_n|\cap_{i=1}^{n-1}A_i).\]

 

Para demonstrar este teorema escrevemos


\[\mathbb{P}\left(\bigcap_{i=1}^nA_i\right)=\mathbb{P}(A_1)\frac{\mathbb{P}(A_1\cap A_2)}{\mathbb{P}(A_1)}\frac{\mathbb{P}(A_1\cap A_2\cap A_3)}{\mathbb{P}(A_1\cap A_2)}\ldots \frac{\mathbb{P}(\bigcap_{i=1}^n A_i)}{\mathbb{P}(\bigcap_{i=1}^{n-1} A_i)},\]

 

e usando a definição de probabilidade condicional, podemos reescrever o lado direito da igualdade acima como


\[\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\mathbb{P}(A_3|A_1\cap A_2)\ldots \mathbb{P}(A_n|\cap_{i=1}^{n-1}A_i).\]

 

Com caso particular temos que, dados dois eventos $ A $ e $ B $, concluímos que a probabilidade de ocorrência simultânea dos eventos $ A $ e $ B $ é igual a probabilidade de ocorrência do evento $ A $ (ou $ B $) vezes a probabilidade de ocorrência do evento $ A $ (ou $ B $) dado que ocorreu o evento $ B $ (ou $ A $), ou seja


\[\mathbb{P}(A\cap B)=\mathbb{P}(B)\mathbb{P}(A|B).\]

 

Exemplo 1.4.2:

Considere o Exemplo 1.4.1, mas agora as retiradas serão feitas sem reposição, isto é, a primeira peça retirada não volta ao lote para retirarmos a segunda peça. Qual a probabilidade de se retirar duas peças defeituosas?

A probabilidade de sair uma peça defeituosa na primeira retirada é $ \mathbb{P}(D_1)=\frac{3}{10} $. Além disso, $ \mathbb{P}(D_2|D_1)=\frac{2}{9} $. Assim,


\[\mathbb{P}[(D_1,D_2)]=\mathbb{P}(D_1\cap D_2)=\mathbb{P}(D_1)\times \mathbb{P}(D_2|D_1)=\frac{3}{10}\times\frac{2}{9}=\frac{6}{90}=\frac{1}{15}.\]

 

A seguir, apresentamos o teorema da probabilidade total que é usado com frequência para calcular a probabilidade de vários eventos.

Teorema 1.4.2(Teorema da Probabilidade Total):

Sejam $ A_1, A_2,\ldots, A_n $ eventos dois a dois disjuntos que formam uma partição do espaço amostral, isto é,


\[\bigcup_{i=1}^nA_i=\Omega\]

 

e assuma que $ \mathbb{P}(A_i) \ \textgreater \ 0 $  para $ i = 1, 2, \ldots, n $. Então, para qualquer evento $ B $, temos que


\[\mathbb{P}(B)=\mathbb{P}(A_1\cap B) + \cdots + \mathbb{P}( A_n \cap B) = \mathbb{P}(A_1) \mathbb{P}(B|A_1) + \cdots + \mathbb{P}(A_n)\mathbb{P}(B|A_n)=\sum_{i}\mathbb{P}(A_i)\mathbb{P}(B|A_i).\]

 

Para demonstrarmos esse teorema basta observarmos que como a sequência $ A_1, A_2, \ldots $ formam uma partição então para qualquer $ B\in \Omega $, temos que $ B=\displaystyle\bigcup_{i}(A_i\cap B) $. E como os $ A_i $ são disjuntos dois a dois temos que $ B\cap A_i $ também são disjuntos e pelo axioma 3 e pelo teorema 1.4.1 temos que


\[\mathbb{P}(B)=\sum_{i}\mathbb{P}(A_i\cap B)=\sum_{i}\mathbb{P}(A_i)\mathbb{P}(B|A_i).\]

 

Exemplo 1.4.3:

Suponha que um jogador participa de um torneio de xadrez onde sua probabilidade de vitória é $ 0,3 $ contra metade dos jogadores (chame-os do tipo $ 1 $), $ 0,4 $ contra um quarto dos jogadores (chame-os do tipo $ 2 $) e $ 0,5 $ contra o um quarto dos jogadores restantes (chame-os do tipo $ 3 $). O jogador disputa uma partida contra um oponente selecionado aleatoriamente. Qual é a probabilidade dele vencer?

Seja $ A_i $ o evento de jogar com um oponente do tipo $ i $. Temos então que


\[\mathbb{P}(A_1)=0,5; \qquad \mathbb{P}(A_2)=0,25; \qquad \mathbb{P}(A_3)=0,25.\]

 

Seja $ B $ o evento vitória. Então temos


\[\mathbb{P}(B|A_1)=0,3; \qquad \mathbb{P}(B|A_2)=0,4; \qquad \mathbb{P}(B|A_3)=0,5.\]

 

Assim, pelo teorema da probabilidade total, a probabilidade de vitória é


\[\mathbb{P}(B)=\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\mathbb{P}(A_2)\mathbb{P}(B|A_2)+P(A_3)\mathbb{P}(B|A_3)=0,5\cdot 0,3+0,25\cdot 0,4+0,25\cdot 0,5=0,375.\]

 

Ou seja, a probabilidade do jogador vencer a partida é de $ 37,5\% $O teorema da probabilidade total com frequência é usado em conjunto com o seguinte teorema, chamado de Teorema de Bayes, que relaciona probabilidades condicionais da forma $ \mathbb{P}(A|B) $ com probabilidades condicionais da forma $ \mathbb{P}(B|A) $, em que a ordem da condicionalidade é reversa.

Teorema 1.4.3(Teorema de Bayes):

Sejam $ A_1,A_2,\ldots,A_n $ eventos que formam uma partição do espaço amostral, e assuma que $ \mathbb{P}(A_i) \ \textgreater \ 0 $ para todo $ i $. Então, para qualquer evento $ B $ tal que $ \mathbb{P}(B) \ \textgreater \ 0 $, temos que


\[\mathbb{P}(A_i|B)=\frac{\mathbb{P}(A_i)\mathbb{P}(B|A_i)}{\mathbb{P}(B)}=\frac{\mathbb{P}(A_i)\mathbb{P}(B|A_i)}{\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\ldots+\mathbb{P}(A_n)\mathbb{P}(B|A_n)}.\]

 

Para verificar o teorema de Bayes, basta notar que $ \mathbb{P}(A_i)\mathbb{P}(B|A_i) = \mathbb{P}(B)\mathbb{P}(A_i|B) $ já que ambos são iguais a $ \mathbb{P}(A\cap B) $, o que garante a primeira igualdade. A segunda igualdade segue da aplicação do teorema da probabilidade total para $ B $.

Teorema 1.4.4:

A probabilidade condicional também é uma probabilidade ($ P(\cdot |B) $, para $ B $ um subconjunto fixo de $ \Omega $), ou seja a probabilidade condicional satisfaz os três axiomas de probabilidade.

Mostremos primeiramente que $ \mathbb{P}(\Omega | B)=1 $ e que $ \mathbb{P}(\emptyset | B)=0 $. De fato, note que


\[\mathbb{P}(\Omega | B)=\frac{\mathbb{P}(\Omega \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(B)}{\mathbb{P}(B)}=1\]

 

e que


\[\mathbb{P}(\emptyset | B)=\frac{\mathbb{P}(\emptyset \cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(\emptyset)}{\mathbb{P}(B)}=\frac{0}{\mathbb{P}(B)}=0\]

 

o que demonstra o primeiro axioma.

O segundo axioma diz que $ 0 \leq \mathbb{P}(A|B) \leq 1 $, para qualquer $ A\subset \Omega $. Observe que $ \mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)} $,  e como $ A \cap B \subset B $. Temos que por P4 que $ 0 \leq \mathbb{P}(A \cap B) \leq \mathbb{P}(B) $, o que implica que $ 0 \leq \mathbb{P}(A|B) \leq 1. $

O terceiro e último axioma diz que para qualquer sequência de eventos mutuamente exclusivos $ A_1, A_2, \ldots $, temos que


\[\mathbb{P}(\bigcup_{n=1}^{\infty} A_n | B)=\sum_{n=1}^{\infty}\mathbb{P}(A_n | B).\]

 

Observamos que:


\[\mathbb{P}(\bigcup_{n=1}^{\infty} A_n | B)= \frac{\mathbb{P}(B\cap\bigcup_{n=1}^{\infty} A_n)}{\mathbb{P}(B)}= \frac{\mathbb{P}(\bigcup_{n=1}^{\infty} A_n \cap B)}{\mathbb{P}(B)}= \frac{\sum_{n=1}^{\infty}\mathbb{P}(A_n \cap B)}{\mathbb{P}(B)}=\sum_{n=1}^{\infty}\mathbb{P}(A_n|B).\]

 

Logo, a probabilidade condicional satisfaz todos os axiomas da probabilidade, o que implica que a probabilidade condicional também é uma probabilidade. Assim sendo, todas as propriedades de probabilidade também são válidas.

Exemplo 1.4.4:

Considere novamente o Exemplo 1.4.3 onde $ A_i $ é o evento de ter um adversário do tipo $ i $ e


\[\mathbb{P}(A_1)=0,5; \qquad \mathbb{P}(A_2)=0,25; \qquad \mathbb{P}(A_3)=0,25.\]

 

Além disso, $ B $ é evento vencer uma partida e


\[\mathbb{P}(B|A_1)=0,3; \qquad \mathbb{P}(B|A_2)=0,4; \qquad \mathbb{P}(B|A_3)=0,5.\]

 

Suponha que o jogador disputou uma partida e venceu. Qual a probabilidade $ \mathbb{P}(A_1|B) $ dele ter jogado contra um adversário do tipo $ 1 $?

Usando o teorema de Bayes, temos que


\[\mathbb{P}(A_1|B)=\frac{P(\mathbb{A}_1)\mathbb{P}(B|A_1)}{\mathbb{P}(A_1)\mathbb{P}(B|A_1)+\mathbb{P}(A_2)\mathbb{P}(B|A_2)+\mathbb{P}(A_3)\mathbb{P}(B|A_3)}=0,4.\]

 

Ou seja, a probabilidade do jogador ter disputado uma partida contra um adversário do tipo $ 1 $, dado que ele venceu a partida é de $ 40\% $.

Exemplo 1.4.5:

Suponha que uma pessoa está participando de um programa de televisão e lhe é fornecida a possibilidade de escolher entre $ 3 $ portas. Atrás de uma das portas existe um carro e atrás das demais não existe prêmio algum. O participante escolhe uma porta, digamos a porta $ 1 $ e o apresentador abre outra porta, digamos a porta $ 3 $, revelando que não há nada atrás dela e então oferece ao participante a oportunidade de trocar de porta. O que é mais vantajoso, trocar ou não a porta escolhida?

Este é um problema clássico, conhecido como paradoxo de Monty Hall. A resposta intuitiva ao problema, porém errada, é a de que quando o apresentador revelou uma porta não premiada, o concorrente teria à frente um novo dilema com apenas duas portas e um prêmio, portanto as chances de que o prêmio esteja em qualquer uma das duas portas seriam de 50%. O apresentador teria nos ajudado, já que nossas chances subiram de $ 1/3 $ para $ 1/2 $, mas realmente não faria diferença trocar ou não de porta uma vez que ambas teriam as mesmas chances de possuírem o prêmio. No entanto, esta resposta está errada, pois a porta que o apresentador abre depende da porta que o concorrente escolher inicialmente.

Na verdade, é mais vantajoso trocar de porta e, ao fazê-lo a chance do participante ganhar o carro é de $ 2/3 $. Resolveremos este problema de duas formas diferentes. A primeira apenas descrevendo o problema e a segunda, utilizando o diagrama de árvores e probabilidades condicionais.

Primeiramente, consideremos duas estratégias para o participante do programa: a estratégia $ 1 $, onde o participante seleciona uma porta e, se lhe é fornecida a oportunidade de trocar de porta, ele recusa e a estratégia $ 2 $, na qual o participante sempre troca a porta escolhida. Desta forma, utilizando a estratégia $ 1 $, o participante ganhará o carro com probabilidade $ 1/3 $, já que em $ 1/3 $ das vezes a porta que ele escolhe terá o carro com o prêmio. Utilizando a estratégia $ 2 $, o participante somente ganhará o carro se, a princípio escolhe uma porta que não contém o carro como prêmio, o que ocorre em $ 2/3 $ das vezes, ou seja, a probabilidade de ganhar com a estratégia $ 2 $ é de $ 2/3 $ e, portnato, duas vezes maior do que utilizando a estratégia $ 1 $.

Podemos também, resolver este problema utilizando os conceitos de probabilidade condicional. Para isto, consideramos vários estágios. O carro é colocado atrás de uma porta, o participante escolhe uma porta e, finalmente, o apresentador abre uma porta. Então é natural analisar o problema através de um diagrama de árvore. Assumimos que se o apresentador pode escolher entre as portas (ou seja, o participante escolheu a porta com o carro), então ele escolhe cada porta com probabilidade $ 1/2 $. A árvore resultante é mostrada na figura a seguir

Agora, supondo que o participante tenha escolhido a porta $ 1 $ e o apresentador a porta $ 3 $, então existem apenas dois caminhos possíveis através da árvore. Para um dos caminhos, o carro está atrás da porta $ 1 $ e para o outro, está atrás da porta $ 2 $. O caminho com o carro atrás da porta 2 é duas vezes mais provável que o caminho com o carro atrás da porta $ 1 $. Assim, a probabilidade condicional do carro estar atrás da porta $ 2 $ é $ 2/3 $ e a probabilidade do carro estar atrás da porta $ 1 $ é $ 1/3 $, ou seja, se o participante trocar de porta, ele tem $ 2/3 $ de chances de ganhar o carro.

Exemplo1.4.6:

Um teste de laboratório detecta uma doença quando ela está presente em $ 95\% $ dos casos. No entanto, o teste também fornece um resultado "falso positivo" para $ \1% $ das pessoas saudáveis testadas. (Isto é, se uma pessoa saudável faz o teste, então, com probabilidade $ 0,01 $, o resultado do teste dirá que ela possui a doença.) Se $ 0,5\% $ da população tem a doença, qual é a probabilidade de uma pessoa ter a doença dado que o resultado do teste é positivo?

Para resolver este problema, consideramos $ D $ o evento de a pessoa testada ter a doença e $ E $ o evento de que o resultado do teste é positivo. Então, a probabilidade desejada $ \mathbb{P}(D|E) $ é obtida por


\[\mathbb{P}(D|E)=\frac{\mathbb{P}(D\cap E)}{\mathbb{P}(E)}=\frac{\mathbb{P}(E|D)\mathbb{P}(D)}{\mathbb{P}(E|D)\mathbb{P}(D)+\mathbb{P}(E|D^c)\mathbb{P}(D^c)},\]

 

ou seja,


\[\mathbb{P}(D|E)=\frac{(0,95)(0,005)}{(0,95)(0,005)+(0,01)(0,995)}\approx 0,323.\]

 

Assim, apenas $ 32\% $ das pessoas cujos resultados do teste deram positivo realmente possuem a doença.

Exemplo 1.4.7:

Em um teste de múltipla escolha, ou um estudante sabe a resposta ou arrisca uma das alternativas. Seja $ p $ a probabilidade do estudante saber a resposta e $ 1 - p $ a probabilidade do estudante arriscar adivinhá-la. Assuma que um estudante que arrisca a resposta acerta a resposta correta com probabilidade $ 1/m $, onde $ m $ é o número de alternativas de múltipla escolha. Qual é a probabilidade condicional de que um estudante soubesse a resposta da questão, dado que ele ou ela respondeu corretamente?

Seja $ C $ o evento de que o estudante responde a questão corretamente e $ K $ o evento de que ele saiba a resposta. Então


\[\mathbb{P}(K|C)=\frac{\mathbb{P}(K\cap C)}{\mathbb{P}(C)}=\frac{\mathbb{P}(C|K)\mathbb{P}(K)}{\mathbb{P}(C|K)\mathbb{P}(K)+\mathbb{P}(C|K^c)\mathbb{P}(K^c)},\]

 

ou seja,


\[\mathbb{P}(K|C)=\frac{p}{p+(1/m)(1-p )}= \frac{mp}{1+(m-1)p}.\]

 

Por exemplo, se $ m = 5 $ e $ p = 1/2 $, então a probabilidade de que um estudante saber a resposta de uma questão que ele respondeu corretamente é $ 5/6 $.

Exemplo 1.4.8:

Uma companhia de seguros acredita que as pessoas possam ser divididas em duas classes: aquelas que são propícias a sofrerem acidentes e as que não são. Suas estatísticas mostram que uma pessoa propícia a acidentes terá um acidente em algum momento dentro do período de um ano com probabilidade $ 0,4 $, enquanto esta probabilidade diminui para $ 0,2 $ para pessoas não propícias a acidentes. Supondo que $ 30\% $ da população é propícia a sofrer acidentes, qual é a probabilidade de que um novo segurado sofra um acidente durante um ano em que comprou uma apólice?

Obteremos a probabilidade desejada ao condicionar se o segurado é ou não uma pessoa propícia a sofrer um acidente. Seja $ A_1 $ o evento de que um segurado sofra um acidente durante um ano em que comprou a apólice e $ A $ o evento de que o segurado seja uma pessoa propícia a sofrer um acidente. Então a probabilidade desejada, $ P(A_1) $, é dada por


\[\mathbb{P}(A_1)=\mathbb{P}(A_1|A)\mathbb{P}(A)+\mathbb{P}(A_1|A^c)\mathbb{P}(A^c)=(0,4)(0,3)+(0,2)(0,7)=0,26.\]

 

Exemplo 1.4.9: 

Suponha que você deseja enviar uma carta para sua namorada pelo correio, para isto você resolve pedir para um amigo coloca-la para você, entretanto ele pode esquecer-se de envia-la com uma probabilidade de $ 0,1 $. Caso ele não se esqueça de envia-la, a probabilidade que o correio extravie a carta é de $ 0,1 $. E ainda caso o correio a envie a probabilidade de que o carteiro não a entregue é também é de $ 0,1 $. Sabendo que sua namorada não recebeu sua carta qual é a probabilidade de seu amigo ter esquecido de coloca-la no correio?

Esta é uma questão clássica em probabilidade. Vamos começar definindo os eventos definamos $ A=\{\text{O amigo enviou a carta}\} $; $ B=\{\text{O correio não extravia a carta}\} $ e $ C=\{\text{O carteiro entrega a carta}\} $. Pelos dados do problema temos que:


\[\mathbb{P}(A)=0,9; \quad \mathbb{P}(B|A)=0,9 \quad \text{e} \quad \mathbb{P}(C | A \cap B)=0,9.\]

 

O nosso problema consiste em encontrar $ \mathbb{P}(A^c | C^c) $, utilizando o teorema 1.4.3, concluímos que:


\[\mathbb{P}(A^c|C^c)=\frac{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)}{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)+\mathbb{P}(C^c|A)\mathbb{P}(A)}.\]

 

Note que $ \mathbb{P}(C^c|A^c)=1 $, pois dado que o amigo não enviou a carta o carteiro não vai entrega-la com probabilidade 1. Então vamos calcular a probabilidade de $ \mathbb{P}(C^c|A) $.


\[\mathbb{P}(C^c|A)=\mathbb{P}(C^c \cap B|A)+\mathbb{P}(C^c \cap B^c|A).\]

 

Sendo assim, precisamos encontrar $ \mathbb{P}(C^c \cap B|A) $. Observe que:


\[\mathbb{P}(C^c \cap B|A)= \frac{\mathbb{P}(C^c\cap B\cap A)}{\mathbb{P}(A)}=\frac{\mathbb{P}(C^c \cap B \cap A)\mathbb{P}(A \cap B)}{\mathbb{P}(A)\mathbb{P}(A\cap B)}=\mathbb{P}(C^c|B\cap A)\mathbb{P}(B|A)=0,1 \cdot 0,9=0,09.\]

 

Da mesma forma obtemos


\[\mathbb{P}(C^c \cap B^C |A)=\mathbb{P}(C^c | A \cap B^c)\mathbb{P}(B^C|A)=1 \cdot 0,1= 0,1.\]

 

Substituindo os valores encontrados na formula acima obtemos que


\[\mathbb{P}(C^c|A)=\mathbb{P}(C^c \cap B|A)+\mathbb{P}(C^c \cap B^c|A)=0,09+0,1=0,19.\]

 

Finalmente substituindo os valores encontrados na formula acima obtemos que


\[\mathbb{P}(A^c|C^c)=\frac{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)}{\mathbb{P}(C^c|A^c)\mathbb{P}(A^c)+\mathbb{P}(C^c|A)\mathbb{P}(A)}=\frac{1\cdot 0,1}{1 \cdot 0,1+0,19 \cdot 0,9}=\frac{0,1}{0,271}\thickapprox 0,369.\]

 

E, portanto, a probabilidade de que o amigo não tenha colocado a carta no correio sabendo que a namorada não recebeu a carta é de, aproximadamente, $ 36,9\% $.

Exemplo 1.4.10: 

Vamos supor que vamos selecionar $ 3 $ cartas em um baralho comum (com $ 52 $ cartas) ao acaso e sem reposição. Qual a probabilidade de retirarmos $ 3 $ reis?

Vamos definir o evento $ A_i=\{\text{a i-ésima retirada é rei}\} $, onde $ i=1,2,3 $Queremos encontrar a probabilidade $ \mathbb{P}(A_1\cap A_2 \cap A_3) $ pelo teorema 1.4.1 temos que:


\[\mathbb{P}(A_1\cap A_2 \cap A_3)=\mathbb{P}(A_3 | A_1\cap A_2)\cdot \mathbb{P}(A_2|A_1)\cdot \mathbb{P}(A_1)=\frac{2}{50}\cdot \frac{3}{51} \cdot \frac{4}{52}.\]

 

Exemplo 1.4.11: 

Suponha que a ocorrência de chuva (ou não) dependa de das condições do tempo no dia imediatamente anterior. Admitamos que se chova hoje, choverá amanhã com probabilidade de $ 0,7 $ e que se não chove hoje, então choverá amanhã com probabilidade de $ 0,4 $. Sabendo que choveu hoje, calcule a probabilidade de chover depois de amanhã.

Consideremos nosso espaço amostral  \omega_i \in \{\text{chover, não chover}\}\} $. Seja o evento $ A_1=\{\text{chover hoje}\] $,  $ A_2=\{\text{chover amanhã}\} $ e $ A_3=\{\text{chover depois de amanhã}\} $. Queremos encontrar $ \mathbb{P}(A_3|A_1) $, mas

$$\mathbb{P}(A_3|A_1)=\mathbb{P}(\Omega \cap A_3|A_1)$$

$$ = \mathbb{P}(A_3 \cap (A_2\cup A_2^c)|A_1)$$

$$ =\mathbb{P}(A_3 \cap A_2 | A_1)+ \mathbb{P}(A_3 \cap A_2^{c} | A_1)$$

$$= \frac{\mathbb{P}(\A_1 \cap A_2 \cup A_3)}{\mathbb{P}(A_1)}+\frac{\mathbb{P}(\A_1 \cap A_2^c\cup A_3)}{\mathbb{P}(A_1)}$$

$$= \frac{\mathbb{P}(A_3|A_1\cap A_2) \cdot \mathbb{P}(A_2|A_1)\cdot \mathbb{P}(A_1)}{\mathbb{P}(A_1)}+\frac{\mathbb{P}(A_3|A_1\cap A_2^C) \cdot \mathbb{P}(A_2^C|A_1)\cdot \mathbb{P}(A_1)}{\mathbb{P}(A_1)}$$

$$= \mathbb{P}(A_3|A_1\cap A_2)\cdot \mathbb{P}(A_2|A_1) + \mathbb{P}(A_3|A_1\cap A_2^C)\cdot \mathbb{P}(A_2^C|A_1)$$

$$= \mathbb{P}(A_3|A_2)\cdot \mathbb{P}(A_2| A_1)+\mathbb{P}(A_3|A_2^C)\cdot \mathbb{P}(A_2^C| A_1)$$

$$= 0,7 \cdot 0,7 + 0,4 \cdot 0,3$$

$$=0,61$$

Ou seja, sabendo que choveu hoje, a probabilidade de chover depois de amanhã é de $ 61\% $.

Exemplo 1.4.12: 

Em um jogo de dados são jogados dois dados honestos simultaneamente, de forma independente. Considerando que os números das faces voltadas para cima dos dois dados são números diferentes, qual é a probabilidade de que a soma dos números seja $ 6 $?

Primeiramente vamos analisar o nosso espaço amostral. A tabela abaixo mostra todo o espaço amostral:

  1 2 3 4 5 6
1 (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
2 (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
3 (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
4 (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
5 (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
6 (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)

Seja $ A=\{\text{Soma dos dados ser 6}\} $ e $ B=\{\text{O número dos dados serem distintos}\} $. Observem na tabela cima que existem $ 30 $ possibilidades das 36 para as quais os dois números são distintos. E dentre as possibilidades para os quais a soma é $ 6 $, existem $ 4 $ possibilidade para os quais os números são distintos. Assim a probabilidade $ P(A|B) $ é dada por


\[\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}=\frac{\frac{4}{36}}{\frac{30}{36}}=\frac{2}{15}.\]

 

 

Exemplo 1.4.13: Seja $ (\Omega, \mathbb{A}, \mathbb{P}) $ um espaço de probabilidade e suponha que todos os conjuntos abaixo pertençam a $ \mathbb{A} $. Prove:

  (a) Se os $ A_n $ são disjuntos e $ \mathbb{P}(B|A_n)\geq c $ para todo $ n $, então
 

$$\mathbb{P}(B|\cup A_n)\geq c$$

  (b) O item (a) com "=" no lugar de $ \geq  $.

  (c) Se $ A_n\supset A_{n+1} $ e $ \mathbb{P}(A_{n+1}|A_n)\leq \frac{1}{2} $ para todo n, então $ \mathbb{P}(A_n)\rightarrow 0 $ quando $ n\rightarrow \infty $.

  (d) Se os $ A_n $ são disjuntos e $ \mathbb{P}(B| A_n)=\mathbb{P}(C|A_n) \quad \quad \forall n $, então
 

$$\mathbb{P}\left(B\bigg |\bigcup A_n\right)=\mathbb{P}\left(C\bigg|\bigcup A_n\right).$$

  (e) Se $ A_1, A_2, \dots $ são disjuntos e $ \bigcup A_n=\Omega $, então
 

$$\mathbb{P}(B|C)=\sum_n \mathbb{P}(A_n|C)\mathbb{P}(B|A_n\cap C).$$

  (a) Primeiramente observe que $ [B\cap(\cup A_n)]=\bigcup [B\cap A_n] $ o que implica que
 

$$\mathbb{P}[B\cap(\cup A_n)]=\sum \mathbb{P}[B\cap A_n].$$

  Agora, dado que $ \mathbb{P}(B|A_n)\geq c  $ temos que
 

$$\mathbb{P}(B\cap A_n)\geq c\mathbb{P}(A_n)$$

  então temos que
 

$$\sum_n \mathbb{P}(B\cap A_n)\geq c \sum_n \mathbb{P}(A_n)=c\mathbb{P}\left(\bigcup_n A_n\right)$$

  Então
 

$$\mathbb{P}(B\cap (\cup A_n))\geq c \mathbb{P}(\cup A_n)\Rightarrow \frac{\mathbb{P}(B\cap (\cup A_n))}{\mathbb{P}(\cup A_n)}\geq c\Rightarrow \mathbb{P}(B|\cup A_n)\geq c.$$

  (b) A demonstração é análoga e obtemos $ \mathbb{P}(B|\cup A_n)=c. $

  (c) Se $ A_n\supset A_{n+1} $ então
  

$$\mathbb{P}(A_n)=\mathbb{P}(A_1\cap \dots \cap A_{n})=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\dots \mathbb{P}(A_n|A_1\cap A_2\cap \dots \cap A_{n-1})$$

 

$$=\mathbb{P}(A_1)\mathbb{P}(A_2|A_1)\dots \mathbb{P}(A_n|A_{n-1})$$

  Agora $ 0\leq \mathbb{P}(A_1)\leq 1 $$ 0\leq \mathbb{P}(A_i|A_{i-1})\leq \frac{1}{2} $, para $ i=1,2,3, \dots $. Desta forma,
 

$$0\leq \mathbb{P}(A_n)\leq \frac{1}{2^{n-1}}$$

  o que implica que
 

$$0\leq \lim_{n\rightarrow \infty}\mathbb{P}(A_n)\leq 0$$

  o que implica que $ \lim_{n\rightarrow \infty}\mathbb{P}(A_n)=0 $.

  (d) Então,
 

$$\mathbb{P}\left(B|\bigcup A_n\right)=\frac{\mathbb{P}(B\cap(\cup A_n))}{\mathbb{P}(\cup A_n)}=\frac{\mathbb{P}(\cup(B\cap A_n))}{\mathbb{P}(\cup A_n)}=\frac{\sum \mathbb{P}(B\cap A_n)}{\mathbb{P}(\cup A_n)}=\frac{\sum_{n}\mathbb{P}(C|A_n)\mathbb{P}(A_n)}{\mathbb{P}(\cup A_n)}$$

 

$$=\frac{\sum \mathbb{P}(C\cap A_n)}{\mathbb{P}(\cup A_n)}=\frac{\mathbb{P}(\cup C\cap A_n)}{\mathbb{P}(\cup A_n)}=\mathbb{P}(C|\cup A_n)$$

  (e) Temos
 

$$\sum \mathbb{P}(A_n| C)-\mathbb{P}(B| A_n\cap C)=\sum \frac{\mathbb{P}(A_n\cap C)}{\mathbb{P}(C)}\frac{\mathbb{P}(B\cap C\cap A_n)}{\mathbb{P}(A_n\cap C)}=\frac{1}{\mathbb{P}(C)}\sum_n \frac{\mathbb{P}((B\cap C)\cap A_n)}{\mathbb{P}(A_n)}$$

 

$$=\frac{1}{\mathbb{P}(C)}\sum \mathbb{P}(B\cap C|A_n)=\frac{\mathbb{P}(B\cap C)}{\mathbb{P}(C)}=\mathbb{P}(B|C)$$

 

Exemplo 1.4.14: Certo experimento consiste em lançar um dado equilibrado duas vezes independentemente. Dado que os dois números sejam diferentes, qual é a probabilidade
  condicional de

  (a) pelo menos um dos números ser 6, e

  (b) a soma dos números ser 8?

  (a)   $ A=\{\text{Evento de dois número diferentes}\} $, então $ \mathbb{P}(A)=\frac{30}{36}=\frac{5}{6} $.
  $ B=\{\text{ Pelo menos 1 número ser 6 }\} $, $ \mathbb{P}(B)=\frac{11}{36} $, $ \mathbb{P}(B\cap A)=\frac{10}{36}=\frac{5}{18} $
  $ C=\{\text{ A soma dos numeros é 8 }\}. $$ \mathbb{P}(C)=\frac{5}{36} $, $ \mathbb{P}(C\cap A)=\frac{4}{36}=\frac{1}{9} $

  Então, $ \mathbb{P}(B|A)=\frac{\mathbb{P}(B\cap A)}{\mathbb{P}(A)}=\frac{\frac{5}{18}}{\frac{5}{6}}=\frac{1}{3} $,
  $ \mathbb{P}(C|A)=\frac{\mathbb{P}(C\cap A)}{\mathbb{P}(A)}=\frac{\frac{1}{9}}{\frac{5}{6}}=\frac{2}{15} $

 

 

Exemplo 1.3.15: Durante o mês de novembro a probabilidade de chuva é de 0,3. O Fluminense ganha um jogo em um dia com chuva com a probabilidade 0,4; em
  um dia sem chuva com a probabilidade 0,6. Se ganhou um jogo em novembro, qual é a probabilidade de que choveu nesse dia ?
  Defina $ C=\{\text{ ocorrer chuva em novembro }\} $ e $ G\{\text{ evento fluminense ganha em novembro }\} $.
 

$$\mathbb{P}(G|C)=0,4, \quad \quad \mathbb{P}(G^c|C)=0,6 \quad\quad \mathbb{P}(G|C^c)=0,6$$

  Então
 

$$\mathbb{P}(C|G)=\frac{\mathbb{P}(C\cap G)}{\mathbb{P}(G)}=\frac{\mathbb{P}(C)\mathbb{P}(G|C)}{\mathbb{P}(G|C)\mathbb{P}(C)+\mathbb{P}(G|C^c)\mathbb{P}(C^c)}=\frac{0,3\times 0,4}{0,3\times 0,4+0,6\times 0,7}=\frac{2}{9}$$


 

Exemplo 1.3.16: Sejam $ A_1, \dots, A_n $ eventos aleatórios independentes, com $ p_k=\mathbb{P}(A_k),k=1,\dots, n $. Obtenha a probabilidade de ocorrência dos seguintes
  eventos em termos das probabilidades $ p_k $
  (a) A ocorrência de nenhum dos $ A_k $.
 

$$B_a=\left[\bigcup_{k=1}^n A_k\right]^c=\left[\bigcap_{k=1}^n A_k^c\right]$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_a)=\prod_{k=1}^n(1-\mathbb{P}(A_k))=\prod_{k=1}^n(1-p_k)$$

  (b) A ocorrência de pelo menos um dos $ A_k $
 

$$B_b=\left[\bigcup_{k=1}^n A_k\right]=\left[\bigcap_{k=1}^n A_k^c\right]^c$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_b)=1-\prod_{k=1}^n(1-\mathbb{P}(A_k))=1-\prod_{k=1}^n(1-p_k)$$

  (c) A ocorrência de exatamente um dos $ A_k $
 

$$B_c=\bigcup_{k=1}^n\left[\bigcap_{j=1;\\j\neq k}^n A_j^c\right]\cap A_k$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_c)=\sum_{k=1}^n\mathbb{P}(A_k)\prod_{j=1;\\j\neq k}^n(1-\mathbb{P}(A_j))=\sum_{k=1}^np_k\prod_{j=1;\\j\neq k}^n(1-p_j)$$

  (d) A ocorrência de exatamente um dois dos $ A_k $
 

$$B_d=\bigcup_{1\leq i\textless j \leq n}\left[\bigcap_{k=1;\\k\neq {i,j}}^n A_k^c\right]\cap A_i\cap A_j$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_d)=\sum_{1\leq i\textless j \leq n}\mathbb{P}(A_j)\mathbb{P}(A_i)\prod_{k=1;\\k\neq (i,j)}(1-\mathbb{P}(A_k))=\sum_{1\leq i\textless j \leq n}p_jp_i\prod_{k=1;\\k\neq (i,j)}(1-p_j)$$

  (e) A ocorrência de todos os $ A_k $
 

$$B_e=\bigcap_{j=1}^n A_j$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_e)=\prod_{j=1}^n \mathbb{P}(A_j)=\prod_{j=1}^n p_j$$

  (f) A ocorrência de, no máximo, n-1 dos $ A_k $.
 

$$B_f=\left(\bigcap_{j=1}^n A_j\right)^c$$

  o que implica que pela independência temos que
 

$$\mathbb{P}(B_f)=1-\prod_{j=1}^n \mathbb{P}(A_j)=1-\prod_{j=1}^n p_j$$


 

Exemplo 1.4.17: Sejam $ A_1, \dots, A_n $ eventos aleatórios independentes, com $ p_k=\mathbb{P}(A_k), k=1, \dots, n $. Faça uma adaptação das desigualdades de Bonferroni
  para este caso, expressando-as em termos das $ p_k $.
  Utilizando as desigualdades de Bonferroni obtemos
  i)

$$\sum_{i=1}^n p_i-\sum_{1\leq i\textless j \leq n}p_ip_j\leq \mathbb{P}\left(\bigcup_{i=1}^n A_k\right)$$

 

$$\leq \sum_{i=1}^n p_i-\sum_{1\leq i\textless j\leq n}p_ip_j+\sum_{1\leq i\textless j\textless k\leq n}p_ip_j p_k$$

  ii) Se $ k $ é impar, $ k\leq n $, então:
 

$$\mathbb{P}\left(\bigcup_{i=1}^n A_i\right)\leq \sum_{i=1}^n p_i-\sum_{1\leq i_1\textless i_2\leq n}p_{i_1}p_{i_2}+\dots+(-1)^{k-1}\sum_{1\leq i_1\textless i_2\textless \dots \textless i_k\leq n}p_{i_1}p_{i_2}\dots p_{i_k}.$$

  Se $ k $ é par vale $ \geq $.

 

Probabilidades

Sobre o Portal Action

O Portal Action é mantido pela Estatcamp - Consultoria Estatística e Qualidade, com o objetivo de disponibilizar uma ferramenta estatística em conjunto com uma fonte de informação útil aos profissionais interessados.

Facebook

CONTATO

  •  Maestro Joao Seppe, 900, São Carlos - SP | CEP 13561-180
  • Telefone: (16) 3376-2047
  • E-Mail: [email protected]