EE-214/2011 Redes Bayesianas EE-214/2011 Dicionário Aurélio: Inferir: “Tirar por conclusão, deduzir pelo raciocínio” Inferência: “Ato ou efeito de inferir; indução, conclusão; admissão de verdade de uma proposição que não é conhecida diretamente, em virtude de sua ligação com outras proposições admitidas como verdadeiras” EE-214/2011 Dicionário Aurélio: Inferir: “Tirar por conclusão, deduzir pelo raciocínio” Inferência: “Ato ou efeito de inferir; indução, conclusão; admissão de verdade de uma proposição que não é conhecida diretamente, em virtude de sua ligação com outras proposições admitidas como verdadeiras” Dadas proposições P1, ... , Pn concluir proposição C { P1, ... , Pn } C EE-214/2011 Exemplo OVR_P = Pressão excessiva no reator OVR_T = Temperatura excessiva no reator OUT_F_ON = Válvula de distribuição habilitada V_ON = Válvula de alívio aberta R_ON = Resistência de aquecimento FALHA_IMINENTE P1 = R_ON P2 = OUT_F_ON P3 = ¬V_ON P4 = R_ON ( ¬OUT_F_ON ¬V_ON ) OVR_T P5 = OVR_T OVR_P P6 = OVR_P ¬V_ON FALHA_IMINENTE C = FALHA_IMINENTE EE-214/2011 { P1, ... , Pn } C Modus Ponens: P1 A P2 ( A B ) CB A = Sobrecorrente na armadura no motor elétrico B = Elevação da temperatura dos enrolamentos de armadura Abdução (Inferência Inválida): P1 B P2 ( A B ) C A A = Sobrecorrente na armadura no motor elétrico B = Elevação da temperatura dos enrolamentos de armadura EE-214/2011 Abdução: P1 B P2 ( A B ) C A A = Sobrecorrente na armadura no motor elétrico B = Elevação da temperatura dos enrolamentos de armadura A e B relacionados P( B | A ) = P( A B ) / P( A ) Bayes P( A | B ) = P( B | A ) P( A ) / P( B ) EE-214/2011 1 3 7 5 13 11 19 17 9 15 18 20 16 4 14 6 10 12 8 = { 1,2,3,...,20 } P (i) = 0.05 2 EE-214/2011 1 3 7 5 13 11 19 17 9 15 18 2 20 16 4 14 6 10 12 8 Exemplo: P( i 10 ) = 0.55 EE-214/2011 1 3 7 5 13 11 19 17 9 15 18 2 20 16 4 14 6 10 12 8 P( i 10 | i = par ) = P( i 10 i = par ) / P ( i = par ) P( i 10 | i = par ) = 0.30 EE-214/2011 A AB P( A | B ) = P( A B ) / P ( B ) B P( B | A ) = P( A B ) / P ( A ) P( B | A ) P ( A ) = P( A | B ) P ( B ) Fórmula de Bayes P( B | A ) = P( A | B ) P ( B ) P(A) EE-214/2011 Bn B1 A Bi disjuntos Bk B2 P( Bi | A ) = P( A | Bi ) P ( Bi ) P( A | B1 ) P ( B1 ) + ... + P( A | Bn ) P ( Bn ) B1 = H B2 = ¬H A= E P( E | H ) P ( H ) P( H | E ) = P( E | H ) P ( H ) + P( E | ¬H ) P (¬H ) EE-214/2011 A AB B P( A B ) = P( A | B ) P ( B ) Se B já tiver sido obtido de intersecção: B=CD Regra da Cadeia P( A C D ) = P( A | C D ) P (C D ) P( C D ) = P( C | D ) P ( D ) P( A C D ) = P( A | C D ) P( C | D ) P ( D ) EE-214/2011 Exemplo: Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999 Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01 Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste? Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99 P( E | H ) P ( H ) P( H | E ) = P( E | H ) P ( H ) + P( E | ¬H ) P (¬H ) EE-214/2011 Exemplo: Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999 Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01 Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste? Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99 P(Ruim | ¬Aprovado) = P(¬Aprovado|Ruim) P(Ruim) / P(¬Aprovado) P(¬Aprovado) = P(¬Aprovado | Bom) P(Bom) + P(¬Aprovado | Ruim) P(Ruim)] P(Ruim | ¬Aprovado) = 0.99 0.001 / (0.05 0.999 + 0.99 0.001) = 0.019 P( ¬A | R ) P ( R ) P( R | ¬A ) = P( ¬A | R ) P ( R ) + P( ¬A | ¬R ) P ( ¬R ) EE-214/2011 Exemplo: Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999 Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01 Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste? Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99 1.000.000 de componentes 1.000 Ruins 10 Aprovados 999.000 Bons 990 Rejeitados 49.950 Rejeitados 949.050 Aprovados 50.940 Rejeitados 990 / 50.940 = 0.019 P(Ruim | ¬Aprovado) = 0.99 0.001 / (0.05 0.999 + 0.99 0.001) = 0.019 EE-214/2011 Exemplo: Lote de componentes recuperados da sucata: P(Ruim) = 0.80 e P(Bom) = 0.20 Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01 Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste? Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99 P(Ruim | ¬Aprovado) = P(¬Aprovado|Ruim) P(Ruim) / P(¬Aprovado) P(¬Aprovado) = P(¬Aprovado | Bom) P(Bom) + P(¬Aprovado | Ruim) P(Ruim)] P(Ruim | ¬Aprovado) = 0.99 0.8 / (0.05 0.0.20 + 0.99 0.80) = 0.98 P( ¬A | R ) P ( R ) P( R | ¬A ) = P( ¬A | R ) P ( R ) + P( ¬A | ¬R ) P ( ¬R ) EE-214/2011 {A, (A C )} C Se A Então C A Antecedente C Consequente P( C | A ) P ( A ) P( A | C ) = P( C | A ) P ( A ) + P( C | ¬A ) P (¬A ) Se H Então E H Hipótese E Evidência Dado E qual a probabilidade de H estar correta? P( E | H ) P ( H ) P( H | E ) = P( E | H ) P ( H ) + P( E | ¬H ) P (¬H ) EE-214/2011 {A, (A C )} C Se A Então C A Antecedente C Consequente P( C | A ) P ( A ) P( A | C ) = P( C | A ) P ( A ) + P( C | ¬A ) P (¬A ) Likelihood of Sufficiency: P( C | A ) LS = P( C | ¬A ) Likelihood of Necessity: P( ¬C | A ) LN = P( ¬C | ¬A ) EE-214/2011 A = Aquecimento do Fio C = Curto-circuito A = Aditivo no Combustível C = Carburador Sujo P( C | A ) = 0.8 P( ¬C | A ) = 0.2 P( C | ¬A ) = 0.05 P( ¬C | ¬A ) = 0.95 P( C | A ) = 0.3 P( ¬C | A ) = 0.7 P( C | ¬A ) = 0.9 P( ¬C | ¬A ) = 0.1 LS = 16 LN = 0.21 LS = 0.33 LN = 7 Likelihood of Sufficiency: P( C | A ) LS = P( C | ¬A ) Likelihood of Necessity: P( ¬C | A ) LN = P( ¬C | ¬A ) EE-214/2011 Redes Bayesianas Grafos Direcionados Acíclicos: Vértices (ou nós) Arcos (direcionados) EE-214/2011 Redes Bayesianas Grafos Direcionados Acíclicos: Pai de SC Nó SC Descendentes de SC Condição de Markov: Se V é um vértice, V é condicionalmente independente de todos os nós não descendentes, dados os pais EE-214/2011 Redes Bayesianas ND3 V é dito ser condicionalmente independente de ND = { ND1 , ... , NDn } dado P = { P1 , ... , Pm } se P( V | ND,P ) = P( V | P ) P1 ND1 ND2 ND4 V Descendentes de V Condição de Markov: Se V é um vértice, V é condicionalmente independente de todos os nós não descendentes, dados os pais EE-214/2011 Redes Bayesianas Grafos Direcionados Acíclicos: P( MD | AQ,SC ) = 0.98 P( MD | AQ, ¬SC ) =0.30 P( MD | ¬AQ,SC ) =0.40 P( MD | ¬AQ, ¬SC ) =0.01 ET AQ SC MD AL P( AL | SC ) = 0.99 P( AL | ¬SC ) =0.03 Condição de Markov: Se V é um vértice, V é condicionalmente independente de todos os nós não descendentes, dados os pais EE-214/2011 Cálculo das Probabilidades ET AQ SC Cálculo de P( MD | AQ ): MD P( MD | AQ ) = P ( MD , SC | AQ ) + P ( MD , ¬SC | AQ ) Regra da Cadeia: P( A,B,C ) = P( A | B , C ) P ( B | C ) P( C ) P( MD | AQ ) = P ( MD | SC , AQ )P ( SC | AQ ) + P ( MD | ¬SC , AQ ) P ( ¬SC | AQ ) Condição de Markov: P ( SC | AQ ) = P ( SC ) e P (¬ SC | AQ ) = P ( ¬SC ) P( MD | AQ ) = P ( MD | SC , AQ )P ( SC ) + P ( MD | ¬SC , AQ )P ( ¬SC ) AL EE-214/2011 P(ET)=0.05 P(¬ET)=0.95 ET AQ P(AQ | ET) = 0.80 P(¬ AQ | ET) = 0.20 P(AQ | ¬ ET) = 0.10 P(¬ AQ | ¬ ET) = 0.90 SC MD AL P(SC | ET) = 0.95 P(¬ SC | ET) = 0.05 P(SC | ¬ ET) = 0.05 P(¬ SC | ¬ ET) = 0.95 P(MD | AQ, SC) = .98 P(¬ MD | AQ, SC ) = .02 P(MD | AQ, ¬ SC) = .50 P(¬ MD | AQ, ¬ SC) = .50 P(MD | ¬ AQ, SC) = .40 P(¬ MD | ¬ AQ, SC ) = .60 P(MD | ¬ AQ, ¬ SC) = .01 P(¬ MD | ¬ AQ, ¬ SC) = .99 P(AL | SC) = 0.99 P(¬ AL | SC) = 0.01 P(AL | ¬ SC) = 0.03 P(¬ AL | ¬ SC) = 0.97 EE-214/2011 P(ET)=0.05 P(¬ET)=0.95 P(AQ | ET) = 0.80 P(¬ AQ | ET) = 0.20 P(AQ | ¬ ET) = 0.10 P(¬ AQ | ¬ ET) = 0.90 P(SC | ET) = 0.95 P(¬ SC | ET) = 0.05 P(SC | ¬ ET) = 0.05 P(¬ SC | ¬ ET) = 0.95 P(MD | AQ, SC) = .98 P(¬ MD | AQ, SC ) = .02 P(MD | AQ, ¬ SC) = .50 P(¬ MD | AQ, ¬ SC) = .50 P(MD | ¬ AQ, SC) = .40 P(¬ MD | ¬ AQ, SC ) = .60 P(MD | ¬ AQ, ¬ SC) = .01 P(¬ MD | ¬ AQ, ¬ SC) = .99 P(AL | SC) = 0.99 P(¬ AL | SC) = 0.01 P(AL | ¬ SC) = 0.03 P(¬ AL | ¬ SC) = 0.97 EE-214/2011 Muito Obrigado!