EE-214/2011
Redes Bayesianas
EE-214/2011
Dicionário Aurélio:
Inferir: “Tirar por conclusão, deduzir pelo raciocínio”
Inferência: “Ato ou efeito de inferir; indução, conclusão; admissão
de verdade de uma proposição que não é conhecida diretamente,
em virtude de sua ligação com outras proposições admitidas como
verdadeiras”
EE-214/2011
Dicionário Aurélio:
Inferir: “Tirar por conclusão, deduzir pelo raciocínio”
Inferência: “Ato ou efeito de inferir; indução, conclusão; admissão
de verdade de uma proposição que não é conhecida diretamente,
em virtude de sua ligação com outras proposições admitidas como
verdadeiras”
Dadas proposições P1, ... , Pn concluir proposição C
{ P1, ... , Pn }  C
EE-214/2011
Exemplo
OVR_P = Pressão excessiva no reator
OVR_T = Temperatura excessiva no reator
OUT_F_ON = Válvula de distribuição habilitada
V_ON = Válvula de alívio aberta
R_ON = Resistência de aquecimento
FALHA_IMINENTE
P1 = R_ON
P2 = OUT_F_ON
P3 = ¬V_ON
P4 = R_ON  ( ¬OUT_F_ON  ¬V_ON )  OVR_T
P5 = OVR_T  OVR_P
P6 = OVR_P  ¬V_ON  FALHA_IMINENTE
C = FALHA_IMINENTE
EE-214/2011
{ P1, ... , Pn }  C
Modus Ponens:
P1  A
P2  ( A  B )
CB
A = Sobrecorrente na armadura no motor elétrico
B = Elevação da temperatura dos enrolamentos de armadura
Abdução (Inferência Inválida):
P1  B
P2  ( A  B )
C A
A = Sobrecorrente na armadura no motor elétrico
B = Elevação da temperatura dos enrolamentos de armadura
EE-214/2011
Abdução:
P1  B
P2  ( A  B )
C A
A = Sobrecorrente na armadura no motor elétrico
B = Elevação da temperatura dos enrolamentos de armadura
A e B relacionados  P( B | A ) = P( A  B ) / P( A )
Bayes
P( A | B ) = P( B | A ) P( A ) / P( B )
EE-214/2011
1
3
7
5
13
11 19
17
9
15
18
20
16 4
14
6
10
12
8
 = { 1,2,3,...,20 }
P (i) = 0.05
2
EE-214/2011
1
3
7
5
13
11 19
17
9
15
18
2
20
16 4
14
6
10
12
8
Exemplo:
P( i  10 ) = 0.55
EE-214/2011
1
3
7
5
13
11 19
17
9
15
18
2
20
16 4
14
6
10
12
8
P( i  10 | i = par ) = P( i  10  i = par ) / P ( i = par )
P( i  10 | i = par ) = 0.30
EE-214/2011
A
AB
P( A | B ) = P( A  B ) / P ( B )
B
P( B | A ) = P( A  B ) / P ( A )
P( B | A ) P ( A ) = P( A | B ) P ( B )
Fórmula de Bayes
P( B | A ) =
P( A | B ) P ( B )
P(A)
EE-214/2011
Bn
B1
A
Bi disjuntos
Bk
B2
P( Bi | A ) =
P( A | Bi ) P ( Bi )
P( A | B1 ) P ( B1 ) + ... + P( A | Bn ) P ( Bn )
B1 = H
B2 = ¬H
A= E
P( E | H ) P ( H )
P( H | E ) =
P( E | H ) P ( H ) + P( E | ¬H ) P (¬H )
EE-214/2011
A
AB
B
P( A  B ) = P( A | B ) P ( B )
Se B já tiver sido obtido de intersecção:
B=CD
Regra da Cadeia
P( A  C  D ) = P( A | C  D ) P (C  D )
P( C  D ) = P( C | D ) P ( D )
P( A  C  D ) = P( A | C  D ) P( C | D ) P ( D )
EE-214/2011
Exemplo:
Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999
Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01
Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste?
Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99
P( E | H ) P ( H )
P( H | E ) =
P( E | H ) P ( H ) + P( E | ¬H ) P (¬H )
EE-214/2011
Exemplo:
Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999
Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01
Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste?
Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99
P(Ruim | ¬Aprovado) = P(¬Aprovado|Ruim) P(Ruim) / P(¬Aprovado)
P(¬Aprovado) = P(¬Aprovado | Bom) P(Bom) + P(¬Aprovado | Ruim) P(Ruim)]
P(Ruim | ¬Aprovado) = 0.99  0.001 / (0.05  0.999 + 0.99  0.001) = 0.019
P( ¬A | R ) P ( R )
P( R | ¬A ) =
P( ¬A | R ) P ( R ) + P( ¬A | ¬R ) P ( ¬R )
EE-214/2011
Exemplo:
Lote de componentes novos: P(Ruim) = 0.001 e P(Bom) = 0.999
Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01
Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste?
Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99
1.000.000 de componentes
1.000 Ruins
10 Aprovados
999.000 Bons
990 Rejeitados
49.950 Rejeitados
949.050 Aprovados
50.940 Rejeitados
990 / 50.940 = 0.019
P(Ruim | ¬Aprovado) = 0.99  0.001 / (0.05  0.999 + 0.99  0.001) = 0.019
EE-214/2011
Exemplo:
Lote de componentes recuperados da sucata: P(Ruim) = 0.80 e P(Bom) = 0.20
Ensaio de Laboratório: P(Aprovado | Bom) = 0.95 e P(Aprovado | Ruim) = 0.01
Qual a probabilidade do componente ser Ruim, dado que não foi aprovado no teste?
Obs: P(¬Aprovado | Bom) = 1 – 0.95 = 0.05 e P(¬Aprovado | Ruim) = 1 – 0.01 = 0.99
P(Ruim | ¬Aprovado) = P(¬Aprovado|Ruim) P(Ruim) / P(¬Aprovado)
P(¬Aprovado) = P(¬Aprovado | Bom) P(Bom) + P(¬Aprovado | Ruim) P(Ruim)]
P(Ruim | ¬Aprovado) = 0.99  0.8 / (0.05  0.0.20 + 0.99  0.80) = 0.98
P( ¬A | R ) P ( R )
P( R | ¬A ) =
P( ¬A | R ) P ( R ) + P( ¬A | ¬R ) P ( ¬R )
EE-214/2011
{A, (A C )}  C
Se A Então C
A  Antecedente
C  Consequente
P( C | A ) P ( A )
P( A | C ) =
P( C | A ) P ( A ) + P( C | ¬A ) P (¬A )
Se H Então E
H  Hipótese
E  Evidência
Dado E qual a probabilidade de H estar correta?
P( E | H ) P ( H )
P( H | E ) =
P( E | H ) P ( H ) + P( E | ¬H ) P (¬H )
EE-214/2011
{A, (A C )}  C
Se A Então C
A  Antecedente
C  Consequente
P( C | A ) P ( A )
P( A | C ) =
P( C | A ) P ( A ) + P( C | ¬A ) P (¬A )
Likelihood of Sufficiency:
P( C | A )
LS =
P( C | ¬A )
Likelihood of Necessity:
P( ¬C | A )
LN =
P( ¬C | ¬A )
EE-214/2011
A = Aquecimento do Fio
C = Curto-circuito
A = Aditivo no Combustível
C = Carburador Sujo
P( C | A ) = 0.8
P( ¬C | A ) = 0.2
P( C | ¬A ) = 0.05
P( ¬C | ¬A ) = 0.95
P( C | A ) = 0.3
P( ¬C | A ) = 0.7
P( C | ¬A ) = 0.9
P( ¬C | ¬A ) = 0.1
LS = 16
LN = 0.21
LS = 0.33
LN = 7
Likelihood of Sufficiency:
P( C | A )
LS =
P( C | ¬A )
Likelihood of Necessity:
P( ¬C | A )
LN =
P( ¬C | ¬A )
EE-214/2011
Redes Bayesianas
Grafos Direcionados Acíclicos:
Vértices (ou nós)
Arcos (direcionados)
EE-214/2011
Redes Bayesianas
Grafos Direcionados Acíclicos:
Pai de SC
Nó SC
Descendentes de SC
Condição de Markov:
Se V é um vértice, V é condicionalmente independente de todos os
nós não descendentes, dados os pais
EE-214/2011
Redes Bayesianas
ND3
V é dito ser
condicionalmente independente
de ND = { ND1 , ... , NDn } dado
P = { P1 , ... , Pm } se
P( V | ND,P ) = P( V | P )
P1 ND1
ND2
ND4
V
Descendentes de V
Condição de Markov:
Se V é um vértice, V é condicionalmente independente de todos os
nós não descendentes, dados os pais
EE-214/2011
Redes Bayesianas
Grafos Direcionados Acíclicos:
P( MD | AQ,SC ) = 0.98
P( MD | AQ, ¬SC ) =0.30
P( MD | ¬AQ,SC ) =0.40
P( MD | ¬AQ, ¬SC ) =0.01
ET
AQ
SC
MD
AL
P( AL | SC ) = 0.99
P( AL | ¬SC ) =0.03
Condição de Markov:
Se V é um vértice, V é condicionalmente independente de todos os
nós não descendentes, dados os pais
EE-214/2011
Cálculo das Probabilidades
ET
AQ
SC
Cálculo de P( MD | AQ ):
MD
P( MD | AQ ) = P ( MD , SC | AQ ) + P ( MD , ¬SC | AQ )
Regra da Cadeia:
P( A,B,C ) = P( A | B , C ) P ( B | C ) P( C )
P( MD | AQ ) = P ( MD | SC , AQ )P ( SC | AQ ) + P ( MD | ¬SC , AQ ) P ( ¬SC | AQ )
Condição de Markov:
P ( SC | AQ ) = P ( SC ) e P (¬ SC | AQ ) = P ( ¬SC )
P( MD | AQ ) = P ( MD | SC , AQ )P ( SC ) + P ( MD | ¬SC , AQ )P ( ¬SC )
AL
EE-214/2011
P(ET)=0.05
P(¬ET)=0.95
ET
AQ
P(AQ | ET) = 0.80
P(¬ AQ | ET) = 0.20
P(AQ | ¬ ET) = 0.10
P(¬ AQ | ¬ ET) = 0.90
SC
MD
AL
P(SC | ET) = 0.95
P(¬ SC | ET) = 0.05
P(SC | ¬ ET) = 0.05
P(¬ SC | ¬ ET) = 0.95
P(MD | AQ, SC) = .98
P(¬ MD | AQ, SC ) = .02
P(MD | AQ, ¬ SC) = .50
P(¬ MD | AQ, ¬ SC) = .50
P(MD | ¬ AQ, SC) = .40
P(¬ MD | ¬ AQ, SC ) = .60
P(MD | ¬ AQ, ¬ SC) = .01
P(¬ MD | ¬ AQ, ¬ SC) = .99
P(AL | SC) = 0.99
P(¬ AL | SC) = 0.01
P(AL | ¬ SC) = 0.03
P(¬ AL | ¬ SC) = 0.97
EE-214/2011
P(ET)=0.05
P(¬ET)=0.95
P(AQ | ET) = 0.80
P(¬ AQ | ET) = 0.20
P(AQ | ¬ ET) = 0.10
P(¬ AQ | ¬ ET) = 0.90
P(SC | ET) = 0.95
P(¬ SC | ET) = 0.05
P(SC | ¬ ET) = 0.05
P(¬ SC | ¬ ET) = 0.95
P(MD | AQ, SC) = .98
P(¬ MD | AQ, SC ) = .02
P(MD | AQ, ¬ SC) = .50
P(¬ MD | AQ, ¬ SC) = .50
P(MD | ¬ AQ, SC) = .40
P(¬ MD | ¬ AQ, SC ) = .60
P(MD | ¬ AQ, ¬ SC) = .01
P(¬ MD | ¬ AQ, ¬ SC) = .99
P(AL | SC) = 0.99
P(¬ AL | SC) = 0.01
P(AL | ¬ SC) = 0.03
P(¬ AL | ¬ SC) = 0.97
EE-214/2011
Muito Obrigado!