Qualidade de Classificações de Sistemas de
Reconhecimento de Cenas
Paulo Sérgio Rodrigues
PEL205
Dicotomia Binária: Classificação Padrões de
Imagens
Dicotomia Binária: Classificação Padrões de
Imagens
Dicotomia Binária: Classificação Padrões de
Imagens
Dicotomia Binária: Classificação Padrões de
Imagens
1
mj 
xj

N j x  j
j  1,2,...,W
D j ( x)  x  m j
onde
 
a  a a
T
1/2
j  1,2,...,W
é a norma euclidiana
x será atribuído à classe  j se Dj ( x) for a menordistância
1 T
d i ( x)  x m j  m j m j
2
T
j  1,2,....,W
dij ( x)  di ( x)  d j ( x)
1
T
 x mi  m j   mi  m j  mi  m j   0
2
T
Dicotomia Binária: Exemplo
1 T
d1 ( x)  x m1  m1 m1
2
 4.3x1  1.3x2  10.1
T
1 T
d 2 ( x)  x m2  m2 m2
2
 1.5 x1  0.3x2  1.17
T
d12 ( x)  d1 ( x)  d 2 ( x)
2.8x1  1.0 x2  8.9  0
Classificadores Estatísticos Ótimos
A probabilidade de um padrão x pertencera uma classe i
denota- se por p(i | x)
Se o classificador errar e atribuir x a uma classe qualquer  j
quantificamosa perda por Lij
W
ri ( x)   Lkj p(k | x)
k 1
Classificadores Estatísticos Ótimos
W
ri ( x)   Lkj p(k | x)
k 1
p( A) p( B / A)
p( A / B) 
p( B)
p(k ) p( x / k )
rj ( x)   Lkj
p( x)
k 1
W
W
1 W

Lkj p(k ) p( x / k )

p( x) k 1
rj ( x)   Lkj p(k ) p( x / k )
k 1
Classificador Bayesiano
Assim, temosr1 ( x), r2 ( x),...,rW ( x)
O classificador que atribui x à classe que
minimiza o erro médio total é chamado de
classificador Bayesiano
Classificador Bayesiano
O classificador Bayesianoatribui o padrão x à classe i
se ri ( x)  rj ( x) para todo j  i
Em outraspalavras,ele atribui o padrão x à classe i
se :
W
L
k 1
ki
W
p( x / k ) p(k )  Lki p( x / q ) p(q )
q 1
Classificador Bayesiano
W
L
k 1
ki
W
p( x / k ) p(k )  Lki p( x / q ) p(q )
q 1
Lij 1   ij
1 se i  j
 ij  
 0 se i  j
Classificador Bayesiano
Substituindo ….
W
rj ( x)   (1   ij ) p( x / k ) p(k )
k 1
rj ( x)  p( x / k ) p(k )
Classificador Bayesiano
Assim, o classificador Bayesianoatribui o padrão x à classe i
se ri ( x)  rj ( x) para todo j  i
p( x / i ) p(i )  p( x /  j ) p( j )
j  1,2,....,W e j  i
Classificador Bayesiano
d j ( x)  p( x /  j ) p( j )
j  1,2,....,W
Classificador Bayesiano para distribuição
gaussiana
Se aproximarmos as distribuições dos padrões por
gaussianas, teremos:
Parasimplificar, consideremos o problemade uma dimensão,
n  1, duas classes,W  2, e distribuições Gaussianas com médias
m1 e m2 , e desvios- padrões 1 e  2 , respectivamente
Classificador Bayesiano para distribuição
gaussiana
d j ( x)  p( x /  j ) p( j )
1

e
2 i

x  mi 2

2 i2
p( j ) j  1,2
Chapter 12
Object Recognition
Chapter 12
Object Recognition
Chapter 12
Object Recognition
Curva ROC
Curva ROC
Sensibilidade
É a propoção de verdadeiros positivos: a capacidade do sistema em
predizer corretamente a condição para casos que realmente a têm
`
.
SENS = ACERTOS POSITIVOS / TOTAL DE POSITIVOS
= VP / (VP + FN)
Curva ROC
Especificidade
É a proporção de verdadeiros negativos: a capacidade do
sistema em predizer corretamente a ausência da condição
para casos que realmente não a têm.
SPEC = ACERTOS NEGATIVOS / TOTAL DE NEGATIVOS
= VN / (VN + FP)
Curva ROC
Curva Precição x Revocação (PR)
Uma curva PR serve para medir a qualidade
de uma ordenação classificatória
Seja um padrão x e um conjunt ode classes possíveis W  1 , 2 ,..., n 
de serem ordenadasde acordo com a dist ância para x
P or sua vez,cada classe é um conjunt ode element ossemelhant es entresi :
i  { ip }, onde p é o p  esimo element oda classe i
Com base em uma distânciaespecífica, W pode ser ordenado
em relaçãoa x
Curva Precição x Revocação (PR)
EXEMPLO
Download

aula 14