Computer
Vision
Outras Transforações de
Imagens
Paulo Sérgio Rodrigues
PEL205
Computer
Vision
Transformada Discreta de Cosseno
A T ransforma
da Diretade Cosseno1D (DCT )é definda como:
 2 x  1u 
C (u )  a(u ) f ( x) cos

 2N
x 0
N 1
u = 0,1,2,...,N-1
Similarmente, a Transformada Inversa DCT é definida como:
 2 x  1u 
f ( x)   u C u  cos

2
N

u 0
N 1
para x = 0,1,2,...,N-1
Computer
Vision
Transformada Discreta de Cosseno
 2 x  1u 
C (u )  a(u) f ( x) cos

 2N
x 0
N 1
 2 x  1u 
f ( x)   u C u  cos

 2N
u 0
N 1


 u   


1
N
2
N
se u=0
se u=1,2,...N-1
Computer
Vision
Transformada Discreta de Cosseno
O par correspondente bidimensional da DCT é:
 2 x  1u 
 2 y  1v 
C (u, v)   (u) v  f ( x, y) cos
cos


2
N
2
N



x 0 y 0
N 1 N 1
para u=v=0,1,2,...,N-1
 2 x  1u 
 2 y  1v 
f ( x, y)   u  v C u, v cos
cos


 2N

 2N
u 0 v 0
N 1 N 1
para x=y=0,1,2,...,N-1
Computer
Vision
Transformação de Hotelling
A Transformação de Hotteling, também conhecida como
Autovetor, Análise dos Componentes Principais (PCA) ou
Transformação Discreta de Karhumen-Loève, possui várias
Propriedades estatísticas de uma representação vetorial
que a tornam importante não somente para Processamento
de Imagens mas para diversas outras áreas da ciência.
Computer
Vision
Transformação de Hotelling
Considere um conjunto de vetores da forma:
 x1 
x 
2

x

 
 xn 
cujo valor m édiodo conjuntoé :
mx  Ex
onde E{arg} é o valor esperado
do argumento arg
Computer
Vision
Transformação de Hotelling
Assim, a matriz de covariância de uma população
de vetores é obtida tomando-se o valor esperado de
cada elemento:

Cx  E x  mx x  mx 
onde T indica transposição
T

Computer
Vision
Transformação de Hotelling

Cx  E x  mx x  mx 
T

Uma vez que x é n-dimensional Cx é uma matriz n x n,
onde cada elemento cii é a variância de xi e cada elemento
cij, para i ≠ j é a co-variância entre os elementos xi e xj
A matriz Cx é também uma matriz real e simétrica
Se os elementos xi e xj não são correlacionados cij = cji = 0
Computer
Vision
Transformação de Hotelling
Se o número de vetores de uma população for M,
o vetor médio e a matriz de co-variância podem ser
aproximados por:
1
mx 
M
e
1
Cx 
M
M
x
k 1
k
M
x x
k 1
k
T
k
 mx m
T
x
Computer
Vision
Transformação de Hotelling
Sendo Cx real e simétrica, sempre é possível encontrar um
conjunto n autovetores ortonormais.
Então, sejam ei e λi, para i = 1,2,...,n, os respectivos
autovetores e correspondentes autovalores de Cx
Seja A a matriz cujas linhas correspondem aos autovetores de Cx
Por conveniência, a primeira linha de A corresponde ao
maior autovalor, e as demais em ordem decrescente de autovalores
correspondentes.
Computer
Vision
Transformação de Hotelling
Suponha que A é uma matriz de transformação que mapeia
cada elemento de x em um outro espaço denotado aqui por y:
y  Ax  mx 
Essa transformação de mapeada por A é chamada Transformação
de Hotteling, cuja matriz de co-variância pode ser obtida em termos
de A e Cx como:
C y  ACx A
T
Computer
Vision
Transformação de Hotelling
Uma observação importante é que Cy é uma matriz diagonal
cujos elementos dessa diagonal são justamente os autovalores
de Cx, isto é:
1

2

Cy  


 0


0





n 
Computer
Vision
x2
Transformação de Hotelling
O principal efeito da Transformação de Hotteling é o
alinhamento do eixo principal dos dados com o maior
autovalor encontrado em um novo sistema de coordenadas
cuja origem é o centróide da população.
y2
x2
e1
e2
y1
x1
x1
Essa observação mostra que a Transformação de Hotteling
alinha os dados com os autovetores.
Computer
Vision
Transformação de Hotelling
Um propriedade importante da Transformada de Hotelling é
que o vetor original pode ser reconstruído a partir de A, uma
vez que A = AT por ser formado de colunas de vetores
ortonormais. Assim:
y  Ax  mx 
x  A * y  mx
T
Computer
Vision
Transformação de Hotelling
No entanto, suponha que ao invés de usar todos os
autovetores, usemos somente os k correspondentes aos k
maiores autovalores. Chamemos essa matriz de Ak
Isso gera uma tranformação k x n. Y pode então ser k dimensional,
e a reconstrução não será mais exata. Os valores originais
reconstruídos usando Ak são representados equacionalmente como:
xˆ  A * y  mx
T
k
Computer
Vision
Transformação de Hotelling
Pode-se mostrar, no entanto, que o erro médio quadrático que
se comete ao substituir A por Ak na transformação inversa
será:
n
k
ems    j    j 
j 1
j 1
n

j  k 1
j
Download

Outras Transformações