XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
Aplicações de Autovalores e Autovetores em Modelagem Computacional
Jorge Farias Herculano- [email protected]
Diogo Pereira Silva de Novais- [email protected]
Paulo Oliveira Paixão- [email protected]
Tadeu Nogueira Costa de Andrade- [email protected]
Francisco Bruno Souza Oliveira - [email protected]
Programa de Pós-Graduação em Modelagem Computacional em Ciência e Tecnologia - PPGMC
Universidade Estadual de Santa Cruz - UESC
Campus Soane Nazaré de Andrade, Rodovia Jorge Amado, Km 16, Bairro Salobrinho
CEP 45662-900 - Ilheús-Bahia, Brasil
Resumo. Transformações Lineares são ferramentas de grande importância na modelagem de
problemas desconhecidos ou complexos em análogos de espaços vetoriais similares. Por este
fato, estas transformações possuem aplicações diretas na modelagem de problemas do cotidiano além de fornecerem fundamentação teórica para construção de outros métodos para
resolução de problemas especı́ficos. Os autovetores de uma transformação linear formam individualmente bases de subespaços invariantes unidimensionais, fornecendo alternativas para
redução de complexidade na solução de problemas. Junto ao conceito de autovalores e autovetores de uma transformação linear em um espaço de dimensão finita, vem o conceito de
autovalores e autovetores de matrizes, que possuem aplicações em outros estudos como formas bilineares e teorias dos grafos. Neste trabalho são apresentados conceitos gerais sobre
autovalores e autovetores e aplicações em modelagem computacional.
Palavras-chave: Autovalores, Autovetores, Álgebra Linear, Modelagem Computacional
1.
Introdução
As Transformações Lineares são ferramentas importantes na solução de problemas matemáticos, principalmente aplicados, permitindo que um problema seja mapeado para um equivalente em outro espaço, onde a teoria necessária para solução é desenvolvida ou mais prática.
Em espaços finitos, a aplicação de uma transformação linear envolve a multiplicação de matrizes. No entanto, o estudo de autovalores e autovetores pode permitir que esta multiplicação
seja substituı́da pela multiplicação por apenas um escalar, reduzindo significativamente o custo
computacional do problema. Da mesma forma, na análise estatı́stica multivariada e no reconhecimento de padrões, o estudo de autovalores permite a redução de dimensões do problema
(consequentemente seu custo de análise), ampliando a clareza da análise dos dados.
Formalmente, dado um espaço vetorial real V e uma transformação linear T em V , temos
que λ é um autovalor de T se existe um vetor não nulo u ∈ V , tal que T (u) = λu. O vetor u,
neste caso é chamado de autovetor correspondente a λ [1].
Como uma vez fornecida uma base ordenada finita B para V , é possı́vel construir uma
matriz M de T em relação a B, muitos trabalhos discutem propriedades de autovalores e autovalores em relação a matrizes, aproximando-os da abordagem da álgebra linear computacional,
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
sem perca de generalidade em espaços finitos. Neste caso, a aplicação da transformação linear
resume-se ao produto do vetor por uma matriz, valendo a seguinte relação [13]:
T (v) ≡ Mv
(1)
Matematicamente, pode se visualizar cada autovetor de uma transformação linear como
uma base para um subespaço invariante de V em relação ao operador T . Em outras palavras
seja u1 um vetor qualquer do espaço U gerado por {u}, T (u1) ∈ U [1]. O estudo de subespaços
invariantes com base em autovetores possui aplicações em diversas áreas das ciência, principalmente em matemática e fı́sica, pois se um espaço puder ser decomposto como a soma direta de
subespaços invariantes, o estudo destes espaços de dimensão menor, permite a compreensão do
comportamento do espaço em relação a uma transformação linear.
A equação de autovalores é dada por Ax = λx. Pode-se observar que Ax = λx é uma
equação não linear, portanto podemos apresentar λIx em vez de λx e trazer estes termos para o
lado esquerdo da equação e obter (A − λI)x = 0. Para ter alguma utilidade, o espaço nulo de
(A − λI) deve conter vetores diferentes de zero, ou seja, (A − λI) deve ser singular. Para isso o
determinante fornece o teste conclusivo, ou seja, se o det|A − λI| = 0. Dessa forma é possı́vel
encontrar os valores de λ[21].
Para matrizes quadradas de ordem 2 e 3 e 4 encontrar os autovalores e os autovetores
analiticamente pode ser uma tarefa fácil. No entanto, quando a ordem dessas matrizes é maior
ou igual a 4, as soluções analı́ticas se tornam inviáveis. Para resolver problemas dessa ordem
em [17] pode se encontrar métodos numéricos para calcular todos os autovalores e autovetores
de uma matriz.
Sendo da própria natureza da Álgebra Linear o estudo de espaços vetoriais de forma abstrata e generalizada, são muitas as possı́veis aplicações de autovetores e autovalores, principalmente na formalização teórica de modelos aplicados. Afim de delimitar o escopo deste trabalho,
nele são discutidas importantes aplicações de autovalores e autovetores em problemas de Modelagem Computacional.
A seção 2., apresenta o teorema espectral que fundamenta a diagonalização de transformações
lineares através de autovalores, a seção 3. discute a utilização de autovalores no estudo de convergência de métodos de resolução de Sistemas de Equações Lineares Algébricas (SELAS), a
seção 4. mostra a redução do problema do cálculo de raı́zes de um polinômio a um problema
de autovalores, a seção 5. apresenta o uso de autovalores como heurı́stica para problemas NPCompletos em técnicas de agrupamento e a seção 6., relaciona autovetores à teoria estatı́stica
de Análise de Componentes Principais.
2.
Teorema Espectral
O Teorema Espectral, como uma coerente teoria matemática, foi criado no perı́odo de 1826
a 1876 como uma teoria de substituições lineares e formas bilineares. Este trabalho foi iniciado
por Augustin Cauchy em um jornal periódico no qual provou que os autovalores de uma matriz
simétrica são reais e que a forma quadrática correspondente pode ser transformada em uma
soma de termos quadrados (isto é, diagonalizada) por meio de uma substituição ortogonal , ou
seja, uma transformação linear [10].
Teorema 1 (Teorema Espectral). Seja A ∈ Mn (C) uma matriz Hermitiana. Então, então existe
uma matriz unitária U ∈ Mn (R) e uma matriz diagonal D ∈ Mn (R) tais que U ∗ AU = D.
Além disso, as colunas da matriz U são os autovetores de A e os elementos da diagonal e os
elementos da diagonal de D são os autovalores de A [18].
O Teorema espectral pode ser aplicado em operadores auto-adjuntos ou mais genericamente a operadores normais em espaços de Hilbert. Outras aplicações do teorema podem ser
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
encontradas em formas quadráticas, aplicação em geometria, quadráticas em três dimensões e
aplicações ao cálculo (máximos e mı́nimos)[12].
3.
Estudo de Convergência de Métodos Numéricos para Resolução de SELAS
Um uso importante para os autovalores é no estudo de convergência de métodos iterativos
para resolução de sistemas lineares. Para tanto, é necessário saber o conceito de raio espectral.
Por definição o raio espectral ρ(A) de uma matriz A é definido por:
ρ(A) = max|λ|,
(2)
em que λ é um autovalor de A [2]. Com base no conceito de raio espectral é discutido a
convergência dos métodos de Jacobi e Gauss-Seidel para resolução de sistemas lineares.
Um método iterativo convergirá para qualquer valor inicial x0 , se e somente se, ρ(M) < 1,
sendo ρ(M) o raio espectral da matriz de iteração M.
Em cada método interativo (Jacobi e Gauss-Sidel) é construı́da uma matriz de iteração. A
matriz de iteração para o método de Jacobi para uma matriz A é dada por J = −D −1 (E + F ),
onde D é a matriz do elementos da diagonal, E é composta pelos elementos abaixo da diagonal
e F pelos elementos acima da diagonal. Para o método de Gauss-Sidel a matriz de iteração é
S = −(D + E)−1 F .
Segundo [3] se ρ(J) > 1 e ρ(S) < 1 o método de Jacobi não irá convergir e o de GaussSidel convergirá. Se ρ(J) < 1 e ρ(S) > 1 o método de Jacobi irá convergir e o de Gauss-Sidel
não irá.
Dessa forma, com a utilização dos autovalores para a determinação do raio espectral da
matriz nos permite avaliar a convergência dos métodos interativos.
4.
Cálculo Numérico de Raı́zes de Polinômios Através de Autovalores
Um polinômio P (x) de grau n é uma função com domı́nio e imagem em um conjunto C
ou R dado na forma:
p(x) =
n
X
ai xi
(3)
i=0
onde n ∈ N e a0 , . . . , an são constantes chamadas de coeficientes. O grau de uma função
polinomial indica a quantidade de raı́zes dessa função.
Vários métodos como o Newton-Raphson, falsa posição, secante, bisseção tem sido usados
para encontrar raı́zes. Alguns métodos requerem a definição de um intervalo onde se encontra
a raiz, outros são feitos por aproximações sucessivas a partir de um valor inicial. Separar as
raı́zes de uma equação polinomial consiste em encontrar uma sequência de subintervalos distintos tais que cada subintervalo contenha exatamente uma raiz real e que cada raiz esteja num
subintervalo.
A inexistência de uma fórmula finita para cálculo de raı́zes de um polinômio com grau
n > 5 depende da utilização desses métodos iterativos para encontrar as raı́zes. A determinação
de todas as raı́zes de um polinômio tem complexidade alta à medida que aumenta o grau do
polinômio. Um método eficiente para encontrar raı́zes reais pode ser ineficaz quando se trata de
raı́zes complexas.
Press [17] apresenta uma técnica alternativa para encontrar as raı́zes reais ou complexas
de um polinômio qualquer através do cálculo dos autovalores da matriz de Hessenberg que
possui custo computacional de ordem O(n2 ) ao invés de O(n3 ) como em outras matrizes não
simétricas.
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
Algoritmos para calcular autovalores de matrizes simétricas são satisfatórios, por outro
lado, não existem algoritmos igualmente satisfatórios para todas matrizes não simétricas por
duas razões: primeiro, pelo fato de seus autovalores serem sensı́veis a pequenas mudanças nos
elementos da matriz; segundo, a matriz pode ser mal formada, não podendo ter um conjunto
completo de autovetores.
A matriz de Hessenberg é uma matriz superior composta de zeros abaixo da primeira linha
da subdiagonal. A matriz M definida abaixo é um exemplo de uma matriz de Hessenberg:

a11 a12
a21 a22

 0 a32
A=
0
0

0
0
0
0
a13
a23
a33
a43
0
0
a14
a24
a34
a44
a54
0
a15
a25
a35
a45
a55
a65

a16
a26 

a36 

a46 

a56 
a66
(4)
4.1 Geração da Matriz de Hessemberg a partir de um Polinômio
Dado um polinômio qualquer de grau m, pode ser demonstrado que suas raı́zes coincidem
com os autovalores da matriz A definida a partir de seus coeficientes conforme abaixo:

− amam−1 − amam−2
 1
0

 0
1
A=
 ..
..
 .
.
0
0

. . . − aam1 − aam0
...
0
0 

...
0
0 

..
.. 
..
.
.
. 
...
1
0
(5)
Após a geração da matriz a partir do polinômio, seus autovalores reais ou complexos podem ser obtidos através de métodos numéricos para aproximação de autovalores de matrizes de
Hessemberg [17].
Apesar da convergência mais lenta do método, todas as raı́zes do polinômio são encontradas, podendo ser uma boa alternativa se métodos mais eficientes divergirem ou convergirem
lentamente, principalmente quando algumas raı́zes do polinômio em questão forem complexas.
5.
Agrupamentos Espectrais Baseados em Grafos
Possuindo aplicações em diversas áreas, o agrupamento é uma técnica amplamente utilizadas na análise de dados empı́ricos, de modo a relacionar dados, onde geralmente as classes as
quais pertencem não estão bem definidas ou não existem inicialmente [14, 20].
A principal ideia acerca das técnicas de agrupamento é a separação dos dados amostrais
de modo que os elementos de um mesmo agrupamento sejam mais similares entre si que em
relação a elementos de outros grupos [16, 5]. O problema de agrupamento pode ser reduzido à
maximização da similaridade entre elementos de um mesmo grupo e minimização de similaridade entre elementos de grupos distintos. A relação inversa pode ser pensada se for tomada a
dissimilaridade como parâmetro de comparação.
Conforme a abordagem utilizada, os algoritmos de agrupamento podem ser divididos em
hierárquicos ou de particionamento. Em agrupamentos hierárquicos, os grupos são subdivididos
ou indivı́duos aglomerados, e o algoritmo é reaplicado nas subdivisões até que seja atingido um
número de grupos ou grau de (dis)similaridade desejado. Já no particionamento, são criados
grupos e indivı́duos são movidos de um grupo para o outro até que se satisfaça um critério de
parada [16].
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
Entre as técnicas de agrupamento utilizadas, o agrupamento espectral através de grafos tem
ganhado expressividade em pesquisas recentes, no qual matrizes de similaridade são representadas através de grafos e através do particionamento espectral pode-se obter uma solução do
problema de agrupamento, reduzindo-o a um problema de autovetores através de relaxação do
problema original que é NP-Completo [8, 9]. Grande parte das propriedades de autovetores e
autovalores associados a um grafo, estão relacionados à Matriz Laplaciana do mesmo.
5.1 Matrizes Laplacianas e o Vetor de Flieder
Um grafo G pode ser visto como um conjunto G = (V, E), onde V é um conjunto não
vazio de vértices (ou nós) e E um conjunto de arestas, que relaciona os vértices de V . Cada
elemento de E é um par (vi , vj ), onde vi , vj ∈ V [16]. Caso os elementos de V sejam pares
ordenados, o grafo é chamado grafo direcionado, caso contrário é chamado não direcionado.
Neste tópico serão considerados apenas grafos não direcionados.
A matriz A de adjacência de um grafo pode ser definida como [16]:
(
1, se está vi conectado a vj
(6)
A = [aij ] =
0, caso contrário
de modo que em um grafo não direcionado, A é uma matriz simétrica. No caso de um grafo com
pesos, o grafo pode ser representada por uma matriz de pesos W = [wij ], onde wij representa o
peso da aresta entre vi e vj , ou 0 caso não estejam conectados.
Em problemas que não estão naturalmente definidos através de grafos, pode-se construir
grafos através de matrizes de similaridades, por exemplo, utilizando a similaridade como parâmetro
para o peso da ligação entre dois vértices [16]. É comum na literatura ser utilizada alguma
distância (principalmente Euclidiana) como função de similaridade, apesar de não haver requisito matemático para tal. Em [7] pode ser encontrado um exemplo de função de dissimilaridade
que não satisfaz a desigualdade triangular, não sendo portanto uma distância. Em [14], são
discutidas técnicas de geração de grafos a partir de matrizes de similaridade.
A matriz de gradação de um grafo é a matriz diagonal D, definida como [14]:
D = [dii ] =
n
X
wij
(7)
j=1
. No caso de grafos sem peso, wij pode ser substituı́do por aij .
Definidas as matrizes A, W e D, pode-se definir a Matriz Laplaciana L de um grafo como:
L = D − W,
(8)
podendo W ser substituı́da por A, no caso de grafos sem peso [14].
O autovetor u2, associado ao menor autovalor λ2 de L, conhecido na literatura como Vetor
de Flieder, tem importantes aplicações no particionamento de grafos, fornecendo heurı́sticas
para soluções de problemas NP-Completos através de relaxação.
Em [14], pode ser encontrada parte da base matemática que justifica a utilização do Vetor
de Flieder como solução para divisão de grafos em duas partições e generaliza o conceito, resumindo o problema de encontrar aproximações para o vetor que divide o grafo em k partições,
em encontrar os k autovetores associados aos k menores autovalores de L, para os algoritmos
RatioCut e Ncut.
Em [16] podem ser encontrados algoritmos computacionais baseados nas propriedades matemáticas discutidas em [14], entre outros, apresentando algoritmos para particionamento de
grafos baseados em autovetores da matriz Laplaciana.
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
Como exemplos de aplicações práticas de agrupamentos espectrais baseados em grafos,
podemos citar [8] , onde o particionamento espectral tendo como heurı́stica o Vetor de Flieder é
utilizado para agrupamento semântico de palavras da lı́ngua Inglesa, [5], que utiliza um modelo
similar de agrupamento espectral para segmentação de imagens e [7], que aprimora técnicas de
agrupamento de imagens de Magnetoencefalografia com o cálculo de dissimilaridades baseado
nos autovalores de uma matriz de covariância.
5.2 Máquinas de Vetor Suporte com Agrupamento Hierárquico
Uma máquina de vetor suporte ou SVM é uma classificador automático baseado na teoria de
aprendizado estatı́stico. Sendo inicialmente proposto como um classificador binário, uma SVM
tem por objetivo construir um hiperplano linear que separe os dados em dois grupos, cada um ao
lado de uma face do hiperplano. Quando no espaço de entrada estes dados não são linearmente
separáveis, os dados são levados a um espaço, chamado de espaço de caracterı́stica, de dimensão
maior, onde podem ser separados por um hiperplano linear [11]. Devido à complexidade de
generalização desta abordagem para vários grupos ou classes, é comum a utilização de vários
classificadores binários, que combinados são capazes de separar dados em várias classes [4].
Um grupo de algoritmos, conhecido por BHDT (Binary Hierarquical Decision Trees) é utilizado na classificação de dados em várias classes, através da classificação recursiva binária dos
dados. Em [4] é utilizado um algoritmo Ncut, baseado no Vetor de Flieder, para agrupamento
inicial dos dados em dois grupos distintos de modo a aprimorar a convergência da SVM.
6.
Análise de Componentes Principais
A Análise de Componentes Principais (PCA) se trata de um dos métodos multivariados
mais simples, onde o objetivo principal é encontrar a combinação de n variáveis para produzir
n ı́ndices. Essa combinação transformará um conjunto de variáveis originais correlacionadas
em um novo conjunto de variáveis não-correlacionadas, contendo o mesmo número de componentes. Ou seja, tendo X1 , X2 , . . . , Xn existe a possibilidade de encontrar uma combinação
dessas variáveis para produzir ı́ndices Z1 , Z2 , . . . , Zn , que sejam não relacionados na ordem de
sua importância e que descreva a variação nos dados. Os ı́ndices Z citados, são os componentes
principais encontrados a partir da não correlação dos componentes X.
A PCA é uma análise desejável em fenômenos de muitas variáveis, sendo bastante útil em
reconhecimento de padrões, onde identificando os padrões dos dados, pode-se expressá-los de
uma maneira que as semelhanças e diferenças possam ser destacadas. Uma vez encontrados
esses padrões, suas dimensões podem ser reduzidas sem perder informações relevantes. Tal
procedimento pode ser importante em campos como compreensão de imagens ou redução de
dados.
Em uma análise de componentes principais, existirá como entrada n variáveis para m indivı́duos. Como variáveis, terá X1 , X2 , . . . , Xn , podendo então criar os componentes a partir
de uma combinação linear das variáveis oferecidas da seguinte forma[6]:
Z1 = a11 X1 + a12 X2 + . . . + a1n Xn .
(9)
Dessa forma, existirá uma variância de Z1 (V ar(Z1 )) tão grande quanto possı́vel, mas que
obedeça a restrição estabelecida abaixo:
a211 + a212 + . . . + a21n = 1
(10)
De modo análogo para as demais variáveis:
Z2 = a21 X1 + a22 X2 + . . . + a2n Xn
(11)
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
Z3 = a31 X1 + a32 X2 + . . . + a3n Xn
(12)
Obedecendo as restrições abaixo:
a221 + a222 + . . . + a22n = 1
(13)
a231 + a232 + . . . + a23n = 1
(14)
Outra restrição que deve ser obedecida é que para (V ar(Z2 )), os ı́ndices Z1 e Z2 não
poderão ter correlação entre os dados. E para (V ar(Z3 )), os ı́ndices Z1 , Z2 e Z3 não poderão
ter correlação com os dados. As restrições seguem de modo análogo para os demais ı́ndices.
Como a variância do primeiro elemento será a maior se comparado aos demais, existirá então a
seguinte relação[6]:
V ar(Z1 ) ≥ V ar(Z2 ) ≥ V ar(Z3 ) . . . ≥ V ar(Zn )
(15)
Para se usar os resultados de uma análise de componentes principais não existe a necessidade de saber como as equações são obtidas, mas deve-se entender a natureza das equações.
Os resultados de uma análise dos componentes principais são obtidos a partir de uma análise
que consiste encontrar os autovalores de uma matriz de covariância amostral. A matriz de covariância C será uma matriz simétrica, ou seja, aij = aji e tem a seguinte forma[19]:


a11 . . . a1n

.. 
(16)
A =  ... . . .
. 
an1 . . . ann
Na matriz, os elementos aii são as variâncias de Xi e são os autovalores da matriz, podendo
até ser 0 mas não poderão ser negativos. Os termos fora da diagonal aij são a covariância entre
as variáveis Xi e Xj .
A partir daı́, os passos para uma análise de componentes principais poderão então serem
estabelecidos da seguinte forma [6]:
• Codificar as variáveis Xn para terem média 0 e variância unitária.
• Calcular a matriz de covariância.
• Encontrar os autovalores e os correspondentes autovetores.
• Descartar os componentes que explicam as variações dos dados de forma particular. Ou
seja, em um dado de 10 variáveis, os 4 primeiros termos podem explicar 90% da variância
total. Nesse caso os demais dados poderão ser descartados.
Como exemplos de aplicações de PCA temos a análise de perfil hidrogeológico com base
na análise de componentes quı́micos da água [15], compressão imagens [19] e a análise de
diversidade de população de peixes em diferentes conformações de corais de recifes [22].
7.
Considerações Finais
No presente trabalho, foram apresentadas as definições de autovetores e autovalores e importantes propriedades matemáticas dos mesmos, em conjunto com aplicações em modelagem
computacional. Diante da grande variedade de aplicações existentes de autovetores e autovalores em vários outros modelos e métodos matemáticos, a exemplo métodos para soluções de
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
equações diferenciais e em análise de Fourier, é pertinente a realização de pesquisas mais amplas a respeito do tema. Neste aspecto, este trabalho pode ser utilizado como base inicial para
estudo de aplicações de autovalores e autovetores, assim como motivação para pesquisas em
torno dos mesmos.
Possuindo grande valor do ponto de vista de fundamentação teórica, autovetores e autovalores não são comumente usados diretamente, mas constituem parte de modelos com várias
aplicações a exemplo, os métodos de agrupamento e PCA, que fazem parte de um número significativo de análises estatı́sticas de trabalhos cientı́ficos. Da mesma forma, o teorema espectral
e o raio espectral podem oferecer parâmetros importantes para análise e melhoria de algoritmos
numéricos envolvendo matrizes e as aproximações de raı́zes de polinômios podem surgir como
demanda em grande parte de problemas envolvendo interpolação.
Uma vez observadas as aplicações de modelos baseados em autovalores e autovetores na
resolução de vários problemas, somados às aplicações conhecidas de outros tópicos da Álgebra
Linear aplicada em soluções computacionais, podemos observar que a compreensão da Álgebra
Linear não só em sua essência teórica, mas de seu uso na construção e utilização de ferramentas
para solução de problemas que podem ser modelados através de espaços vetoriais é de grande
importância para estudantes e pesquisadores, principalmente das áreas exatas e de engenharia,
permitindo a compreensão destes modelos e melhor análise dos resultados obtidos por eles.
Desta forma, sugerimos como trabalho futuro o estudo do ensino de Álgebra Linear Aplicada em cursos de graduação e pós-graduação, principalmente nas áreas de engenharias e
exatas, observando a ênfase dada à compreensão de modelos aplicados e utilização de ferramentas computacionais. Os resultados obtidos de tal análise, podem ser somados à análise da
contribuição da disciplina dentro do perfil proposto por seus cursos.
REFERÊNCIAS
[1] Sheldon Axler. Linear Algebra Done Right, Second Edition. Springer US, New York, 2
edition, 1997.
[2] Richard L. Burden and J. Douglas Faires. Análise Numérica. Cengage Learning, São
Paulo, 2 edition, 2011.
[3] Frederico Ferreira Campos Filho. Algoritmos numéricos. LTC, Rio de Janeiro, 2 edition,
2010.
[4] Hakan Cevikalp. New clustering algorithms for the support vector machine based hierarchical classification. Pattern Recognition Letters, 31(11):1285–1291, August 2010.
[5] Weifu Chen and Guocan Feng. Spectral clustering: A semi-supervised approach. Neurocomputing, 77(1):229–242, February 2012.
[6] WO de Araujo and CJ Coelho. Análise de componentes principais (PCA). Technical
report, UniEvangélica, 2009.
[7] Alfonso de Hoyos, Javier Portillo, Pilar Marı́n, F Maestú, J Lafuente M, and Antonio
Hernando. Clustering strategies for optimal trial selection in multisensor environments.
An eigenvector based approach. Journal of neuroscience methods, 222:1–14, January
2014.
[8] Lars Eldén, Magnus Merkel, Lars Ahrenberg, and Martin Fagerlund. Computing Semantic
Clusters by Semantic Mirroring and Spectral Graph Partitioning. Mathematics in Computer Science, 7(3):293–313, September 2013.
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
[9] Katrijn Frederix and Marc Van Barel. Sparse spectral clustering method based on the incomplete Cholesky decomposition. Journal of Computational and Applied Mathematics,
237(1):145–161, January 2013.
[10] T Hawkins. Cauchy and the spectral theory of matrices. Historia Mathematica, 2, 1975.
[11] Vojislav Kecman. Learning and Soft Computing Support Vector Machines, Neural
Networks and Fuzzy Logic Models. The MIT Press, Cambridge, 2001.
[12] Terry Lawson. Álgebra Linear. Edgard Blücher, São Paulo, 1997.
[13] Elon Lages Lima. Álgebra Linear. IMPA, Rio de Janeiro, 8 edition, 2009.
[14] Ulrike Luxburg. A tutorial on spectral clustering. Statistics and Computing, 17(4):395–
416, August 2007.
[15] Arthur Nanni, Ari Roisenberg, Jandyra M G Fachel, Gilberto Mesquita, and Cristiano
Danieli. Fluoride characterization by principal component analysis in the hydrochemical
facies of Serra Geral Aquifer System in Southern Brazil. Anais da Academia Brasileira
de Ciências, 80(4):693–701, December 2008.
[16] Mariá C.V. Nascimento and André C.P.L.F. de Carvalho. Spectral methods for graph
clustering – A survey. European Journal of Operational Research, 211(2):221–231, June
2011.
[17] William H. Press, Saul A. Teukolsky, William T. Vetterling, and Brian P. Flannery. Numerical Recipies: the art of scientific computing. Cambridge University Press, Cambridge,
2007.
[18] Petronilio Pulino. Álgebra Linear e suas Aplicações: Notas de Aula, 2012.
[19] Rafael do Espı́rito Santo. Utilização da Análise de Componentes Principais na compressão
de imagens digitais. Einstein, 10(11):135–139, 2012.
[20] T Soni Madhulatha. Graph Partitioning Advance Clustering Technique. International
Journal of Computer Science & Engineering Survey, 3(1):91–104, February 2012.
[21] Gilbert Strang. Álgebra Linear e suas Aplicações. Cengage Learning, São Paulo, 2013.
[22] Carmen Amelia Villegas-Sánchez, Leonardo Andrés Abitia-Cárdena, Francisco Javier
Gutiérrez-Sánch, and Felipe Galván-Magaña. Rocky-reef fish assemblages at San José
Island, Mexico: Asociaciones de peces de arrecifes rocosos en Isla San José, México.
Revista Mexicana de Biodiversidade, 80:169–179, 2009.
Eigenvalues and Eigenvectors Applications in Computational Modelling
Abstract. Linear maps are very important tools on the modelling of unknown or complex problems into analogues in similar vectorial spaces. Thus, this maps have direct applications in
everyday problems beyond furnishes theoretical foundation for developing other methods for
solving specific problems. The eigenvectors of a linear map individually generate basis for invariant subspaces, providing alternatives for reducing complexity for solving some problems.
XVII Encontro de Modelagem Computacional
V Encontro Ciência e Tecnologia de Materiais
Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014
With the concept of eigenvalues and eigenvectors of a linear map, emerges the concept of eigenvalues and eigenvector of matrices, wich has applications in other areas, such as bilinear
forms and graph theory. In this paper are presented general concepts around eigenvalues and
eigenvectors and their applications.
Keywords: Eigenvalues, Eigenvectors, Linear Algebra, Computational Modelling
Download

267 - Programa de Pós-Graduação em Modelagem Computacional