XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 Aplicações de Autovalores e Autovetores em Modelagem Computacional Jorge Farias Herculano- [email protected] Diogo Pereira Silva de Novais- [email protected] Paulo Oliveira Paixão- [email protected] Tadeu Nogueira Costa de Andrade- [email protected] Francisco Bruno Souza Oliveira - [email protected] Programa de Pós-Graduação em Modelagem Computacional em Ciência e Tecnologia - PPGMC Universidade Estadual de Santa Cruz - UESC Campus Soane Nazaré de Andrade, Rodovia Jorge Amado, Km 16, Bairro Salobrinho CEP 45662-900 - Ilheús-Bahia, Brasil Resumo. Transformações Lineares são ferramentas de grande importância na modelagem de problemas desconhecidos ou complexos em análogos de espaços vetoriais similares. Por este fato, estas transformações possuem aplicações diretas na modelagem de problemas do cotidiano além de fornecerem fundamentação teórica para construção de outros métodos para resolução de problemas especı́ficos. Os autovetores de uma transformação linear formam individualmente bases de subespaços invariantes unidimensionais, fornecendo alternativas para redução de complexidade na solução de problemas. Junto ao conceito de autovalores e autovetores de uma transformação linear em um espaço de dimensão finita, vem o conceito de autovalores e autovetores de matrizes, que possuem aplicações em outros estudos como formas bilineares e teorias dos grafos. Neste trabalho são apresentados conceitos gerais sobre autovalores e autovetores e aplicações em modelagem computacional. Palavras-chave: Autovalores, Autovetores, Álgebra Linear, Modelagem Computacional 1. Introdução As Transformações Lineares são ferramentas importantes na solução de problemas matemáticos, principalmente aplicados, permitindo que um problema seja mapeado para um equivalente em outro espaço, onde a teoria necessária para solução é desenvolvida ou mais prática. Em espaços finitos, a aplicação de uma transformação linear envolve a multiplicação de matrizes. No entanto, o estudo de autovalores e autovetores pode permitir que esta multiplicação seja substituı́da pela multiplicação por apenas um escalar, reduzindo significativamente o custo computacional do problema. Da mesma forma, na análise estatı́stica multivariada e no reconhecimento de padrões, o estudo de autovalores permite a redução de dimensões do problema (consequentemente seu custo de análise), ampliando a clareza da análise dos dados. Formalmente, dado um espaço vetorial real V e uma transformação linear T em V , temos que λ é um autovalor de T se existe um vetor não nulo u ∈ V , tal que T (u) = λu. O vetor u, neste caso é chamado de autovetor correspondente a λ [1]. Como uma vez fornecida uma base ordenada finita B para V , é possı́vel construir uma matriz M de T em relação a B, muitos trabalhos discutem propriedades de autovalores e autovalores em relação a matrizes, aproximando-os da abordagem da álgebra linear computacional, XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 sem perca de generalidade em espaços finitos. Neste caso, a aplicação da transformação linear resume-se ao produto do vetor por uma matriz, valendo a seguinte relação [13]: T (v) ≡ Mv (1) Matematicamente, pode se visualizar cada autovetor de uma transformação linear como uma base para um subespaço invariante de V em relação ao operador T . Em outras palavras seja u1 um vetor qualquer do espaço U gerado por {u}, T (u1) ∈ U [1]. O estudo de subespaços invariantes com base em autovetores possui aplicações em diversas áreas das ciência, principalmente em matemática e fı́sica, pois se um espaço puder ser decomposto como a soma direta de subespaços invariantes, o estudo destes espaços de dimensão menor, permite a compreensão do comportamento do espaço em relação a uma transformação linear. A equação de autovalores é dada por Ax = λx. Pode-se observar que Ax = λx é uma equação não linear, portanto podemos apresentar λIx em vez de λx e trazer estes termos para o lado esquerdo da equação e obter (A − λI)x = 0. Para ter alguma utilidade, o espaço nulo de (A − λI) deve conter vetores diferentes de zero, ou seja, (A − λI) deve ser singular. Para isso o determinante fornece o teste conclusivo, ou seja, se o det|A − λI| = 0. Dessa forma é possı́vel encontrar os valores de λ[21]. Para matrizes quadradas de ordem 2 e 3 e 4 encontrar os autovalores e os autovetores analiticamente pode ser uma tarefa fácil. No entanto, quando a ordem dessas matrizes é maior ou igual a 4, as soluções analı́ticas se tornam inviáveis. Para resolver problemas dessa ordem em [17] pode se encontrar métodos numéricos para calcular todos os autovalores e autovetores de uma matriz. Sendo da própria natureza da Álgebra Linear o estudo de espaços vetoriais de forma abstrata e generalizada, são muitas as possı́veis aplicações de autovetores e autovalores, principalmente na formalização teórica de modelos aplicados. Afim de delimitar o escopo deste trabalho, nele são discutidas importantes aplicações de autovalores e autovetores em problemas de Modelagem Computacional. A seção 2., apresenta o teorema espectral que fundamenta a diagonalização de transformações lineares através de autovalores, a seção 3. discute a utilização de autovalores no estudo de convergência de métodos de resolução de Sistemas de Equações Lineares Algébricas (SELAS), a seção 4. mostra a redução do problema do cálculo de raı́zes de um polinômio a um problema de autovalores, a seção 5. apresenta o uso de autovalores como heurı́stica para problemas NPCompletos em técnicas de agrupamento e a seção 6., relaciona autovetores à teoria estatı́stica de Análise de Componentes Principais. 2. Teorema Espectral O Teorema Espectral, como uma coerente teoria matemática, foi criado no perı́odo de 1826 a 1876 como uma teoria de substituições lineares e formas bilineares. Este trabalho foi iniciado por Augustin Cauchy em um jornal periódico no qual provou que os autovalores de uma matriz simétrica são reais e que a forma quadrática correspondente pode ser transformada em uma soma de termos quadrados (isto é, diagonalizada) por meio de uma substituição ortogonal , ou seja, uma transformação linear [10]. Teorema 1 (Teorema Espectral). Seja A ∈ Mn (C) uma matriz Hermitiana. Então, então existe uma matriz unitária U ∈ Mn (R) e uma matriz diagonal D ∈ Mn (R) tais que U ∗ AU = D. Além disso, as colunas da matriz U são os autovetores de A e os elementos da diagonal e os elementos da diagonal de D são os autovalores de A [18]. O Teorema espectral pode ser aplicado em operadores auto-adjuntos ou mais genericamente a operadores normais em espaços de Hilbert. Outras aplicações do teorema podem ser XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 encontradas em formas quadráticas, aplicação em geometria, quadráticas em três dimensões e aplicações ao cálculo (máximos e mı́nimos)[12]. 3. Estudo de Convergência de Métodos Numéricos para Resolução de SELAS Um uso importante para os autovalores é no estudo de convergência de métodos iterativos para resolução de sistemas lineares. Para tanto, é necessário saber o conceito de raio espectral. Por definição o raio espectral ρ(A) de uma matriz A é definido por: ρ(A) = max|λ|, (2) em que λ é um autovalor de A [2]. Com base no conceito de raio espectral é discutido a convergência dos métodos de Jacobi e Gauss-Seidel para resolução de sistemas lineares. Um método iterativo convergirá para qualquer valor inicial x0 , se e somente se, ρ(M) < 1, sendo ρ(M) o raio espectral da matriz de iteração M. Em cada método interativo (Jacobi e Gauss-Sidel) é construı́da uma matriz de iteração. A matriz de iteração para o método de Jacobi para uma matriz A é dada por J = −D −1 (E + F ), onde D é a matriz do elementos da diagonal, E é composta pelos elementos abaixo da diagonal e F pelos elementos acima da diagonal. Para o método de Gauss-Sidel a matriz de iteração é S = −(D + E)−1 F . Segundo [3] se ρ(J) > 1 e ρ(S) < 1 o método de Jacobi não irá convergir e o de GaussSidel convergirá. Se ρ(J) < 1 e ρ(S) > 1 o método de Jacobi irá convergir e o de Gauss-Sidel não irá. Dessa forma, com a utilização dos autovalores para a determinação do raio espectral da matriz nos permite avaliar a convergência dos métodos interativos. 4. Cálculo Numérico de Raı́zes de Polinômios Através de Autovalores Um polinômio P (x) de grau n é uma função com domı́nio e imagem em um conjunto C ou R dado na forma: p(x) = n X ai xi (3) i=0 onde n ∈ N e a0 , . . . , an são constantes chamadas de coeficientes. O grau de uma função polinomial indica a quantidade de raı́zes dessa função. Vários métodos como o Newton-Raphson, falsa posição, secante, bisseção tem sido usados para encontrar raı́zes. Alguns métodos requerem a definição de um intervalo onde se encontra a raiz, outros são feitos por aproximações sucessivas a partir de um valor inicial. Separar as raı́zes de uma equação polinomial consiste em encontrar uma sequência de subintervalos distintos tais que cada subintervalo contenha exatamente uma raiz real e que cada raiz esteja num subintervalo. A inexistência de uma fórmula finita para cálculo de raı́zes de um polinômio com grau n > 5 depende da utilização desses métodos iterativos para encontrar as raı́zes. A determinação de todas as raı́zes de um polinômio tem complexidade alta à medida que aumenta o grau do polinômio. Um método eficiente para encontrar raı́zes reais pode ser ineficaz quando se trata de raı́zes complexas. Press [17] apresenta uma técnica alternativa para encontrar as raı́zes reais ou complexas de um polinômio qualquer através do cálculo dos autovalores da matriz de Hessenberg que possui custo computacional de ordem O(n2 ) ao invés de O(n3 ) como em outras matrizes não simétricas. XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 Algoritmos para calcular autovalores de matrizes simétricas são satisfatórios, por outro lado, não existem algoritmos igualmente satisfatórios para todas matrizes não simétricas por duas razões: primeiro, pelo fato de seus autovalores serem sensı́veis a pequenas mudanças nos elementos da matriz; segundo, a matriz pode ser mal formada, não podendo ter um conjunto completo de autovetores. A matriz de Hessenberg é uma matriz superior composta de zeros abaixo da primeira linha da subdiagonal. A matriz M definida abaixo é um exemplo de uma matriz de Hessenberg: a11 a12 a21 a22 0 a32 A= 0 0 0 0 0 0 a13 a23 a33 a43 0 0 a14 a24 a34 a44 a54 0 a15 a25 a35 a45 a55 a65 a16 a26 a36 a46 a56 a66 (4) 4.1 Geração da Matriz de Hessemberg a partir de um Polinômio Dado um polinômio qualquer de grau m, pode ser demonstrado que suas raı́zes coincidem com os autovalores da matriz A definida a partir de seus coeficientes conforme abaixo: − amam−1 − amam−2 1 0 0 1 A= .. .. . . 0 0 . . . − aam1 − aam0 ... 0 0 ... 0 0 .. .. .. . . . ... 1 0 (5) Após a geração da matriz a partir do polinômio, seus autovalores reais ou complexos podem ser obtidos através de métodos numéricos para aproximação de autovalores de matrizes de Hessemberg [17]. Apesar da convergência mais lenta do método, todas as raı́zes do polinômio são encontradas, podendo ser uma boa alternativa se métodos mais eficientes divergirem ou convergirem lentamente, principalmente quando algumas raı́zes do polinômio em questão forem complexas. 5. Agrupamentos Espectrais Baseados em Grafos Possuindo aplicações em diversas áreas, o agrupamento é uma técnica amplamente utilizadas na análise de dados empı́ricos, de modo a relacionar dados, onde geralmente as classes as quais pertencem não estão bem definidas ou não existem inicialmente [14, 20]. A principal ideia acerca das técnicas de agrupamento é a separação dos dados amostrais de modo que os elementos de um mesmo agrupamento sejam mais similares entre si que em relação a elementos de outros grupos [16, 5]. O problema de agrupamento pode ser reduzido à maximização da similaridade entre elementos de um mesmo grupo e minimização de similaridade entre elementos de grupos distintos. A relação inversa pode ser pensada se for tomada a dissimilaridade como parâmetro de comparação. Conforme a abordagem utilizada, os algoritmos de agrupamento podem ser divididos em hierárquicos ou de particionamento. Em agrupamentos hierárquicos, os grupos são subdivididos ou indivı́duos aglomerados, e o algoritmo é reaplicado nas subdivisões até que seja atingido um número de grupos ou grau de (dis)similaridade desejado. Já no particionamento, são criados grupos e indivı́duos são movidos de um grupo para o outro até que se satisfaça um critério de parada [16]. XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 Entre as técnicas de agrupamento utilizadas, o agrupamento espectral através de grafos tem ganhado expressividade em pesquisas recentes, no qual matrizes de similaridade são representadas através de grafos e através do particionamento espectral pode-se obter uma solução do problema de agrupamento, reduzindo-o a um problema de autovetores através de relaxação do problema original que é NP-Completo [8, 9]. Grande parte das propriedades de autovetores e autovalores associados a um grafo, estão relacionados à Matriz Laplaciana do mesmo. 5.1 Matrizes Laplacianas e o Vetor de Flieder Um grafo G pode ser visto como um conjunto G = (V, E), onde V é um conjunto não vazio de vértices (ou nós) e E um conjunto de arestas, que relaciona os vértices de V . Cada elemento de E é um par (vi , vj ), onde vi , vj ∈ V [16]. Caso os elementos de V sejam pares ordenados, o grafo é chamado grafo direcionado, caso contrário é chamado não direcionado. Neste tópico serão considerados apenas grafos não direcionados. A matriz A de adjacência de um grafo pode ser definida como [16]: ( 1, se está vi conectado a vj (6) A = [aij ] = 0, caso contrário de modo que em um grafo não direcionado, A é uma matriz simétrica. No caso de um grafo com pesos, o grafo pode ser representada por uma matriz de pesos W = [wij ], onde wij representa o peso da aresta entre vi e vj , ou 0 caso não estejam conectados. Em problemas que não estão naturalmente definidos através de grafos, pode-se construir grafos através de matrizes de similaridades, por exemplo, utilizando a similaridade como parâmetro para o peso da ligação entre dois vértices [16]. É comum na literatura ser utilizada alguma distância (principalmente Euclidiana) como função de similaridade, apesar de não haver requisito matemático para tal. Em [7] pode ser encontrado um exemplo de função de dissimilaridade que não satisfaz a desigualdade triangular, não sendo portanto uma distância. Em [14], são discutidas técnicas de geração de grafos a partir de matrizes de similaridade. A matriz de gradação de um grafo é a matriz diagonal D, definida como [14]: D = [dii ] = n X wij (7) j=1 . No caso de grafos sem peso, wij pode ser substituı́do por aij . Definidas as matrizes A, W e D, pode-se definir a Matriz Laplaciana L de um grafo como: L = D − W, (8) podendo W ser substituı́da por A, no caso de grafos sem peso [14]. O autovetor u2, associado ao menor autovalor λ2 de L, conhecido na literatura como Vetor de Flieder, tem importantes aplicações no particionamento de grafos, fornecendo heurı́sticas para soluções de problemas NP-Completos através de relaxação. Em [14], pode ser encontrada parte da base matemática que justifica a utilização do Vetor de Flieder como solução para divisão de grafos em duas partições e generaliza o conceito, resumindo o problema de encontrar aproximações para o vetor que divide o grafo em k partições, em encontrar os k autovetores associados aos k menores autovalores de L, para os algoritmos RatioCut e Ncut. Em [16] podem ser encontrados algoritmos computacionais baseados nas propriedades matemáticas discutidas em [14], entre outros, apresentando algoritmos para particionamento de grafos baseados em autovetores da matriz Laplaciana. XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 Como exemplos de aplicações práticas de agrupamentos espectrais baseados em grafos, podemos citar [8] , onde o particionamento espectral tendo como heurı́stica o Vetor de Flieder é utilizado para agrupamento semântico de palavras da lı́ngua Inglesa, [5], que utiliza um modelo similar de agrupamento espectral para segmentação de imagens e [7], que aprimora técnicas de agrupamento de imagens de Magnetoencefalografia com o cálculo de dissimilaridades baseado nos autovalores de uma matriz de covariância. 5.2 Máquinas de Vetor Suporte com Agrupamento Hierárquico Uma máquina de vetor suporte ou SVM é uma classificador automático baseado na teoria de aprendizado estatı́stico. Sendo inicialmente proposto como um classificador binário, uma SVM tem por objetivo construir um hiperplano linear que separe os dados em dois grupos, cada um ao lado de uma face do hiperplano. Quando no espaço de entrada estes dados não são linearmente separáveis, os dados são levados a um espaço, chamado de espaço de caracterı́stica, de dimensão maior, onde podem ser separados por um hiperplano linear [11]. Devido à complexidade de generalização desta abordagem para vários grupos ou classes, é comum a utilização de vários classificadores binários, que combinados são capazes de separar dados em várias classes [4]. Um grupo de algoritmos, conhecido por BHDT (Binary Hierarquical Decision Trees) é utilizado na classificação de dados em várias classes, através da classificação recursiva binária dos dados. Em [4] é utilizado um algoritmo Ncut, baseado no Vetor de Flieder, para agrupamento inicial dos dados em dois grupos distintos de modo a aprimorar a convergência da SVM. 6. Análise de Componentes Principais A Análise de Componentes Principais (PCA) se trata de um dos métodos multivariados mais simples, onde o objetivo principal é encontrar a combinação de n variáveis para produzir n ı́ndices. Essa combinação transformará um conjunto de variáveis originais correlacionadas em um novo conjunto de variáveis não-correlacionadas, contendo o mesmo número de componentes. Ou seja, tendo X1 , X2 , . . . , Xn existe a possibilidade de encontrar uma combinação dessas variáveis para produzir ı́ndices Z1 , Z2 , . . . , Zn , que sejam não relacionados na ordem de sua importância e que descreva a variação nos dados. Os ı́ndices Z citados, são os componentes principais encontrados a partir da não correlação dos componentes X. A PCA é uma análise desejável em fenômenos de muitas variáveis, sendo bastante útil em reconhecimento de padrões, onde identificando os padrões dos dados, pode-se expressá-los de uma maneira que as semelhanças e diferenças possam ser destacadas. Uma vez encontrados esses padrões, suas dimensões podem ser reduzidas sem perder informações relevantes. Tal procedimento pode ser importante em campos como compreensão de imagens ou redução de dados. Em uma análise de componentes principais, existirá como entrada n variáveis para m indivı́duos. Como variáveis, terá X1 , X2 , . . . , Xn , podendo então criar os componentes a partir de uma combinação linear das variáveis oferecidas da seguinte forma[6]: Z1 = a11 X1 + a12 X2 + . . . + a1n Xn . (9) Dessa forma, existirá uma variância de Z1 (V ar(Z1 )) tão grande quanto possı́vel, mas que obedeça a restrição estabelecida abaixo: a211 + a212 + . . . + a21n = 1 (10) De modo análogo para as demais variáveis: Z2 = a21 X1 + a22 X2 + . . . + a2n Xn (11) XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 Z3 = a31 X1 + a32 X2 + . . . + a3n Xn (12) Obedecendo as restrições abaixo: a221 + a222 + . . . + a22n = 1 (13) a231 + a232 + . . . + a23n = 1 (14) Outra restrição que deve ser obedecida é que para (V ar(Z2 )), os ı́ndices Z1 e Z2 não poderão ter correlação entre os dados. E para (V ar(Z3 )), os ı́ndices Z1 , Z2 e Z3 não poderão ter correlação com os dados. As restrições seguem de modo análogo para os demais ı́ndices. Como a variância do primeiro elemento será a maior se comparado aos demais, existirá então a seguinte relação[6]: V ar(Z1 ) ≥ V ar(Z2 ) ≥ V ar(Z3 ) . . . ≥ V ar(Zn ) (15) Para se usar os resultados de uma análise de componentes principais não existe a necessidade de saber como as equações são obtidas, mas deve-se entender a natureza das equações. Os resultados de uma análise dos componentes principais são obtidos a partir de uma análise que consiste encontrar os autovalores de uma matriz de covariância amostral. A matriz de covariância C será uma matriz simétrica, ou seja, aij = aji e tem a seguinte forma[19]: a11 . . . a1n .. (16) A = ... . . . . an1 . . . ann Na matriz, os elementos aii são as variâncias de Xi e são os autovalores da matriz, podendo até ser 0 mas não poderão ser negativos. Os termos fora da diagonal aij são a covariância entre as variáveis Xi e Xj . A partir daı́, os passos para uma análise de componentes principais poderão então serem estabelecidos da seguinte forma [6]: • Codificar as variáveis Xn para terem média 0 e variância unitária. • Calcular a matriz de covariância. • Encontrar os autovalores e os correspondentes autovetores. • Descartar os componentes que explicam as variações dos dados de forma particular. Ou seja, em um dado de 10 variáveis, os 4 primeiros termos podem explicar 90% da variância total. Nesse caso os demais dados poderão ser descartados. Como exemplos de aplicações de PCA temos a análise de perfil hidrogeológico com base na análise de componentes quı́micos da água [15], compressão imagens [19] e a análise de diversidade de população de peixes em diferentes conformações de corais de recifes [22]. 7. Considerações Finais No presente trabalho, foram apresentadas as definições de autovetores e autovalores e importantes propriedades matemáticas dos mesmos, em conjunto com aplicações em modelagem computacional. Diante da grande variedade de aplicações existentes de autovetores e autovalores em vários outros modelos e métodos matemáticos, a exemplo métodos para soluções de XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 equações diferenciais e em análise de Fourier, é pertinente a realização de pesquisas mais amplas a respeito do tema. Neste aspecto, este trabalho pode ser utilizado como base inicial para estudo de aplicações de autovalores e autovetores, assim como motivação para pesquisas em torno dos mesmos. Possuindo grande valor do ponto de vista de fundamentação teórica, autovetores e autovalores não são comumente usados diretamente, mas constituem parte de modelos com várias aplicações a exemplo, os métodos de agrupamento e PCA, que fazem parte de um número significativo de análises estatı́sticas de trabalhos cientı́ficos. Da mesma forma, o teorema espectral e o raio espectral podem oferecer parâmetros importantes para análise e melhoria de algoritmos numéricos envolvendo matrizes e as aproximações de raı́zes de polinômios podem surgir como demanda em grande parte de problemas envolvendo interpolação. Uma vez observadas as aplicações de modelos baseados em autovalores e autovetores na resolução de vários problemas, somados às aplicações conhecidas de outros tópicos da Álgebra Linear aplicada em soluções computacionais, podemos observar que a compreensão da Álgebra Linear não só em sua essência teórica, mas de seu uso na construção e utilização de ferramentas para solução de problemas que podem ser modelados através de espaços vetoriais é de grande importância para estudantes e pesquisadores, principalmente das áreas exatas e de engenharia, permitindo a compreensão destes modelos e melhor análise dos resultados obtidos por eles. Desta forma, sugerimos como trabalho futuro o estudo do ensino de Álgebra Linear Aplicada em cursos de graduação e pós-graduação, principalmente nas áreas de engenharias e exatas, observando a ênfase dada à compreensão de modelos aplicados e utilização de ferramentas computacionais. Os resultados obtidos de tal análise, podem ser somados à análise da contribuição da disciplina dentro do perfil proposto por seus cursos. REFERÊNCIAS [1] Sheldon Axler. Linear Algebra Done Right, Second Edition. Springer US, New York, 2 edition, 1997. [2] Richard L. Burden and J. Douglas Faires. Análise Numérica. Cengage Learning, São Paulo, 2 edition, 2011. [3] Frederico Ferreira Campos Filho. Algoritmos numéricos. LTC, Rio de Janeiro, 2 edition, 2010. [4] Hakan Cevikalp. New clustering algorithms for the support vector machine based hierarchical classification. Pattern Recognition Letters, 31(11):1285–1291, August 2010. [5] Weifu Chen and Guocan Feng. Spectral clustering: A semi-supervised approach. Neurocomputing, 77(1):229–242, February 2012. [6] WO de Araujo and CJ Coelho. Análise de componentes principais (PCA). Technical report, UniEvangélica, 2009. [7] Alfonso de Hoyos, Javier Portillo, Pilar Marı́n, F Maestú, J Lafuente M, and Antonio Hernando. Clustering strategies for optimal trial selection in multisensor environments. An eigenvector based approach. Journal of neuroscience methods, 222:1–14, January 2014. [8] Lars Eldén, Magnus Merkel, Lars Ahrenberg, and Martin Fagerlund. Computing Semantic Clusters by Semantic Mirroring and Spectral Graph Partitioning. Mathematics in Computer Science, 7(3):293–313, September 2013. XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 [9] Katrijn Frederix and Marc Van Barel. Sparse spectral clustering method based on the incomplete Cholesky decomposition. Journal of Computational and Applied Mathematics, 237(1):145–161, January 2013. [10] T Hawkins. Cauchy and the spectral theory of matrices. Historia Mathematica, 2, 1975. [11] Vojislav Kecman. Learning and Soft Computing Support Vector Machines, Neural Networks and Fuzzy Logic Models. The MIT Press, Cambridge, 2001. [12] Terry Lawson. Álgebra Linear. Edgard Blücher, São Paulo, 1997. [13] Elon Lages Lima. Álgebra Linear. IMPA, Rio de Janeiro, 8 edition, 2009. [14] Ulrike Luxburg. A tutorial on spectral clustering. Statistics and Computing, 17(4):395– 416, August 2007. [15] Arthur Nanni, Ari Roisenberg, Jandyra M G Fachel, Gilberto Mesquita, and Cristiano Danieli. Fluoride characterization by principal component analysis in the hydrochemical facies of Serra Geral Aquifer System in Southern Brazil. Anais da Academia Brasileira de Ciências, 80(4):693–701, December 2008. [16] Mariá C.V. Nascimento and André C.P.L.F. de Carvalho. Spectral methods for graph clustering – A survey. European Journal of Operational Research, 211(2):221–231, June 2011. [17] William H. Press, Saul A. Teukolsky, William T. Vetterling, and Brian P. Flannery. Numerical Recipies: the art of scientific computing. Cambridge University Press, Cambridge, 2007. [18] Petronilio Pulino. Álgebra Linear e suas Aplicações: Notas de Aula, 2012. [19] Rafael do Espı́rito Santo. Utilização da Análise de Componentes Principais na compressão de imagens digitais. Einstein, 10(11):135–139, 2012. [20] T Soni Madhulatha. Graph Partitioning Advance Clustering Technique. International Journal of Computer Science & Engineering Survey, 3(1):91–104, February 2012. [21] Gilbert Strang. Álgebra Linear e suas Aplicações. Cengage Learning, São Paulo, 2013. [22] Carmen Amelia Villegas-Sánchez, Leonardo Andrés Abitia-Cárdena, Francisco Javier Gutiérrez-Sánch, and Felipe Galván-Magaña. Rocky-reef fish assemblages at San José Island, Mexico: Asociaciones de peces de arrecifes rocosos en Isla San José, México. Revista Mexicana de Biodiversidade, 80:169–179, 2009. Eigenvalues and Eigenvectors Applications in Computational Modelling Abstract. Linear maps are very important tools on the modelling of unknown or complex problems into analogues in similar vectorial spaces. Thus, this maps have direct applications in everyday problems beyond furnishes theoretical foundation for developing other methods for solving specific problems. The eigenvectors of a linear map individually generate basis for invariant subspaces, providing alternatives for reducing complexity for solving some problems. XVII Encontro de Modelagem Computacional V Encontro Ciência e Tecnologia de Materiais Universidade Católica de Petrópolis (UCP), Petrópolis/RJ, Brasil. 15-17 out. 2014 With the concept of eigenvalues and eigenvectors of a linear map, emerges the concept of eigenvalues and eigenvector of matrices, wich has applications in other areas, such as bilinear forms and graph theory. In this paper are presented general concepts around eigenvalues and eigenvectors and their applications. Keywords: Eigenvalues, Eigenvectors, Linear Algebra, Computational Modelling