Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul Câmpus Caxias do Sul CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES LINEARES DE R2 E R3 Trabalho de Conclusão de Curso Licenciatura em Matemática Érick Scopel Caxias do Sul 2014 ÉRICK SCOPEL CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES LINEARES DE R2 E R3 Trabalho de Conclusão de Curso apresentado como requisito parcial para obtenção do grau de Licenciado em Matemática, pelo Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul − Câmpus Caxias do Sul. Área de concentração: Matemática. Orientadores: Me. Nicolau Matiel Lunardi Diehl − IFRS. Me. Rodrigo Sychocki da Silva − IFRS. Caxias do Sul, Novembro de 2014. Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul, Câmpus Caxias do Sul. 51 S422c Scopel, Érick. Caracterização Geométrica de Operadores Lineares de R2 e R3 / Érick Scopel; orientadores, Nicolau Matiel Lunardi Diehl, Rodrigo Sychocki da Silva. Caxias do Sul, RS, 2014. 60 p. Trabalho de Conclusão de Curso (Graduação) - Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul, Câmpus Caxias do Sul. Graduação em Matemática. Inclui referências. Inclui lista de figuras. 1. Matemática. 2. Álgebra Linear. 3. Operadores Lineares. 4. Teoria de Jordan. I. Diehl, Nicolau Matiel Lunardi. II. Silva, Rodrigo Sychocki da. III. Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul. Graduação em Matemática. IV. Tı́tulo. Ficha catalográfica elaborada pela bibliotecária Jaçanã Pando CRB 10/1936. ÉRICK SCOPEL CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES LINEARES DE R2 E R3 A banca examinadora, abaixo assinada, aprova o Trabalho de Conclusão de Curso: Caracterização Geométrica de Operadores Lineares de R2 e R3 elaborado por Érick Scopel como requisito parcial para obtenção do grau de Licenciado em Matemática, pelo Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul − Câmpus Caxias do Sul. Prof. Dr. Diego Marcon Farias - UFRGS. Prof. Esp. Nı́colas Moro Müller - IFRS. Prof. Dr. Rene Carlos Cardoso Baltazar Junior - FURG. Caxias do Sul, 25 de Novembro de 2014. Agradecimentos Agradeço primeiramente aos meu orientadores Nicolau Matiel Lunardi Diehl e Rodrigo Sychocki da Silva pelos momentos oportunizados para criação deste trabalho onde, sem dúvida, aprendi muito mais do que essas páginas podem trazer. Além disso, agradeço pela compreenção e ajuda em todos momentos que tive dificuldades para condução deste trabalho. Também agradeço a todos os outros professores que, de alguma forma, tiveram participação deste projeto. Agradeço ao Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul - Câmpus Caxias do Sul pela oportunidade de cursar o curso de Licenciatura em Matemática onde, sem este, nunca teria feito tal trabalho. Também agradeço ao colega Lucas Dutra pela parceria e companherismo durante esses quatro anos. Agradeço a minha famı́lia pelo apoio em todos momentos em que estava estudando ou escrevendo este trabalho, em especial a minha namorada pela ajuda com a tradução do resumo e pela paciência e entendimento que este Trabalho de Conclusão de Curso (TCC) leva dias, domingos, sábados, finais de semana para ser escrito. Resumo O trabalho versa sobre uma caracterização geométrica de operadores lineares de R2 e R3 . Com a Teoria de Jordan aplicada a matrizes associadas aos operadores, pode-se caracterizar as transformações olhando para as matrizes quadradas de ordem dois, quando o operador for em R2 , e quadradas de ordem três quando for em R3 . É encontrada uma matriz de Jordan que seja equivalente a matriz associada ao operador e assim é dito como este operador se comporta em determinadas regiões. Com essa teoria escreve-se os operadores lineares de formas mais simples e assim os classifica em classes. Além disso, os operadores tem aplicações relevantes no estudo de Fractais, Deformações, Morfismos e Computação Gráfica. Na Computação Gráfica, por exemplo, a teoria de operadores é utilizada na manipulação de imagens que envolvem rotações, cisalhamentos , dilatação e compressão e alteração de cores, que são exemplos de transformações lineares. É comum encontrar nos livros de álgebra linear transformações dos tipos citados. Mas, a pergunta natural a se fazer é: “toda a transformação linear é desse tipo?”Este trabalho visa responder a esta pergunta, uma vez que os livros de álgebra linear descrevem estas transformações em capı́tulos iniciais e nos finais trazem a teoria de Jordan, porém, não a utilizam para responder diretamente a tal pergunta. Perceberemos neste trabalho, que os operadores lineares de R2 e R3 atuam como dilatações, compressões, cisalhamentos e rotações, quando olhamos para os vetores da base de Jordan. Palavras-chave: Operadores Lineares. Teoria de Jordan. Classes. Abstract The work concerns a geometric characterization of linear operators in R2 and R3 . With the Jordan’s Theory applied to the matrices associated to the operators, can be characterize the transformations looking to square matrices of order two when the operator is in R2 , and square of order three when in R3 . It is found an array of Jordan that is equivalent to the matrix associated to the operator and so is said like this operator behaves in certain regions. With this theory we write the linear operators the simpler forms and thus classify them into kinds. In addition, operators have relevant applications in the study of Fractals, Deformations, Morphisms and Computer Graphics. In Computer Graphics, for example, the theory is used in manipulation of image involving rotation, shearing, expansion and compression, and changing colors, which are examples of linear transformations. It is common to find in the books of linear algebra transformations of the types mentioned but the natural question to ask is: “all linear transformation is that? ”This work aims to answer this question, since the books of linear algebra describe these transformations in initial chapters and final chapters bring the theory of Jordan, but not use it to directly answer this question. We realize this work, the linear operators R2 and R3 act as expansion, compression, shear and rotation, when we look at the Jordan basis vectors. Keywords: Linear Operations. Jordan’s Theory. Kinds. Lista de Figuras 1 Dilatação dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . . 31 2 Dilatação da área delimitada pelos vetores v1 e v2 . . . . . . . . . . . . . . 32 3 Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). . . . . . . . . . . . . . . . 34 4 Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). . . . . . . . . . . . . . . . 34 5 Compressão dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . 35 6 Compressão da área delimitada pelos vetores v1 e v2 . . . . . . . . . . . . . 36 7 Contração dos vetores v1 = (−1, −1) e v2 = (2, 1). . . . . . . . . . . . . . . 37 8 Área delimitada pela compressão nos vetores v1 = (−1, −1) e v2 = (2, 1). . 37 9 Dilatação do vetor v1 e compressão do vetor v2 . . . . . . . . . . . . . . . . 38 10 Área da dilatação do vetor v1 e compressão do vetor v2 . . . . . . . . . . . . 38 11 Dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3). . . . . 39 12 Área delimitada pela dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 13 Dilatação de v2 e cisalhamento de v1 . . . . . . . . . . . . . . . . . . . . . . 41 14 Área delimitada pela dilatação de v2 e cisalhamento de v1 . . . . . . . . . . 41 15 Dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 = (1, 1). . . . . . 43 16 Área delimitada pelo dilatação no v2 = (3, −6) e cisalhamento do vetor v1 = (1, 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 17 Cisalhamento na direção v1 e contração na direção v2 . . . . . . . . . . . . . 45 18 Área delimitada pelo cisalhamento na direção v1 e contração na direção v2 . 19 Cisalhamento na direção v1 = (1, 1) e uma contração na direção v2 = ( 10 5 ) − 3 , − 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 20 Área delimitada pelo cisalhamento na direção v1 = (1, 1) e uma contração ( ) na direção v2 = − 10 , − 95 . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 3 21 Rotação dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 22 Área delimitada pela rotação dos vetores v1 e v2 . 23 Rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . . . . . . . . . . 49 24 Área delimitada pela rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . 45 . . . . . . . . . . . . . . 48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 25 Dilatação da área limitada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 26 Compressão da área limitada. . . . . . . . . . . . . . . . . . . . . . . . . . 51 Sumário 1 Introdução 9 2 Metodologia 11 3 Embasamento Histórico 13 4 Teoria preliminar 4.1 Espaço Vetorial e Subespaço Vetorial 4.2 Bases . . . . . . . . . . . . . . . . . . 4.3 Soma Direta . . . . . . . . . . . . . . 4.4 Transformações Lineares . . . . . . . 4.5 Matriz de uma Transformação Linear 4.6 Sistema Linear . . . . . . . . . . . . 4.7 Autovetor e autovalor . . . . . . . . . 4.8 Diagonalização . . . . . . . . . . . . 4.9 Matriz de Jordan . . . . . . . . . . . 15 15 16 18 19 20 23 23 24 25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Caracterização Geométrica via Teoria de Jordan 30 5.1 Operadores de R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 5.2 Operadores de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6 Conclusão 59 9 1 Introdução Neste trabalho estudamos os Operadores Lineares de R2 e R3 que são Transformações Lineares do tipo A : V −→ V , onde V é um espaço vetorial. Objetivamos com esse trabalho responder o seguinte problema norteador: como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ? Por exemplo, um dado operador faz uma homotetia em alguma direção? Em particular, queremos saber a imagem de um paralelogramo por um operador linear de R2 ou de um paralelepı́pedo por um operador linear de R3 . Com a Teoria de Jordan aplicada a matrizes associadas aos operadores, podemos caracterizar as transformações olhando para as matrizes quadradas de ordem dois, quando o operador for em R2 , e quadradas de ordem três quando for em R3 . Podemos encontrar uma matriz de Jordan que seja equivalente a matriz associada ao operador e assim, dizer como este operador se comporta geometricamente. Podemos ver em Lima (2012) que se quisermos definir uma transformação linear A : n R −→ Rn basta escolher, para cada 1 ≤ j ≤ n, um vetor vj = (a1j , a2j , · · · , anj ) e dizer que vj = Aej é a imagem da base canônica pela transformação linear A. De fato, basta definir a transformação para uma base qualquer. Estudaremos esses operadores entendendo como eles atuam em uma base determinada pela matriz de Jordan, chamada base de Jordan. Com essa teoria podemos escrever os operadores lineares de formas mais simples e assim, classificá-los em classes. Veremos que, todos estes operadores lineares se baseiam em dilatações, compressões, rotações e cisalhamentos, observando a matriz de Jordan dos operadores. Além disso, os operadores tem aplicações relevantes no estudo de Deformações e Morfismos1 , Fractais2 e Computação Gráfica. Na Computação Gráfica3 , por exemplo, a teoria de operadores é utilizada na manipulação de imagens que envolvem rotações, cisalhamentos, dilatação e compressão e alteração de cores, que são exemplos de transformações lineares. O trabalho possui seis capı́tulos, sendo esta introdução o primeiro. Abordamos a metodologia no capı́tulo 2, onde descrevemos as etapas de realização deste trabalho e como foi feita a pesquisa, partindo de um problema norteador e, através de teorias já criadas, passamos a resolve-lô. Utilizamos uma pesquisa bibliográfica para conduzir nosso trabalho, pois pensamos que esta seria eficiente em responder a pergunta levantada por este trabalho. 1 O trabalho “Transformações no Plano: Uma Aplicação do Estudo de Matrizes com o Uso de Planilhas Eletrônicas.”aborda morfismos e deformações.[2] 2 O trabalho “Estudando matrizes a partir de transformações geométricas”, apresenta casos com fractais. [9] 3 O trabalho “A Importância das Matrizes e Transformações Lineares na Computação Gráfica”traz a importância de trnsformações lineares na computação gráfica.[6] 10 Uma breve contextualização histórica sobre álgebra linear é feita no capı́tulo 3. Nela percebemos uma evolução no pensamento álgebrico até chegarmos aos descobrimentos de Peano, que consolidaram a álgebra linear. A teoria premilinar encontra-se no capı́tulo 4 que traz conceitos e definições, como: espaço vetorial, subespaço vetorial, base, transformação linear, matriz de uma transformação linear, sistema linear, polinômio caracterı́stico, autovetor, autovalor, diagonalização e teoria de Jordan. O capı́tulo 5 traz as aplicações da teoria de Jordan aos operadores lineares de R2 e R3 . Trazemos os operadores lineares divididos em classes, segundo a Teoria de Jordan. Também trazemos a caracterização geométrica dessas classes, exemplos e figuras que proporcionam um olhar geométrico para os operadores lineares. A conclusão do trabalho se encontra no capı́tulo 6, onde concluı́mos que respondemos nossa pergunta inicial e que, os operadores lineares de R2 e R3 , se baseiam em transformações lineares conhecidas, como dilatações, compressões, rotações e cisalhamentos. 11 2 Metodologia Para conduzir nosso trabalho, inicialmente fizemos uma pesquisa bibliográfica. Pensamos que essa metodologia seria a mais adequada para propiciar a resposta da pergunta inicial “como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ?”pois a teoria base para o corpo do trabalho já encontra-se consolidada em livros, teses, artigos, dissertações. Segundo Gil (2010) uma pesquisa bibliográfica segue as seguintes etapas: i) escolha do tema; ii) levantamento bibliográfico preliminar; iii) formulação do problemas; iv) elaboração do plano provisório de assunto; v) busca das fontes; vi) leitura do material; vii) fichamento; viii) organização lógica do assunto; ix) redação do texto.(GIL, 2010, pg.45) Estas etapas citadas serviram de referência durante a elaboração do trabalho. O tema álgebra linear se faz necessário para propiciar uma tentativa de responder a questão central deste trabalho. Após um levantamento premiliar da teoria matemática, formulamos a problematização do trabalho a fim de nortear as ações seguintes. Esse levantamento foi feito em caráter exploratório, analisando a teoria acerca do problema. Isso acarretou em uma clareza maior para a compreensão do problema. Com o problema definido, podemos conduzir o trabalho com mais precisão e foco, estabelecendo objetivos claros. Foram analisados trabalhos e fontes que constavam tanto a parte matemática (álgebra linear) quanto suas aplicações voltadas a solução da problematização esperada. Com isso, foi possı́vel fazer um fichamento dos assuntos bases para o entendimento do trabalho. Os assuntos selecionados são: Espaço Vetorial, Subespaço Vetorial, Bases, Transformações Lineares, Matriz Associada a Transformação Linear, Sistema Linear, Autovalor, Autovetor, Polinômio Caracterı́stico, Determinante, Diagonalização e Teoria de Jordan. É importante salientar que livros considerados de excelência estão sendo usados para as escritas dos assuntos anteriores, entre eles [1] e [8]. A organização dos assuntos em capı́tulos se justifica quando pensamos em uma estrutura lógica, isto é, para chegar no objetivo do trabalho, temos que construir definições e resultados que possibilitam a compreensão do restante do texto. Assim, temos o embasamento suficiente para o restante do desenvolvimento do trabalho. Para conduzir a caracterização por classes, utilizaremos matrizes de Jordan que são equivalentes as matrizes associadas aos operadores lineares. Assim, através da Teoria de Jordan, classificaremos em casos (classes) todos possı́veis operadores lineares de R2 e do 12 R3 . É importante salientar que a utilização da Teoria de Jordan para a caracterização geométrica de operadores lineares não foi encontrado em outros textos já produzidos. 13 3 Embasamento Histórico A álgebra linear é um campo recente dentro da matemática, começou a ser pensado como o conhecemos hoje por Leonhard Euler4 , por volta de 1750, quando discutiu o paradoxo de Cramer e revolucionou o pensamento da época sobre sistemas lineares. Segundo Katz (2010), este paradoxo baseava-se em duas proposições: (1) Uma curva algébrica de ordem n é univocamente determinada por n(n+3) 2 dos seus pontos. (2) Duas curvas algébricas de ordens n e m instersectavam-se em nm pontos. (KATZ, 2010; pg.788) Uma curva algébrica plana é o lugar dos pontos cujas coordenadas cartesianas satisfazem a uma equação do tipo f (X, Y ) = 0, onde f é um polinômio não constante.5 Euler discute a primeira proposição e conclui que esta era baseada em uma afirmação nem sempre verdadeira. Esta afirmação era que n equações com n incognitas sempre tem uma única solução, como se acreditava. Euler percebe que esta afirmação não é sempre válida. Mesmo não escrevendo nenhum teorema sobre esse assunto em sua obra “Introdução à Álgebra”, Euler traz exemplos do tipo: { 3x − 2y = 5 −6x + 4y = −10 onde notou que essas equações não determinavam únicos valores para as incógnitas x e y. Segundo Katz (2010), Euler acabou concluindo que para que n incógnitas sejam determinadas por n equações, é necessário acrescentar a condição de que essas equações sejam todas diferentes e também não estejam “compreendidas” nas demais. Apesar de não ter definido “compreendida” de forma explı́cita, parece que Euler tinha conhecimento do conceito de caracterı́stica de uma sistema linear. Mesmo Euler resolvendo o paradoxo, foi preciso mais um século para que os sistemas indeterminados, também chamados de inconsistentes, fossem compreendidos. Em 1843, Hamilton6 criou a primeira álgebra não-comutativa, a álgebra dos quatérnios7 . Esse fato, ligado a todo seu estudo, fez abrir as portas da álgebra moderna, como conhecemos hoje. 4 Matemático suiço nascido na Basiléia (1707-1783). Segundo [3] Euler foi um escritor prolı́fero, tendo seu nome em praticamente todos os ramos da matemática. 5 Veja mais em sobre curvas algébricas em [10]. 6 Willian Rowan Hamilton (1805-1865) foi um fı́sico e matemático irlandês. É conhecido por criar a teoria dos quatérnios, segundo [7] 7 Os quartérnios são considerados um anel de divisão, ou um corpo não comutativo, conforme [5] 14 Segundo Eves (2004): [...] a grande importância dos quatérnios na história da matemática reside no fato de que sua criação por Hamilton em 1843 libertou a álgebra de suas amarras com a aritmética dos números reais, abrindo assim as comportas da álgebra abstrata. (EVES, 2004; pg. 555) Cayley8 uniu a ideia de Matriz (anteriormente conhecida) com o sistema linear. Ele provou, em 1858, o teorema conhecido como Teorema de Cayley-Hamilton, mostrando que para a matriz Mf associada ao operador M [ Mf = a b c d ] é solução do polinômio caracterı́stico do operador linear M : V −→ V , ou seja, se p for o polinômio caracterı́stico de M : V −→ V , para V espaço vetorial complexo de dimensão finita, então p(Mf ) = 0. Cayley, juntamente com Sylvester9 , fizeram importantes contribuições na área da álgebra, como teoria das transformações, formas canônicas, teoria dos números, matrizes, entre outros. Outros nomes da matemática foram fundamentais para a evolução da álgebra como Hermann Günter Grassmann, Augustus de Morgan, Charles Hermite e Josiah Willard Gibbs. Foi do trabalho desses matemáticos que surgiu a Álgebra Vetorial. Segundo Eves (2004), deve-se esse trabalho especialmente a Josiah Willard Gibbs (1839-1903), em 1881, que definiu a soma de vetores, o produto vetorial e a ideia de sentido, direção e comprimento dos vetores. Anos mais tarde, Peano10 definiu noções para a álgebra linear. Segundo Katz (2010) as noções básicas de álgebra linear, incluindo as de independência linear de combinações lineares, foram usadas em diversos ramos da matemática durante o século dezenove, mas foi apenas em finais do século que uma definição abstrata de espaço vetorial foi formulada. O primeiro matemático a dar tal definição foi Giuseppe Peano no seu Calcolo geometrico de 1888. (KATZ, 2010; pg.1027) Peano também definiu sistema linear e sua dimensão, utilizando a ideia da independência linear. Dizemos então, que a álgebra linear como conhecemos hoje, começa a ser estruturada em 1888, sendo assim uma área nova dentro da matemática. 8 Arthur Cayley (1821-1895), matemático inglês, é conhecido pelo desenvolvimento da álgebra das matrizes, de acordo com [3] 9 James Joseph Sylvester (1814-1897) matemático inglês que, estimulado por Cayley, escreveu vários artigos que contribuiram para à álgebra, como teoria das transformações, conforme [3] 10 Giuseppe Peano (1858-1932), matemático italiano conhecido pelos axiomas de espaço vetorial, segundo [7] 15 4 Teoria preliminar Esse capı́tulo apresenta a fundamentação teórica necessária para o restante do trabalho. Escrevemos este com uma sequência lógica com o objetivo de construir o conhecimento prévio necessário para compreendermos como se desenvolverão as ideias ao longo do trabalho. Em sua maioria, as definições, lemas e teoremas apresentados no corpo do texto foram adaptadas de [1] e [8]. 4.1 Espaço Vetorial e Subespaço Vetorial Nesta seção, apresentaremos uma noção da região onde a álgebra linear se desenvolve, os Espaços Vetoriais. Definição 4.1. Seja V um conjunto de elemento (chamados vetores), munido da operação soma (+) e multiplicação (.) por um escalar de R (corpo) definidas de modo que valham as seguintes propriedades: Para todo v1 , v2 , v3 ∈ V e α, β ∈ R i) v1 + v2 ∈ V e αv1 ∈ V (fechamento) ii) (v1 + v2 ) + v3 = v1 + (v2 + v3 ) e (αβ)v1 = α(βv1 ) (associatividade) iii) v1 + v2 = v2 + v1 (comutatividade) iv) existe 0 ∈ V tal que v1 + (−v1 ) = 0 (elemento neutro) v) α(v1 + v2 ) = αv1 + αv2 (distributividade para os vetores) vi) (α + β)v1 = αv1 + βv1 (distributividade para os escalares) vii) existe 1 ∈ R tal que v1 1 = v1 (estabilidade) Neste caso, dizemos que V (+, .) é um espaço vetorial sobre R, denotamos simplesmente por V este espaço vetorial. Nota: seja V um espaço vetorial em R. Se temos v ∈ V e 0 ∈ R , notamos que 0v = 0. De fato, 0v = (α + (−α))v = αv − αv = 0 Definição 4.2. Seja W um subconjunto de V espaço vetorial. Se W tem a estrutura de espaço vetorial com as operações de V , então W é subespaço vetorial. Lema 4.3. Seja W ̸= ∅; W ⊂ V é um subespaço vetorial de V se ∀w1 , w2 ∈ W onde, para α ∈ R, temos: i) αw1 ∈ W ii) w1 + w2 ∈ W 16 Note que, os subespaços vetoriais têm que conter a origem e também, todo subespaço é um espaço vetorial em si mesmo. 4.2 Bases Esse tópico é de suma importância para a continuação do trabalho, pois temos por objetivo caracterizar um operador linear de R2 e R3 analisando o que acontece em uma certa base (base de Jordan). Conforme vemos em Lima (2012), uma vez fixada uma base num espaço vetorial de dimensão n, seus elementos são meramente combinações lineares dos n vetores básicos, com coeficientes univocamente determinados. (Lima 2012, pg. 25) Definição 4.4. Sejam W = {w1 , w2 , · · · , wn } ⊂ V e α1 , α2 , · · · , αn ∈ R definimos a combinação dos elementos de W por uma soma finita da forma α1 w1 + α2 w2 + · · · + αn wn . Definição 4.5. Seja W = {w1 , w2 , · · · , wn } um subconjunto de um espaço vetorial V. O conjunto W é linearmente dependente se existirem escalares α1 , α2 , · · · , αn ∈ R , não todos nulos, tais que α1 w1 + α2 w2 + · · · + αn wn = 0. Definição 4.6. Seja W um subconjunto de V espaço vetorial. Dizemos que o conjunto W é linearmente independente quando não é linearmente dependente. Definição 4.7. Seja W um subconjunto de um espaço vetorial V. Dizemos que o conjunto W gera o espaço V se para todo v ∈ V existem α1 , α2 , · · · , αn ∈ R e w1 , w2 , · · · , wn ∈ W tais que α1 w1 + α2 w2 + · · · + αn wn = v. Dizemos então, que W é um subespaço gerador de V. Definição 4.8. Seja V um espaço vetorial. Dizemos que um conjunto ordenado B é base de V quando: i) B é um conjunto linearmente independente. ii) o subespaço gerado por B é igual a V. Lema 4.9. Todo espaço vetorial V ̸= {0} gerado por um subconjunto S = {v1 , v2 , · · · , vn } possui uma base. Demonstração. Primeiramente tiramos os elementos (se existir) de S que são linearmente dependentes com os elementos restantes. Retirando os elementos, os elementos restantes de S ainda geram V. Assim, teremos um conjunto linearmente independente S que gera V. 17 Nota: o espaço vetorial 0 não possui base. O próximo teorema serve de subsı́dio para o corolário 4.11 que é importante para o desenvolvimento do texto. Teorema 4.10. Seja o conjunto S = {v1 , v2 , · · · , vn } gerador do espaço vetorial V . Se W = {w1 , w2 , · · · , wj } com W ⊆ V é linearmente independente, então j ≤ n. Demonstração. Suponhamos que j > n. Como S gera V , temos que w 1 = λ 1 v1 + λ 2 v2 + · · · + λ n vn sendo, ao menos, um dos escalares λ1 , · · · , λn diferente de zero. Podemos supor que λ1 ̸= 0. Temos assim que {v2 , · · · , vn , w1 } gera V. De fato, se v ∈ V , existem escalares α1 , · · · , αn tais que v = α1 v1 + α2 v2 + · · · + αn vn . Mas então, [ v = α1 ] 1 (w1 − λ2 v2 − · · · − λn vn ) + α2 v2 + · · · + αn vn λ1 mostrando o afirmado. De maneira análoga, w2 = β2 v2 + β3 v3 + · · · + βn vn + β1 w1 , com ao menos um dos escalares β2 , · · · , βn diferente de zero. Supondo β2 , verificamos então que o conjunto {v3 , v4 , · · · , w1 , w2 } gera o espaço V. Repetindo o procedimento, observamos que {w1 , w2 , · · · , wn } gera o espaço V . Em particular, wn+1 = γ1 wn + · · · + γn wn . Mas então, −γ1 w1 − · · · − γn wn + 1wn+1 + 0wn+2 + · · · + 0wj = 0 o que contradiz {w1 , w2 , · · · , wj } ser um conjunto linearmente independente. Corolário 4.11. Se os vetores v1 , v2 , · · · , vm geram o espaço vetorial V e os vetores w1 , w2 , · · · , wn são linearmente dependentes, então m ≥ n. Este corolário é uma mera reformulação do Teorema 4.10. Definição 4.12. Se B = {b1 , b2 , b3 , · · · , bn } for uma base do espaço vetorial V , dizemos que V tem dimensão n e escrevemos dimV = n. Teorema 4.13. Todo subconjunto linearmente independente de um espaço vetorial V de dimensão finita pode ser completado para formar uma base de V. 18 Demonstração. Se S = v1 , v2 , · · · , vj não gerar V , então existe um vetor vj+1 ∈ V que é LI com o conjunto S. O conjunto E = v1 , v2 , · · · , vj , vj+1 é LI. Se E não for base de V , repetimos o procedimento, um número finito de vezes, até obter a base de V. Note que o Teorema 4.2 nos diz que existem várias bases para o espaço V . Definição 4.14. Sejam V um espaço vetorial e B = {b1 , b2 , b3 , · · · , bn } uma base de V . Se v ∈ V , então existem escalares α1 , α2 , · · · , αn ∈ R tais que v = α1 b1 +α2 b2 +· · · +αn bn . O vetor (α1 , α2 , · · · , αn ) é a representação de v na base B e α1 , α2 , · · · , αn são as coordenadas de v na base B. Teorema 4.15. Seja v ∈ V e B = {b1 , b2 , b3 , · · · , bn } base de V espaço vetorial. A representação de v na base B é única. Demonstração. Podemos escrever v ∈ V como v = α1 b1 + α2 b2 + · · · + αn bn , sendo B = {b1 , b2 , · · · , bn } base de V . Supomos que o mesmo vetor v seja escrito da forma v = β1 b1 +β2 b2 +· · ·+βn bn , então temos que v = α1 b1 +α2 b2 +· · ·+αn bn = β1 b1 +β2 b2 +· · ·+βn bn . Daı́ (α1 − β1 )b1 + (α2 − β2 )b2 + (α3 − β3 )b3 + · · · + (αn − βn )bn = 0. Como B é base então α1 = β1 , α2 = β2 , · · · , αn = βn . Portanto, as coordenadas de um certo vetor v ∈ V em uma base arbitrária é única. Definição 4.16. Seja ei ∈ Rn , com 1 ≤ i ≤ n, o vetor cuja i-ésima coordenada é igual a 1 e as outras nulas. O conjunto B = (e1 , e2 , · · · , en ) é denominado de base canônica do espaço Rn . 4.3 Soma Direta Nesta seção, veremos como um espaço vetorial pode ser decomposto como uma soma de subespaços vetoriais independentes. Definição 4.17. Sejam X, W subconjuntos de um espaço vetorial V . Denotamos por X + W o conjunto de todos os vetores x + w, com x ∈ X e w ∈ W . Proposição 4.18. Sejam X, W subespaços de V . Então X + W é subespeço de V . O subespaço X + W é chamado soma dos subespaços X e W . Demonstração. Se v1 = x1 + w1 e v2 = x2 + w2 forem elementos de X + W e λ seja uma contante, então temos que λv1 + v2 ∈ X + W . Logo, segue do lema 4.8. Definição 4.19. Sejam X, W subespaços de V . O subespaço V = X + W é a soma direta dos subespaços X e W se cada elemento de v ∈ V puder ser escrito de maneira única como v = x + w. Nesse caso denotamos V por V = X ⊕ W . 19 Proposição 4.20. O subespaço V = X + W é uma soma direta dos subespaços X, W se, e somente se, X ∩ W = {0}. Demonstração. ⇒ Supomos que V = X ⊕ W . Se z ∈ X ∩ W , então v = w + x também pode ser escrito como v = (w + z) + (x − z). Como a decomposição de v é única, temos que x = x + z e w = w − z e assim, temos z = 0. ⇐ Suponhamos que x1 + w1 e x2 + w2 sejam decomposições de v ∈ V . Então x1 − x2 = w2 −w1 pentencem a X ∩W . Logo temos x1 −x2 = 0 = w2 −w1 , o que garante o unicidade de decomposição. Teorema 4.21. Seja V um espaço vetorial de dimensão finita. Então vale: i) todo subespaço W de V possui dimensão finita. ii) todo subespaço W possui um complemento X ⊂ V , isto é, existe um subespaço X de V tal que V = X ⊕ W. Demonstração. Segundo o lema 4.9, temos uma base {w1 , w2 , · · · , wj } de W . Aplicando o teorema 4.13 temos uma base {w1 , w2 , · · · , wj , v1 , v2 , · · · , vn−j } para V . Defina X como o espaço de todas as combinações lineares dos elementos v1 , v2 , · · · , vn−j . Claramente Xé um subespaço de V e X ⊂ V = {0}. Pela proposição 4.20, temos V = X ⊕ W . 4.4 Transformações Lineares A compreensão desta seção é fundamental para alcançarmos o objetivo geral do trabalho, visto que a teoria das transformações lineares será essencial para o desenvolvimento do restante do texto. Definição 4.22. Sejam V e W espaços vetoriais com as operações soma (+) e multiplicação (.). Uma transformação linear A : V −→ W é uma relação que associa a cada elemento v ∈ V um elemento Av = w ∈ W de modo que para quaisquer v1 , v2 ∈ V e α ∈ R , valem: A(v1 + v2 ) = A(v1 ) + A(v2 ) = Av1 + Av2 A(αv1 ) = αA(v1 ) Chamamos Av = w ∈ W de imagem de v pela transformação A. Definição 4.23. Dado A : V −→ W e B : V −→ W transformações lineares, definimos a soma de duas transformações como A + B : V −→ W onde (A + B)v = Av + Bv para todo v ∈ V . 20 Definição 4.24. Dado A : V −→ W transformação linear, definimos o produto de uma transformação linear por um escalar α ∈ R sendo αA : V −→ W onde (αA)(v) = αA(v) para todo v ∈ V . Definição 4.25. Seja A : V −→ V uma transformação linear do espaço vetorial V em si próprio. Chamaremos esse tipo de transformação linear de operador linear em V . Definição 4.26. Seja a transformação linear A : V −→ R ,com valores numéricos, uma transformação linear do espaço V em R. Chamaremos esse tipo de transformação linear de funcional linear em V . Definição 4.27. Um operador linear A chama-se nilpotente quando, para algum n ∈ N, tem-se An = 0. Definição 4.28. Um operador linear A nilpotente tal que An = 0 e An−1 ̸= 0 . Chamamos n de ı́ndice de nilpotência. Definição 4.29. Um operador linear A : V −→ V é chamado idempotente se A2 = A. Teorema 4.30. Sejam V e W espaços vetoriais e B = {b1 , b2 , b3 , · · · , bn } uma base de V . Podemos estabelecer A : V −→ W transformação linear. A todo b ∈ B, façamos corresponder um elemento arbitrário w ∈ W . Então existe uma única transformação tal que Ab = w para cada b ∈ B . Demonstração em [8] página 40. 4.5 Matriz de uma Transformação Linear Uma das formas de trabalhar com álgebra linear é através das Matrizes. Essas podem ser associadas a uma Transformação Linear em determinada base. Ao observar a matriz associada a transformação linear, é possı́vel caracterizar a transformação, ou melhor, dizer o que esta faz em uma determinada base. Segundo o Teorema 4.30 temos que uma transformação linear fica determinada através de uma matriz [aij ] ∈ M(m×n) sendo seus vetores-coluna imagens da transformação dos vetores da base canônica de Rn . A partir de agora, abordaremos transformações lineares com espaços de mesma dimensão, ou seja, utilizaremos essencialmente operadores lineares. Teorema 4.31. Seja um operador linear A : Rn −→ Rn . Toda aplicação linear A é da n ∑ forma yi = [aij ]xj , onde x = (x1 , x2 , x3 , ..., xn ) ∈ Rn e y = (y1 , y2 , y3 , ..., yn ) ∈ Rn e j=1 y = Ax. 21 Demonstração. Consideramos a base canônica {e1 , e2 , e3 , ..., en } do Rn . Então, temos que x = (x1 , x2 , x3 , · · · , xn ) ∈ Rn é escrito da forma x = x1 e1 + x2 e2 + x3 e3 + ... + xn en = n ∑ xj ej . Como A é linear, ( j=1 y = Ax = A n ∑ ) xj ej j=1 = n ∑ xj Aej j=1 Denotamos a i-ésima coordenada do vetor A(ej ) por aij , isto é aij = (A(ej ))i . Assim, a i-ésima coordenada de y é n ∑ yi = xi aij j=1 Note que, no Teorema 4.31 foi utilizado de modo explı́cito a base canônica do Rn por {e1 , e2 , e3 , ..., en }. Os coeficientes [aij ] formam um arranjo quadrado, da seguinte forma: Af = a11 a12 · · · a1n a21 a22 · · · a2n .. .. .. .. . . . . an1 an2 · · · ann denominamos tal arranjo de matriz associada a A, que é uma matriz Af (n×n) onde n é o número de linhas e de colunas. O elemento aij é a entrada correspondente a linha i e a coluna j. Como temos a quantidade de linhas igual a de colunas, dizemos que Af é quadrada. Chamamos de submatriz de Af uma matriz obtida de Af sendo omitida algumas linhas e/ou colunas. Lema 4.32. Sejam A, B : Rn −→ Rn . Então (A + B)ij = Aij + Bij e (λA)ij = λAij . Demonstração. Temos, por definição, que bij é a i-ésima coordenada do vetor Bej e aij é a i-ésima coordenada do vetor Aej . Assim, se somarmos as coordenadas, obtemos bij + aij . Por outro lado, temos Bej + Aej = (A + B)ej de modo que a i-ésima componente do vetor (A + B)ej é bij + aij . Da mesma forma, a i-ésima componente do vetor (λA)(eij ) é λ multiplicado pela i-ésima componente do vetor Aej . Definição 4.33. Denotaremos por Mn×n , o espaço das matrizes n × n de coeficientes reais. Definição 4.34. Seja A ∈ Mn×n , dizemos que A é invertı́vel se existir uma matriz B tal que AB = BA = I, 22 em que I denota a matriz identidade n × n. Denotamos, portanto, B = A−1 e chamamos A−1 de inversa da matriz A. Podemos ver as transformações lineares com o uso de matrizes. Em uma transformação A : Rn −→ Rn , consideramos a matriz associada a A em uma determinada base, ou seja, Af = [aij ] ∈ Mn×n em vez da transformação linear A. Teorema 4.35. Sejam B = {b1 , b2 , b3 , · · · , bn } e B ′ = {b′1 , b′2 , b′3 , · · · , b′n } duas bases de Rn espaço vetorial. Seja A : Rn −→ Rn um operador linear onde Af é a matriz associada a A na base B e A′f é a matriz associada a A na base B ′ . Então existe C invertı́vel tal que A′f = CAf C −1 Demonstração. Seja v ∈ Rn , B e B ′ bases de Rn nas condições do teorema e Af é a matriz associada a A na base B e A′f é a matriz associada a A na base B ′ . Note que C é a matriz de mudança de base de B para B ′ , e C −1 é a inversa de C e é a matriz de mudança de base de B ′ para B. Denotando Af (v) = Af vB e A′f (v) = A′f vB ′ . Como vB = C −1 vB ′ temos Af (v) = C −1 A′f (v) ⇐⇒ Af C −1 vB ′ = C −1 A′f (v) Multiplicando esta última igualdade por C à esquerda, obtemos A′f = CAf C −1 . Note que C é uma matriz de mudança de base de B para B ′ , e C ′ é uma matriz de mudança de base de B ′ para B. Definição 4.36. Sejam B e B ′ bases do espaço vetorial Rn , temos que existe uma matriz de troca de base de B e B ′ , que chamaremos de C. v = Cw onde v é o vetor das coordenadas na base B ′ e w é o vetor das coordenadas na base B. Definição 4.37. Seja A : Rn −→ Rn um operador linear onde C é a matriz de troca da base B para B ′ tal que A′f = CAf C −1 . Se ∃C ∈ Mn×n tal que A′ = CAC −1 , então A é semelhante a A′ . 23 4.6 Sistema Linear Vamos enunciar um resultado nessa seção que será útil para um melhor entendimento da próxima seção. Teorema 4.38. Seja A ∈ Mn×n . O conjunto S das n-uplas X de Rn que são soluções do sistema homogêneo AX = 0 é um subespaço vetorial de Rn . Demonstração. O vetor nulo pertence a S pois temos A0 = 0. Se X, Y ∈ S, então X + Y ∈ S, pois A(X + Y ) = AX + AY = 0 Se X pertence a S e α ∈ Rn , então αX ∈ S, pois A(αX) = αAX = α0 = 0 4.7 Autovetor e autovalor Esta seção é importante para entender o conceito de matriz de Jordan associada a um operador. Definição 4.39. Sejam A ∈ Mn×n , v ∈ Rn , v ̸= 0 e λ ∈ R. Se Av = λv para algum λ ∈ R, dizemos que v é autovetor de A e que λ é o autovalor associado a este autovetor. Note que Av = λv ⇐⇒ Av − λv = 0 ⇐⇒ (A − λI)(v) = 0 onde I é matriz identidade de grau n, é um sistema linear homogêneo. Para os tópicos seguintes, necessitamos saber calcular o determinante de uma matriz quadrada de ordem dois e três. Definição 4.40. Seja A uma matriz quadrada de ordem dois. Definimos o determinante de A por a 11 a12 detA = a21 a22 = a11 a22 − a12 a21 Definição 4.41. Seja A uma matriz quadrada de ordem três. Definimos o determinante de A por 24 a 22 a23 detA = a32 a33 a 21 a23 a11 − a31 a33 a 21 a22 a12 + a31 a32 a13 Nota: existem outros métodos para o cálculo de determinantes como, por exemplo, o método de Sarrus. Definição 4.42. Sejam A ∈ Mn×n , v ∈ Rn e λ ∈ R, tais que (A − λI)(v) = 0. Dizemos que o conjunto solução de (A − λI)(v) = 0 é um autoespaço associado ao autovalor λ. Teorema 4.43. Seja A ∈ Mn×n e v ∈ Rn , v ̸= 0 . (A − λI)(v) = 0 tem solução não trivial se, e somente se, det(A − λI) = 0 Demonstração. Seja v ̸= 0 e (A − λI)(v) = 0. O sistema tem uma solução não trivial se, somente se, as colunas da matriz (A − λI) são linearmente depententes, isto ocorre se, e somente se, det(A − λI)(v) = 0 Definição 4.44. Seja A ∈ Mn×n . Dizemos que det(A − λI) é o polinômio caracterı́stico. Nota: o polinômio caracterı́stico de uma matriz A de dimensão n, tem grau n e é um polinômio na indeterminada λ. Definição 4.45. Definimos como multiplicidade algébrica de λi o número de vezes que o λi é raiz do polinômio caracterı́stico. 4.8 Diagonalização Diagonalização é o processo de transformar uma matriz não diagonal em uma matriz que é equivalente a uma matriz diagonal. Esse processo é utilizado, em especial, para cálculos de potências de matrizes. Definição 4.46. Seja V espaço vetorial e A : V −→ V um operador linear. Um subespaço S ⊆ V é chamado invariante do operador A se: A(S) ⊆ S Definição 4.47. Seja V espaço vetorial e A : V −→ V um operador linear. Se S ⊆ V é subsespaço invariente pelo operador A de dim(S) = 1, então S é dito subespaço próprio. Teorema 4.48. Seja V espaço vetorial de dimenão n e A : V −→ V um operador linear. Supomos que S e T são subespaços invariantes de dimnesão k e n − k respectivamente, tais que: V = S ⊕ T. Então existe uma representação matricial de A na forma: 25 [ Af = D′ 0 0 D ] onde D′ é uma matriz k × k e D uma matriz (n − k) × (n − k). Demonstração. Seja {e1 , e2 , · · · , ek } base de S e {ek+1 , ek+2 , · · · , en } base de T . Como V é soma direta de S e T , temos que {e1 , e2 , · · · , ek , ek+1 , · · · , en } é base de V (vide teorema 4.13). Podemos escrever então: A(ei ) = k ∑ Cij ej + j=1 A(eα ) = k ∑ j=1 n ∑ Eiβ eβ , i = 1, 2, · · · , k β=k+1 Fαj ej n ∑ + Dαβ eβ , α = 1, 2, · · · , n β=k+1 Mas por hipótese temos que A(S) ⊆ S e A(T ) ⊆ T , portanto temos Eiβ = Fαj = 0 para ∀i, j, α, β e, portanto, a representação de A na base indicada é: [ Af = C 0 0 D ] Definição 4.49. Seja A : V −→ V um operador linear. Dizemos que A é diagonalizável se qualquer uma das seguintes condições equivalentes se verifica: i) Existe uma base de V , relativamente à qual a matriz Af é diagonal; ii) V decompõe-se numa soma direta de subespaços próprios de A. 4.9 Matriz de Jordan Nem todas matrizes são diagonalizáveis portanto, nesta seção, veremos que dada qualquer uma matriz A associada a um operador linear, existe uma mudança de coordenadas (ver 4.51) que deixa a matriz Af mais simples. Ou seja, queremos encontrar uma representação matricial mais diagonal possı́vel, e isto é dado pela forma canônica de Jordan. Dada uma matriz A então procuramos C e C −1 tais que J = CAC −1 . Definição 4.50. Sejam λ1 , λ2 , ..., λj os autovalores distintos de uma matriz J ∈ Mn×n . 26 A matriz J está na forma canônica de Jordan, se J = e para cada i ··· ··· J1 0 0 J2 0 0 0 .. . 0 .. . J3 · · · .. . . . . 0 0 0 0 0 0 Ji = ··· ··· 0 0 .. . .. . Jk−1 0 λi 1 0 0 λi 1 0 0 λi .. .. .. . . . 0 0 0 0 0 0 0 0 .. . .. . 0 Jk ··· ··· ··· .. . 0 0 0 .. . ··· ··· λi 0 onde 1 ≤ i ≤ k, 0 0 0 .. . 1 λi k ×k i i O bloco Ji é um bloco de Jordan associado ao autovalor λi . Note que o polinômio caracterı́stico da matriz J é da forma p(z) = (z − λ1 )k1 · · · (z − λj )kj . Assim, a quantidade de vezes que um autovalor λi aparece na diagonal é justamente a sua multiplicidade algébrica, ou seja, é a multiplicidade como raiz do polinômio caracterı́stico. Teorema 4.51. Seja A : Rn −→ Rn um operador linear. Então existe uma base C de Rn na qual A é representado por uma matriz J, diagonal em blocos, cujos blocos diagonais, além daqueles associados a autovetores reais e que são como na definição da forma de Jordan, também podem ter a forma Jα,β = Dα,β I2 0 0 Dα,β I2 0 0 Dα,β .. .. .. . . . 0 0 0 0 0 0 ··· ··· ··· ... ··· ··· 0 0 0 .. . 0 0 0 .. . Dα,β I2 0 Dα,β [ ] α −β . onde Dα,β = β α sendo α + iβ um autovalor complexo e I2 a matriz identidade 2 × 2. 27 Demonstração em [1] página 137. Proposição 4.52. Seja A : V −→ V um operador linear. Seja {v1 , v2 , · · · , vk } o conjunto de autovetores de A e seja {λ1 , λ2 , · · · , λk } os autovalores associados aos vi autovetores. A base de Jordan de A é { } Aj = b11 , · · · , b1d1 , b21 , · · · , b2d2 , · · · , bk1 , · · · , bkdk com bij onde i = 1, · · · , k e j = 1, · · · , di . i) Os vetores bidi são autovetores de A, onde A(bidi ) = λi bidi ; ii) Para j ∈ {1, · · · , di−1 } vamos ter A(bij ) = λi bij + bij+1 ; iii) Aj é base de V . Definição 4.53. Se j ∈ {1, · · · , di−1 } dizemos que os bij da proposição anterior são quase autovetores. Como comentado na introdução, neste trabalho caracterizaremos geometricamente os operadores lineares de R2 e R3 . Sabemos que as matrizes associadas a esses operadores são quadradas de ordem 2 ou quadradas de ordem 3, respectivamente. A pergunta que fazemos é: “sabemos como são essas matrizes?”Ou melhor, “quais são as possı́veis matrizes de Jordan que são equivalentes as matrizes dos operadores?” Começamos com o caso as matrizes quadradas de ordem 2. Para responder a pergunta, devemos ver qual a multiplicidade algébrica que o(s) autovalor(es) assumem. Percebemos que o polinômio caracterı́stico de um operador linear de R2 é, no máximo, de grau dois, ou seja, temos que um autovalor real de um operador linear de R2 pode ter multiplicidade 1 ou 2. Temos também o caso do autovalor ser complexo, assim sabemos que ele vem aos pares, ou seja, se λ1 = a + bi é raiz do polinômio, então λ1 = a − bi também é. Se temos dois autovalores reais distintos com multiplicidade um, a matriz de Jordan necessariamente é [ J= λ1 0 0 λ2 ] ou seja, é diagonal.De fato, basta observarmos que a dimensão do núcleo associado a cada λi , com i = 1, 2, é 1, ou seja, temos um autovetor para cada autovalor, sendo a matriz C de base de Jordan formada pelos autovetores. Se tivermos um autovalor real com multiplicidade algébrica 2, temos duas opções para a matriz de Jordan, que são: [ J= λ1 0 0 λ1 ou ] 28 [ J= λ1 1 0 λ1 ] . Na primeira matriz, a dimensão do autoespaço associado a λ1 é 2, ou seja, (Af −λ1 I)v = 0 têm duas soluções linearmente independentes, que são autovetores e formam a matriz C. Além disso, a dimensão do núcleo ser dois nos diz que temos dois blocos na matriz de Jordan que são, necessariamente, de tamanho 1. Na segunda matriz, temos que a dimensão do núcleo associado a λ1 é 1 e, além disso, o núcleo é nilpotente de ı́ndice dois, ou seja, (Af − λ1 I)2 = 0. A base de Jordan contará com um autovetor e um quase autovetor. Além do mais, a dimensão do núcleo 1 nos diz que temos somente um bloco. Se os autovalores são complexos, então a matriz é [ J= α −β β α ] como percebemos no Teorema4.51. Para o caso de operadores de R3 , o pensamento é análogo. Podemos ter 3 autovalores distintos, com multiplicidade algébrica 1 e com isso, o núcleo associado a cada autovalor tem dimensão um, ou seja, (A − λi I)1 v = 0 não têm duas soluções linearmente independentes para cada i = 1, 2, 3. Assim, a matriz de Jordan é diagonal, como a seguinte λ1 0 0 J = 0 λ2 0 . 0 0 λ3 Quando temos um autovalor real λ1 com multiplicidade algébrica 2 e autovalor real λ2 com multiplicidade algébrica 1, temos duas opções: λ1 0 0 J = 0 λ1 0 0 0 λ2 ou λ1 1 0 J = 0 λ1 0 . 0 0 λ2 Com o autovalor λ2 , o núcleo tem dimensão 1 e o bloco é de tamanho um, contendo somente o próprio autovalor. Agora, como o λ1 tem multiplicidade algébrica 2, temos um bloco ou dois blocos, como anteriormente no caso R2 . Notamos também que quando temos dois autovalores complexos, então temos um terceiro autovalor real de tamanho 1, necessariamente, como vemos na matriz a seguir: 29 α −β 0 J = β α 0 . 0 0 λ2 Agora, quando temos um único autovalor real λ1 com multiplicidade algébrica 3, temos três opções: λ1 0 0 J = 0 λ1 0 0 0 λ1 ou λ1 1 0 J = 0 λ1 0 0 0 λ1 ou λ1 1 0 J = 0 λ1 1 . 0 0 λ1 A primeira matriz corresponde ao caso onde a dimensão do núcleo associado ao autovalor real é igual a 3, ou seja, temos 3 blocos na diagonal, cada uma com um único elemento λ3 . Além disso (A − λ1 I)v = 0 tem como solução três vetores linearmente independentes, daı́ temos que (A − λ1 I)v = 0, ∀v ∈ R3 e assim A − λ1 I = 0 ⇔ A = λ1 I. Ou seja, A é matriz diagonal. O segundo caso, temos que a dimensão do núcleo associado a λ1 é igual a 2, ou seja, temos dois blocos na diagonal. Esses blocos devem ser[ um com]tamanho um por um, λ1 1 com o λ1 como único elemento e, o outro bloco será pois senão, cairemos 0 λ1 no caso anterior. Além disso, o ı́ndice de nilpotência do núcleo associado a λ1 é 2 e o número de autovetores linearmente independentes da matriz C é dois, não podendo A ser diagonalizável. Quando a dimensão do núcleo associado ao autovalor é 1, temos um único bloco sobrando a terceira matriz como opção. Observamos que, o ı́ndice de nilpotência é 3 e temos dois quase autovetores na base de Jordan. 30 5 Caracterização Geométrica via Teoria de Jordan Este capı́tulo trata da aplicação da Teoria de Jordan aos operadores lineares que atuam nos espaços vetoriais de R2 e R3 . Veremos os possı́veis casos de matrizes de Jordan e faremos uma caracterização geométrica destes casos. Assim, caracterizaremos todos os operadores lineares, uma vez que conseguimos associar uma matriz de Jordan equivalente a uma matriz associada ao operador. 5.1 Operadores de R2 O Teorema 4.51 nos diz que um operador A : R2 −→ R2 pode ser representado por uma matriz J, quando temos uma matriz C invertı́vel e a seguinte igualdade é satisfeita Af = CJC −1 ou J = C −1 Af C Vamos olhar para a matriz J, que é uma matriz equivalente a Af , atuando sobre a matriz C, para caracterizar geometricamente os operadores lineares. Segundo a Teoria de Jordan, a matriz J ∈ M2×2 pode ser de uma das seguintes formas: [ (i) J = λ1 0 0 λ2 [ (ii) J = [ (iii) J = [ (iv) J = ] λ1 1 0 λ1 α −β β α λ1 0 0 λ1 onde λ1 e λ2 são autovalores distintos. ] onde λ1 é autovalor com multiplicidade algébrica 2. ] onde λ1 = α + βi e λ2 = α − βi são autovalores. ] onde λ1 é autovalor de multiplicidade algébrica 2. Caso (i) Nesse caso, podemos subdividı́-lo em outros três casos: quando |λ1 | > 1 e |λ2 | > 1, |λ1 | > 1 e 0 < |λ2 | < 1 e 0 < |λ1 | < 1 e 0 < |λ2 | < 1. 31 Vamos considerar v1 = (a, c) e v2 = (b, d) os autovetores associados aos autovalores λ1 e λ2 respectivamente. Neste caso, temos a matriz C da seguinte forma: [ C= a b c d ] Nossa transformação linear A : R2 −→ R2 age sobre os autovetores fazendo uma dilatação ou compressão dependendo de |λi |, ou seja, temos A(vi ) = λi vi onde i ∈ {1, 2}, onde ocorre ou uma dilação, se |λ1 | > 1, ou compressão, se 0 < |λ1 | < 1. Note que, caso |λi | = 0, a imagem o vetor associado ao |λi | será o vetor nulo. A transformação age como I (matriz identidade) em vi se λi = 1 e como −I se λi = −1. Com efeito,temos I(vi ) = 1vi = A(vi ) para λi = 1 e −I(vi ) = −1vi = A(vi ) para λi = −1. Observamos que se λi < 0 temos que, além da dilatação e compressão, a transformação inverte o sentido do vetor. Quando temos |λ1 | > 1 e |λ2 | > 1, ocorre uma dilatação nos vetores v1 = (a, c) e v2 = (b, d) da forma λ1 v1 = (λ1 a, λ1 c) e λ2 v2 = (λ2 b, λ2 d). A figura 1 abaixo mostra a os vetores v1 e v2 e suas transformações, ou seja, A(v1 ) = λ1 (v1 ) = (λ1 a, λ1 c) e A(v2 ) = λ2 (v2 ) = (λ2 b, λ2 d). Figura 1: Dilatação dos vetores v1 e v2 Fonte: Autor. Na próxima figura 2, podemos perceber como fica a região delimitada pelos vetores v1 e v2 e suas respectivas transformações. 32 Figura 2: Dilatação da área delimitada pelos vetores v1 e v2 Fonte: Autor. Exemplo 1 Seja A : R2 −→ R2 cuja matriz associada é [ Af = 3 1 0 2 ] . Para caracterizar geometricamente esse operador, temos que encontrar uma matriz de Jordan que seja equivalente a Af . Para isso, vamos calcular os autovalores e os autovetores associados ao operador linear. O cálculo do polinômio caracterı́stico é o seguinte: pA (λ) = det(Af − λI) assim, temos que pA (λ) = (3 − λ)(2 − λ), sendo suas raı́zes λ1 = 3 e λ2 = 2. Portanto, os autovalores de Af são 3 e 2. Sabemos que os autovetores são os vetores que satisfazem (A − λI)v = 0. Tomando primeiramente λ1 , temos o seguinte sistema: (A − 3I)v = 0 ou seja, 33 [ ][ ] x 0 1 =0 0 −1 y que gera o seguinte sistema { y=0 −y = 0 cuja uma das soluções é o v1 = (1, 0), autovetor que escolheremos. Tomando agora λ2 , temos o seguinte sistema: (A − 2I)v = 0 ou seja, [ 1 1 0 0 ][ ] x =0 y que gera o seguinte sistema { x + y = 0. Uma solução é v2 = (1, −1). Assim, temos a matriz C cujas colunas são os autovetores v1 e v2 , respectivamente. Com a matriz C, temos a seguinte igualdade: [ ] [ ][ ][ ] 3 0 1 1 3 1 1 −1 = . 0 2 0 1 0 2 0 1 | {z } | {z } | {z } | {z } J C −1 Af C portanto, J é equivalente a Af . A figura 3 abaixo mostra como ficaria o operador aplicado aos vetores v1 = (1, 0) e v2 = (−1, 1). Na próxima figura 4, podemos perceber como fica a região delimitada pelos vetores v1 = (1, 0) e v2 = (−1, 1) e suas transformações. 34 Figura 3: Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). Fonte: Autor. Figura 4: Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). Fonte: Autor. Passamos para o próximo caso: 0 < |λ1 | < 1 e 0 < |λ2 | < 1, temos uma contração da 35 [ ] a b região de R2 . Aplicando a transformação na matriz C = teremos uma contração c d nos vetores v1 = (a, c) e v2 = (b, d) da forma λ1 v1 = (λ1 a, λ1 c) e λ2 v2 = (λ2 b, λ2 d). A figura 5 representa os vetores v1 e v2 e a atuação da transformação linear, comprimindo os vetores em um fator 0 < |λ1 | < 1. Figura 5: Compressão dos vetores v1 e v2 . Fonte: Autor. A figura 6 representa a área delimitada pelos vetores v1 e v2 e sua transformação. 36 Figura 6: Compressão da área delimitada pelos vetores v1 e v2 . Fonte: Autor. Exemplo 2 Seja o operador linear A : R2 −→ R2 como a matriz associada: [ Af = 2 3 1 6 −1 3 1 6 ] . Calculando seus autovetores, como no exemplo anterior, encontramos o autovetor v1 = (−1, −1), associado ao autovalor 13 e o autovetor v2 = (2, 1), associado ao autovalor 1 . Assim, temos a seguinte igualdade: 2 [ 1 3 0 0 21 | {z J ] ][ 1 −2 = 1 −1 } | {z } | [ C −1 2 3 1 6 {z ] −1 2 . −1 1 } | {z } Af C −1 3 1 6 ][ Assim, encontramos uma matriz J diagonal que faz uma contração de 13 no sentido do vetor v1 = (−1, −1) e uma contração de 12 no sentido do vetor v2 = (2, 1). A figura 7 abaixo mostra a transformação dos vetores referidos: A figura 8 mostra a área delimitada pela compressão nos vetores v1 e v2 . 37 Figura 7: Contração dos vetores v1 = (−1, −1) e v2 = (2, 1). Fonte: Autor. Figura 8: Área delimitada pela compressão nos vetores v1 = (−1, −1) e v2 = (2, 1). Fonte: Autor. Caso tenhamos |λ1 | > 1 e 0 < |λ2 | < 1, temos uma dilação no sentido do vetor v1 e uma compressão v2 . [ ] a b Aplicando a transformação na matriz C = teremos uma dilatação no vetor c d v1 = (a, c) da forma λ1 v1 = (λ1 a, λ1 c) e uma contração da forma λ2 v2 = (λ2 b, λ2 d). 38 A figura 9 abaixo mostra a dilatação do vetor v1 em um fator 0 < |λ1 | < 1, e a compressão do vetor v2 , por um fator 0 < |λ2 | < 1 e a figura 10 mostra a área da dilatação do vetores v1 e compressão do vetor v2 . Figura 9: Dilatação do vetor v1 e compressão do vetor v2 . Fonte: Autor. Figura 10: Área da dilatação do vetor v1 e compressão do vetor v2 . Fonte: Autor. 39 Exemplo 3 Tomamos a matriz associada ao operador linear A : R2 −→ R2 da seguinte forma: [ Af = 37 5 33 5 − 22 5 − 18 5 ] . Assim, temos que seus autovalores são 3 e 54 , tendo seus respectivos autovetores v1 = (−1, −1) e v2 = (2, 3). Assim, temos a seguinte igualdade: ] [ ][ 3 0 −3 2 = 0 45 −1 1 | {z } | {z } | [ J C −1 37 5 33 5 ][ {z ] −1 2 . −1 3 } | {z } Af C −22 5 −18 5 Portanto, a matriz J é equivalente a matriz Af . A atuação de J sobre a base de Jordan C fica evidenciada na figura 11 abaixo: Figura 11: Dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3). Fonte: Autor. A área delimitada pelos vetores, ressalta a ideia de dilação na direção v1 e compressão na direção v2 , conforme a figura 12 abaixo. 40 Figura 12: Área delimitada pela dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3). Fonte: Autor. Note que, caso tenhamos 0 < |λ1 | < 1 e |λ2 | > 1, temos um caso análogo ao anterior, que não cabe mostramos aqui. Também não abordamos o caso em que |λ1 | = |λ2 | = 0. Caso (ii) Vamos considerar o operador A : R2 −→ R2 cuja matriz associada Af seja equivalente a uma matriz J de Jordan da seguinte forma: [ J= λ1 1 0 λ1 ] . Como Af e J são equivalentes, temos a seguinte igualdade: [ Af = CJC −1 ] a b onde C = é uma matriz invertı́vel formada por um autovetor v2 = (b, d) associc d ado ao autovalor λ1 e um quase autovetor v1 = (a, c), conforme proposição 4.52. Este caso, nossa transformação age fazendo uma dilatação ou compressão na direção do vetor v2 = (b, d) e causa um cisalhamento em relação ao vetor v1 = (a, c). Analizaremos o caso quando |λ1 | > 1 e quando 0 < |λ1 | < 1. 41 Para |λ1 | > 1, temos a transformação A que age fazendo uma dilatação sobre o vetor v2 da seguinte forma: A(v2 ) = (λ1 b, λ1 d). Sobre o vetor v1 temos um cisalhamento. A figura 13 abaixo mostra a atuação da transformação sobre os vetores v1 e v2 e a figura 14 representa a área delimitada pelos vetores v1 e v2 . Figura 13: Dilatação de v2 e cisalhamento de v1 . Fonte: Autor. Figura 14: Área delimitada pela dilatação de v2 e cisalhamento de v1 . Fonte: Autor. 42 Exemplo 4 Seja o operador linear A : R2 −→ R2 cuja matriz associada Af é: [ Af = 5 1 −4 1 ] . Temos que, para uma matriz C invertı́vel, a matriz Af é equivalente a uma matriz de Jordan J da seguinte forma: ][ ] [ ][ 3 1 5 1 3 1 = 0 3 −4 1 −6 1 | {z } | {z } | {z } | [ Af C 1 9 2 3 J − 19 {z 1 3 C −1 ] . } É importante salientar o cálculo da matriz C. Primeiramente, calculamos o polinômio caracterı́stico da matriz Af , obtendo: p(λ) = λ2 − 6λ + 9 Calculamos então a raiz do polinômio e obtemos uma raiz dupla λ = 3. Para calcularmos os autovetores de Af associados ao autovetor 3, precisamos calcular o vetor no núcleo de Af − 3I, onde I é uma matriz identidade da mesma ordem de Af . Temos o seguinte calculo: [ (Af − 3I)v = 0 ]( ) ( ) 2 1 x 0 = −4 −2 y 0 A igualdade acima se resume do seguinte sistema: { 2x + y = 0 −4x − 2y = 0 Portanto, temos que o sistema gera um vetor v2 = (3, −6). Para gerarmos mais um vetor para a matriz C, base de Jordan, temos que fazer a seguinte conta: (Af − 3I)v1 = v2 onde v2 = (3, −6). Assim, temos v1 = (1, 1) que, juntamente com v2 , foram a matriz C (dispostos em coluna). Perceba que a matriz C é uma matriz formada por um autovetor v2 = (3, −6) e por 43 um quase autovetor v2 = (1, 1). Então, podemos ver a ação do operador linear A olhando para o que acontece com v1 e v2 transformados pela matriz J. A figura 15 mostra uma dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 = (1, 1). Figura 15: Dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 = (1, 1). Fonte: Autor. A área delimitada pelos vetores v2 = (3, −6) e v1 = (1, 1) e suas respectivas transformações estão representados pela figura 16. 44 Figura 16: Área delimitada pelo dilatação no v2 = (3, −6) e cisalhamento do vetor v1 = (1, 1). Fonte: Autor. Para 0 < |λ1 | < 1., temos a transformação A nos vetores v1 e v2 de forma que o vetor v2 contrai λ1 e o vetor v1 tem um cisalhamento. A figura 17 mostra como fica esta transformação. A figura 18, representa a área delimitada pela contração a direção v2 e um cisalhamento na direção v1 . 45 Figura 17: Cisalhamento na direção v1 e contração na direção v2 . Fonte: Autor. Figura 18: Área delimitada pelo cisalhamento na direção v1 e contração na direção v2 . Fonte: Autor. Exemplo 5 Tomamos um operador linear A : R2 −→ R2 cuja matriz associada Af é: 46 [ Af = ] 1 −4 1 − 13 9 . Conforme feito no exemplo 4, calculamos a matriz C formada por um autovetor v2 = ) 5 − 10 , − e um quase autovetor v1 = (1, 1). Assim, temos a matriz C (invertı́vel) tal que 3 9 Af é equivalente a uma matriz J: ( ] [ ][ ][ 1 9 − 25 1 −4 − 10 1 1 3 3 = 1 − 31 − 59 1 0 13 − 51 9 | {z } | {z } | {z } | {z [ Af C J C −1 9 25 6 5 ] . } Observamos que, a atuação da matriz J sobre os vetores v1 e v2 ocasiona um cisalhamento na direção v1 e uma contração na direção v2 , conforme a figura 19. Figura ( 10 19: ) Cisalhamento na direção v1 = (1, 1) e uma contração na direção v2 = 5 − 3 , −9 . Fonte: Autor. A figura 20, representa a área delimitada pelo cisalhamento na direção v1 = (1, 1) e ( ) 5 uma contração na direção v2 = − 10 , − . 3 9 47 Figura 20: Área pelo cisalhamento na direção v1 = (1, 1) e uma contração na ( 10delimitada ) 5 direção v2 = − 3 , − 9 . Fonte: Autor. Caso (iii) Neste caso, o operador linear A : R2 −→ R2 , com a matriz associada Af , tem o polinômio caracterı́tico com raı́zes complexas, ou seja, os autovalores são λ1 = α + βi e λ2 = α − βi. Supondo que existe uma matriz C invertı́vel tal que a matriz J seja equivalente a matriz Af , temos a seguinte forma para a matriz J: [ J= α −β β α ] onde essa matriz é uma matriz de rotação. Portanto nossa matriz de J atua fazendo uma rotação nos vetores da matriz C, ou seja, temos Af matriz de rotação equivalente a J onde Af (v1 ) = Af (a, c) = (a′ , c′ ) para a′ = acosα − csenα c′ = asenα + ccosα sendo α o ângulo de rotação em torno da origem. A figura 21 mostra a rotação dos vetores v1 e v2 para um certo ângulo α. A figura 22 representa a área delimitada pelos vetores v1 e v2 e sua rotação para α. 48 Figura 21: Rotação dos vetores v1 e v2 . Fonte: Autor. Figura 22: Área delimitada pela rotação dos vetores v1 e v2 . Fonte: Autor. Exemplo 6 Seja o operador linear A : R2 −→ R2 cuja matriz associada Af é 49 [ Af = √ 2 √2 2 2 − √ 2 √2 2 2 ] . Tomamos os vetores v1 = (1, 1) e v2 = (1, −1). Assim, temos a matriz C (invertı́vel) tal que Af é equivalente a uma matriz J: [ | √ 2 √2 2 2 − {z Af √ 2 √2 2 2 ][ √ 2 1 1 2√ = 1 −1 − 22 } | {z } | {z ] [ C J √ 2 √2 2 2 ][ }| 1 2 1 2 1 2 ] − 12 {z } . C −1 Esta matriz causa uma rotação nos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ em relação a origem. A figura 23 clarifica o exemplo. Figura 23: Rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . Fonte: Autor. A figura 24 representa a área delimitada pelos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . 50 Figura 24: Área delimitada pela rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . Fonte: Autor. Caso (iv) Note que, neste caso, temos (Af − λ1 I)v = 0, ou seja, temos duas soluções linearmente independentes, logo (Af − λ1 )v = 0 para ∀v e, neste caso, Af = λ1 I, ou seja, a matriz é uma homotetia, sem precisarmos da mudança de base. Neste caso não fizemos exemplo pois a matriz é diagonal e teremos uma dilatação da área no caso de |λ1 | > 1 e uma compressão se 0 < |λ1 | < 1. As próximas figuras 25 e 26 ilustram os dois casos com a área do quadrado e sua transformação. 51 Figura 25: Dilatação da área limitada. Fonte: Autor. Figura 26: Compressão da área limitada. Fonte: Autor. 5.2 Operadores de R3 Supomos para esta seção, um operador linear A : R3 −→ R3 cuja matriz associada Af é equivalente a uma matriz J de Jordan. Segundo a Teoria de Jordan, a matriz J(3×3) 52 pode ser de uma das seguintes formas: λ1 0 0 (i) J = 0 λ2 0 onde λ1 , λ2 e λ3 são autovalores, não necessariamente distintos. 0 0 λ3 λ1 1 0 (ii) J = 0 λ1 0 onde λ1 é autovalor com, no mı́nimo, multiplicidade algébrica 0 0 λ2 2 e λ2 é outro autovalor. Note que λ1 pode ser igual a λ2 . λ1 1 0 (iii) J = 0 λ1 1 onde λ1 é autovalor com multiplicidade algébrica 3. 0 0 λ1 α β 0 (iv) J = −β α 0 onde λ1 = α − β, λ2 = α + β e λ3 são autovalores distintos. 0 0 λ3 Perceba que os tamanhos dos blocos dependem das multiplicidades dos autovalores e do ı́ndice de nilpotência do núcleo de (Af − λi I). Por exemplo, as seguintes matrizes estão na forma de Jordan e tem o 3 como autovalor de multiplicidade algébrica 3: 3 0 0 A= 0 3 0 0 0 3 3 1 0 B= 0 3 0 0 0 3 3 1 0 C = 0 3 1 . 0 0 3 Note que, mesmo tendo o autovalor 3 com multiplicidade algébrica 3, as matrizes acima são diferentes. Isso porque, o ı́ndice de nilpotência do núcleo de cada uma é diferente, ou seja, para a matriz A temos (A − 3I) = 0, para a matriz B temos (B − 3I)2 = 0 e (B − 3I)1 ̸= 0 e para a matriz C temos (C − 3I)3 = 0 e (C − 3I)k = 0 para k = 1, 2. 53 Além disso, notamos que a matriz A terá uma base de Jordan só com autovetores. A matriz B terá dois autovetores em sua base, e um quase autovetor. Já a matriz C, terá uma autovetor e os demais, quase autovetores em sua base de Jordan. Note que o número de autovetores é igual ao número de colunas onde a matriz é idêntica a matriz diagonal. A forma de Jordan de um operador é única, a menos de permutação de blocos, assim não abordaremos as permutações de cada caso, visto que cada permutação segue o pensamento análogo ao que será abordado a seguir para cada caso. Caso (i) Percebemos que a matriz de Jordan é uma matriz diagonal, ou seja, temos três autovalores reais e distintos ou temos uma matriz diagonal com todos valores iguais. Assim, para uma matriz C invertı́vel, temos que a matriz Af , de uma operador linear A : R3 −→ R3 , é equivalente a uma matriz J diagonal, conforme a igualdade abaixo: Af = CJC −1 . Essa matriz C é formada pelos autovetores associados aos autovalores de Af ordenadamente. Esses autovalores atuam sobre os autovetores dilatando ou comprimindo cada autovetor, como já vimos no caso (i) do R2 . Portanto, os autovetores se comportam analogamente ao caso (i) do R2 , ou seja, as opções de dilatação e compressão de cada autovetor do R3 , nada mais é que uma dilatação ou compressão do autovetor visto no plano (subespaço) onde o vetor está contido. Para exemplificar, faremos o próximo exemplo: Exemplo 7 Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é 1 − 13 0 Af = 0 2 0 . 0 0 3 Calculamos os autovalores λ1 , λ2 e λ3 da matriz descobrindo quem são as raı́zes do polinômio caracterı́stico. Percebemos que os autovalores são distintos, portanto basta calcularmos (A − λi I)v = 0, com 1 ≤ i ≤ 3, para descobrir os autovetores que formam a matriz C. Temos assim a seguinte igualdade: 54 1 1 0 1 − 31 0 1 0 0 1 − 13 0 0 2 0 = 0 3 0 0 2 0 0 13 0 . 0 0 3 0 0 2 0 0 3 0 0 12 | {z } | {z }| {z }| {z } Af C J C −1 Com isso, podemos perceber que o vetor v1 = (1, 0, 0) se conserva, pois tem como autovalor o λ1 = 1. Também podemos ver como uma dilatação/compreessão de λ1 = 1. Já o vetor v2 = (1, 3, 0) tem uma dilatação de λ2 = 2, pois λ2 é o autovalor associado ao autovetor v2 . O vetor v3 = (0, 0, 2) tem uma dilatação de λ3 = 3, pois λ3 é o autovalor associado ao autovetor v3 . Note que o que ocorre nesse exemplo é análogo ao que vimos no caso (i) do R2 . Note que a forma de Jordan neste caso pode ser uma matriz diagonal com autovalores todos iguais. Assim, temos que o núcleo do operador é nilpotente de ı́ndice 1, portanto a matriz de base de Jordan é composta só por autovetores. Exemplo 8 Percebemos que quando temos um operador linear cuja matriz Af associada é diagonal e com os elementos da diagonal todos iguais, a matriz J também é diagonal e é igual a Af . Note que, quando temos qualquer matriz diagonal com elemento iguais na diagonal, temos: λ 0 0 1 0 0 1 0 0 Af = 0 λ 0 = λ 0 1 0 = 0 1 0 λ. 0 0 λ 0 0 1 0 0 1 Assim temos o seguinte, para uma matriz Af diagonal com elementos iguais equivalente a uma J matriz de Jordan, vale: J = C −1 Af C = C −1 λIC = λIC −1 C = λI = Af . Caso (ii) Neste caso, temos uma matriz associada, cujo polinômio caracterı́stico têm três raı́zes, sendo uma de multiplicidade 2 e outra de multiplidade 1 ou um autovalor com multiplicidade 3. Para o caso do polinômio caracterı́stico ter três raı́zes sendo uma de multiplicidade 2 e outra de multiplidade 1, observamos que a matriz tem dois blocos na diagonal, um bloco 55 de 2 × 2, onde temos o autovalor λ1 na diagonal, e um bloco de 1 × 1, com o autovalor λ2 . O primeiro bloco faz um cisalhamento e uma dilatação/compressão em dois vetores da matriz C, como no caso (ii) do R2 . Já o bloco de tamanho 1 × 1, com o autovalor λ2 , faz uma dilatação/compressão em um vetor da matriz C. É importante dizer que, no caso de termos dois autovalores iguais, teremos um quase autovetor na matriz C, sendo este calculado de maneira análoga ao exemplo 4. Note que a matriz C que nos referimos tem uma ordenação, que depende da ordenação dos blocos da matriz de Jordan. Exemplo 9 Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é 2 0 0 Af = 1 2 −1 . 0 0 4 Calculamos as raı́zes do polinômio caracterı́stico p(λ) = −λ3 + 5λ2 − 12λ + 18. Encontramos duas raı́zes λ1 = λ2 = 2 e uma raı́z λ3 = 4. Assim, para encontrar os autovetores associados, calculamos o núcleo do operador, ou seja, (Af − λi I)vi = 0. Para o λ3 encontramos o vetor v3 = (0, − 12 , 1), que é autovetor associado a λ3 . Já para λ1 e λ2 , calculamos (Af − λ1 I)v1 = 0, onde encontramos o vetor v1 = (0, 1, 0), que é autovetor. Calculamos o núcleo ao quadrado e encontramos v1 e v2 = (1, 0, 0), onde v2 não é autovetor associado a 2, pois Av ̸= 2v (veja!). Assim, analogamente ao exercı́cio 4, calculamos v1 = (A − λI)v2 . Encontramos v2 = (1, 0, 0), o quase autovetor. Então temos a equivalência a seguir: 2 0 0 0 1 0 1 2 −1 = 1 0 − 12 0 0 4 0 0 1 | {z } | {z Af C 2 1 0 0 1 12 0 2 0 1 0 0 . 0 0 4 0 0 1 }| {z }| {z } J C −1 Como visto anteriormente, a matriz pode ter 3 raı́zes todas iguais, ou seja, a multiplicidade algébrica 3 do autovalor λi , porém o núcleo do operador tem ı́ndice de nilpotência 2. Assim, sua base de Jordan terá dois autovetores e um quase autovetor. 56 Exemplo 10 Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é 2 1 0 Af = 0 2 0 . 0 −1 2 Temos que (Af − 2I)2 = 0, portanto já sabemos que a forma de Jordan do operador é 2 1 0 J = 0 2 0 . 0 0 2 Para calcular a matriz C de base de Jordan, calculamos (Af −2I)v = 0, e encontramos v1 = (1, 0, 0) e v2 = (0, 0, 1). Sabemos que (Af − 2I)2 = 0, portanto seus vetores solução geram o espaço R3 . Pegamos o vetor que está no núcleo ao quadrado e não está no núcleo, este vetor é v3 = (0, 1, 0). Calculamos v4 = (Af − 2I)v3 = (1, 0, −1). Basta notarmos que o vetor v1 é autovetor do operador e então, a igualdade abaixo se estabelece: 0 0 −1 2 1 0 0 2 0 = 0 1 0 1 0 1 0 0 2 {z } | {z | J C −1 1 0 1 2 1 0 0 2 0 0 1 0 . −1 0 0 0 −1 2 }| {z }| {z } Af C Caso (iii) Neste caso engloba as matrizes cujos polinômios caracterı́sticos têm 3 raı́zes iguais e o núcleo do operador tem ı́ndice de nilpotência 3. Assim, para montar a base de Jordan, teremos que calcular dois quase autovetores e um autovetor, de forma análoga a anterior. Perceba que teremos uma dilatação/compressão na direção do autovetor da matriz C, e um cisalhamento na direção dos quase autovetores. Assim, temos um caso análogo ao caso (ii) do R2 . Exemplo 11 Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é 57 0 1 2 Af = 0 0 1 . 0 0 0 O polinômio caracterı́stico têm três raı́zes 0, ou seja, a multiplicidade algébrica do autovalor 0 é 3. Assim, calculamos o núcleo do operador, e encontramos o vetor v1 = (1, 0, 0). Após, calculamos o núcleo ao quadrado os vetores v1 = (1, 0, 0) e w = (0, 1, 0) e, no núcleo ao cubo encontramos os vetores canônicos e1 , e2 e e3 . Para formamos a base de Jordan temos que notar que v1 é autovetor, e será o primeiro da matriz C. Com ele calculamos (A − λI)v2 = v1 , onde v2 = (0, 1, 0) será outro vetor da matriz C. Pelo mesmo processo, agora utilizando o v2 , descobrimos v3 = (0, −2, 1). Assim, a seguinte igualdade se satisfaz: 1 0 0 0 1 0 1 0 0 0 1 2 0 0 1 = 0 1 −2 0 0 1 0 1 2 . 0 0 1 0 0 0 0 0 1 0 0 0 {z } | {z }| {z }| {z } | Af C J C −1 Caso (iv) Note que nesse caso temos dois blocos, um com uma rotação e outro com uma dilatação/compressão. Assim, os vetores v1 e v2 da matriz C terão uma rotação, como vimos no caso (iii) do R2 , e o vetor v3 da base de Jordan sofrerá uma dilatação ou compressão de acordo com o λ3 , caso análogo ao caso (i) do R2 . Note que podemos mudar a ordem dos blocos na matriz de Jordan, o que muda a ordem dos vetores na matriz C, mas não muda o pensamento anterior. Exemplo 12 Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é Af = √ 3 2 1 2 0 − 12 0 √ 3 0 . 2 0 1 Calculando os autovetores associados aos autovalores, temos a seguinte igualdade: 58 | √ 3 2 1 2 0 19 1 1 2 −1 0 − 12 0 − 15 0 0 25 2 2 √ 3 24 0 = 3 1 0 13 0 − 35 25 0 . 2 10 25 0 1 0 0 1 0 0 1 0 0 12 {z } | {z }| {z }| {z } Af C J C −1 Note que a matriz J é de rotação para o subespaço determinado pelos vetores v1 = (2, 3, 0) e v2 = (−1, 1, 0). Já na direção do v3 = (0, 0, 1) permanece igual, pois seu autovalor é 1. 59 6 Conclusão Ao final deste trabalho, acredita-se que obtivemos uma resposta para a pergunta: como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ? Percebemos que, segundo a Teoria de Jordan, as matrizes dos operadores lineares são equivalentes a matrizes de Jordan. Essas matrizes de Jordan foram caracterizadas no decorrer do trabalho, ou seja, mostramos como são genericamente essas matrizes. Através dessa caracterização, classificamos as matrizes dos operadores em classes, determinados pelas matrizes de Jordan equivalentes. No espaço vetorial R2 , percebemos que há quatro classes que atuam como dilatações, compressões, cisalhamentos e rotações, quando olhamos para os vetores da base de Jordan. Exemplificamos as transformações caso a caso e mostramos como ficam no plano R2 , ilustrando como atua o operador em cada caso. No R3 abordamos os quatro casos determinados pelas quatro diferentes formas de Jordan para as matrizes 3 × 3. Percebemos que no R3 acontece os pensamentos análogos ao R2 assim, exemplificamos os casos e percebemos, novamente, que os operadores se baseiam em dilatações, compressões, cisalhamentos e rotações. Sugere-se com este trabalho, um novo olhar para a caracterização dos operadores lineares abordados na disciplina de álgebra linear. Procuramos mostrar que os conhecimentos da álgebra linear são historicamente recentes e possuem um grande número de aplicações. Com isso, ao relacionar as operadores lineares com a teoria de Jordan, através de suas matrizes associadas, pode-se entender mais profundamente como tais funcionais atuam sobre os espaços vetoriais. 60 Referências [1] BUENO, Hamilton P. Álgebra Linear: um segundo curso. Rio de Janeiro: SBM, 2006. [2] CONCEIÇAO, Marcos R. F. Transformações no Plano: Uma Aplicação do Estudo de Matrizes com o Uso de PlanilhasEletrônicas. Rio Grande: PROFMAT/FURG, 2013. Diponı́vel em: http://bit.profmatsbm.org.br/xmlui/handle/123456789/237, acessado em 28/11/2014. [3] EVES, Howard. Introdução à história da matemática. Campinas, SP: Editora da UNICAMP, 2004. [4] GIL, Antonio C. Como Elaborar Projetos de Pesquisa. 5a ed. São Paulo: Atlas, 2010. [5] GONCALVES, Adilson. Introdução à algebra. 5a ed. Rio de Janeiro: IMPA, 2009. [6] GONÇALVES, Haniel S. A Importância das Matrizes e Transformações Lineares na Computação Gráfica. Profmat: 2013. Disponı́vel em http://bit.profmatsbm.org.br/xmlui/handle/123456789/524, acessado em 10/11/2014. [7] KATZ, Victor J. História da matemática. 2a . ed. Lisboa: Fundação Calouste Gulbenkian, 2010. [8] LIMA, Elon L. Álgebra Linear. 8a ed. Rio de Janeiro: IMPA, 2012. Coleção Matemática Universitária. [9] STORMOWSKI, Vandoir. Estudando matrizes a partir de transformações geométricas. Porto Alegre: PPG-ENSIMAT da UFRGS, 2008. Diponı́vel em: http://hdl.handle.net/10183/14965, acessado em 28/11/2014. [10] VAINSENCHER, Israel. Introdução às Curvas Algébricas Planas. Rio de janeiro, Instituto de Matemática Pura e Aplicada, CNPQ, 1996. Coleção Matemática Universitária.