UNIVERSIDADE DO ESTADO DE SANTA CATARINA - UDESC CENTRO DE CIÊNCIAS TECNOLÓGICAS - CCT CURSO DE LICENCIATURA EM MATEMÁTICA TRABALHO DE CONCLUSÃO DE CURSO A FORMA CANÔNICA DE JORDAN JÉSSICA NECKEL CAVALHEIRO JOINVILLE, 2015 JÉSSICA NECKEL CAVALHEIRO A FORMA CANÔNICA DE JORDAN Trabalho de Graduação apresentado ao Curso de Licenciatura em Matemática do Centro de Ciências Tecnológicas, da Universidade do Estado de Santa Catarina, como requisito parcial para a obtenção do grau de Licenciatura em Matemática. Orientador(a): Luis Mandler JOINVILLE, SC 2015 Prof. Ms. Marnei A minha família. Agradecimentos Primeiramente agradeço a Deus que me concedeu a oportunidade de realizar este curso. Sou grata a todas as minhas amigas que de alguma forma me ajudaram durante o curso, em especial as meninas Andressa Mocellin, Bruna Corso, Evelyn Freitas, Joyce Finamor e Karla Prudencio. Agradeço a professora Viviane, pois sem ela este trabalho não seria possível. E ao professor Marnei que aceitou gentilmente o desafio de orientar este trabalho e por sempre acreditar em mim. E finalmente, a minha família pelo apoio e amor que me deram. Resumo CAVALHEIRO, Jéssica Neckel. A Forma Canônica de Jordan. 2015. 101p.. Trabalho de Conclusão de Curso (Graduação em Licenciatura em Matemática) - Universidade do Estado de Santa Catarina, Joinville, 2015. A Forma Canônica de Jordan é um conceito bastante importante da Álgebra Linear, pois fornece a representação matricial mais simples possível para um operador linear não diagonalizável definido num espaço vetorial de dimensão finita. Para construir a teoria que permeia a construção da Forma de Jordan utilizam-se, neste trabalho, os conceitos, propriedades e resultados referentes a Somas Diretas, Subespaços Invariantes, Decomposição Primária, Operadores Nilpotentes, Autovetores Generalizados, dentre outros. Prova-se que a Forma Canônica de Jordan pode ser obtida quando o polinômio característico do operador considerado puder ser decomposto em fatores lineares, o que sempre ocorre no corpo dos complexos. A existência da Forma de Jordan para um operador qualquer será uma consequência da sua existência para operadores nilpotentes. Com o auxílio dos autovetores generalizados será possível exibir uma base para o espaço vetorial em relação à qual a representação matricial do operador linear considerado estará na Forma de Jordan. Diversos exemplos são resolvidos detalhadamente, incluindo uma aplicação da Forma de Jordan na resolução de Sistema de Equações Diferenciais Ordinárias. Palavras-chave: Álgebra Linear. A Forma Canônica de Jordan. Operadores Nilpotentes. Decomposição Primária. Abstract CAVALHEIRO, Jéssica Neckel. The Jordan Canonical Form. 2015. 101p.. Work of Course Conclusion (Graduate Degree in Mathematics) - Santa Catarina State University, Joinville, 2015. The Jordan’s canonical form is a important concept in linear algebra, because it provides the simplest possible matrix representation to the linear operator not diagonalizable in a vector space of finite dimension. To develop the theory construction of the Jordan’s canonical form, was used in this bachelor work, the concepts, properties and results for the Direct Sums, Invariant Subspaces, Primary Decomposition, Nilpotent Operator, Generalized Eigenvectors, etc. Prove up that the Jordan’s canonical form can be obtained when the characteristic polynomial of this operator can be decomposed into linear factors, and this always happens when it is in the field of the complexes. The existence of the Jordan’s form for any operator will be a consequence of its existence for nilpotent operators. With the aid of the generalized eigenvectors, it is possible to show a basis for vector space for which the matrix representation of linear operator is considered in Jordan’s form. Several examples are solved in detail, including an application of Jordan’s form to solve the system of ordinary differential equation. Key-words: Linear Algebra. The Jordan Canonical Form. Nilpotent Operators. Primary Decomposition. Lista de símbolos R Conjunto dos números reais K Corpo (real ou complexo) Mn (K) Conjunto das matrizes quadradas de ordem n sobre K P (K) Conjunto dos polinômios sobre K dim(V ) Dimensão do Espaço Vetorial V Im(T ) Imagem do operador T N uc(T ) Núcleo do operador T T |U Restrição do operador linear T : V −→ V a um subespaço vetorial U ⊂ V h i T h i T Representação matricial do operador T na base canônica γ detA Representação matricial do operador T na base γ Determinante da matriz A mdc(p1 , p2 ) Máximo divisor comum entre p1 (x) e p2 (x) i h Subespaço vetorial gerado pelos vetores v1 , v2 , · · · , vn v1 , v2 , · · · , vn Sumário INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1 CONCEITOS PRELIMINARES . . . . . . . . . . . . . . . . 19 1.1 SOMA DIRETA . . . . . . . . . . . . . . . . . . . . . . 19 1.2 1.3 1.4 SUBESPAÇOS INVARIANTES . . . . . . . . . . . . . . POLINÔMIOS DE MATRIZES . . . . . . . . . . . . . . AUTOVALOR E AUTOVETOR . . . . . . . . . . . . . 24 29 32 1.5 OPERADORES DIAGONALIZÁVEIS . . . . . . . . . . 43 2 FORMA CANÔNICA RACIONAL . . . . . . . . . . . . . . 47 2.1 2.2 DECOMPOSIÇÃO PRIMÁRIA . . . . . . . . . . . . . . SUBESPAÇOS CÍCLICOS . . . . . . . . . . . . . . . . 47 53 2.3 FORMA CANÔNICA RACIONAL . . . . . . . . . . . . 59 3 A FORMA CANÔNICA DE JORDAN . . . . . . . . . . . . 63 3.1 3.2 3.3 OPERADORES NILPOTENTES . . . . . . . . . . . . . AUTOVETORES GENERALIZADOS . . . . . . . . . . A FORMA CANÔNICA DE JORDAN . . . . . . . . . . CONCLUSÃO 63 75 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Apêndices 97 APÊNDICE A PROPRIEDADES . . . . . . . . . . . . . . . . 99 17 INTRODUÇÃO Durante o curso de graduação em Licenciatura em Matemática, o estudo dos operadores lineares fica basicamente restrito aos diagonalizáveis, ou seja, àqueles cujos autovetores formam uma base para o espaço vetorial e, portanto, podem ser representados através de uma matriz diagonal, sendo esta a melhor representação para estes casos. Porém, não é estudado, ao longo da graduação, se existe uma forma de representar os operadores que não são diagonalizáveis de uma maneira mais simples. Veremos que existem outras formas que possibilitam esta representação, uma delas é através da Forma Canônica Racional, que abordaremos de forma sucinta neste trabalho, visto que nosso maior objetivo é estudar a Forma Canônica de Jordan. Para realizar o estudo referente aos operadores não diagonalizáveis, aprofundaremos e ampliaremos muitos dos conhecimentos já vistos na disciplina de Álgebra Linear. Portanto, ao longo deste trabalho, será realizada uma revisão teórica dos conceitos necessários para que seja possível definir a Forma Canônica de Jordan de um operador linear definido num espaço vetorial de dimensão finita. Apesar de não ser possível encontrar uma base formada por autovetores, no caso dos operadores não diagonalizáveis, veremos que através da Forma Canônica de Jordan, existe uma base formada por autovetores generalizados a qual fornece uma representação matricial cuja diagonal é constituída por blocos de Jordan. Os blocos de Jordan são matrizes tais que sua diagonal principal é formada pelos autovalores do operador, logo abaixo desta diagonal os elementos são todos iguais a 1 e os restantes são todos nulos. Para construir a Forma Canônica de Jordan recorremos aos operadores nilpotentes, operadores que se anulam quando elevados a 18 Introdução uma determinada potência, pois a existência da Forma Canônica de Jordan para estes operadores possibilita sua existência para qualquer operador linear. Este trabalho consiste em uma pesquisa bibliográfica, pautada essencialmente em Coelho e Lourenço (2010), Lipschutz e Lipson (2011), Lima (2009) e Hoffman e Kunze (1971). No Capítulo 1 será feita uma revisão de alguns conceitos de Álgebra Linear. No Capítulo 2 será abordado a Forma Canônica Racional e o Decomposição Primária. E finalmente, no Capítulo 3 será apresentada a construção da Forma Canônica de Jordan, exibindo diversos exemplos. 19 1 CONCEITOS PRELIMINARES Para compreendermos a Forma Canônica de Jordan será necessário discorrer sobre alguns conceitos preliminares de Álgebra Linear que serão necessários para a sua construção. 1.1 SOMA DIRETA Indicaremos V como um espaço vetorial sobre o corpo K, real ou complexo, e U , W como subespaços vetoriais de V . Em nosso estudo será necessário escrever V como a soma de subespaços vetoriais, isto nos auxiliará a demonstrar alguns resultados e, muitas vezes, será conveniente que estes subespaços sejam ditos T-invariantes. Quando V = U + W , isto significa que para qualquer v ∈ V temos que v = u + w, onde u ∈ U e w ∈ W . Desta forma, podemos definir a soma direta de subespaços vetoriais. Definição 1.1. Dizemos que V é uma soma direta de U e W se para todo elemento de v ∈ V , tem-se v = u + w, com u ∈ U e w ∈ W , de maneira única. − → Da mesma forma, se V = U + W e U ∩ W = { 0 }, então podemos afirmar que a soma entre U e W é direta. Assim, temos o seguinte teorema. Teorema 1.1. Seja V um espaço vetorial sobre o corpo K e sejam U − → e W dois subespaços de V. Se V = U + W e U ∩ W = { 0 }, então a soma é direta. Demonstração: Seja v ∈ V tal que v = u + w, sendo u ∈ U e w ∈ W . Para provar que a soma é direta precisamos mostrar que Capítulo 1. CONCEITOS PRELIMINARES 20 v = u + w é escrito de forma única. Assim, sejam u′ ∈ U e w′ ∈ V tal que v = u′ + w′ . Desta forma u + w = u′ + w ′ e então, u − u′ = w ′ − w − → com u − u′ ∈ U e w′ − w ∈ W . Como U ∩ W = { 0 }, temos u − u′ = w ′ − w = 0 Donde, u − u′ = 0 e w′ − w = 0, desta forma u = u′ e w = w′ . Logo, v = u + w é escrito de forma única. Observação 1.1. Quando V é escrito numa soma direta de subespaços U e W, denotamos V = U ⊕ W. A seguir, veremos que se V = U + W podemos encontrar a dimensão desta soma através da expressão dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ). Porém, se a soma é direta fica evidente que dim(U + W ) = dim(U ) + dim(W ). Para demonstrar o Teorema referente à esta dimensão, utilizaremos o seguinte Lema, baseado em Lipschutz e Lipson (2010). Lema 1.1. Sejam V um espaço vetorial de dimensão finita e α = {u1 , u2 , . . . , ur } um conjunto de vetores linearmente independente em V. Então α pode ser estendido para uma base de V. Teorema 1.2. Sejam U e W subespaços vetoriais de V com dimensão finita. Então: dim(U + W ) = dimU + dimW − dim(U ∩ W ). 1.1. SOMA DIRETA 21 Demonstração: Sejam dimU = m, dimW = n e dim(U ∩ W ) = r. Suponhamos que α = {v1 , v2 , . . . , vr } é uma base de U ∩ W . Pelo Lema 1.1, podemos estender α a uma base de U e a uma base de W . Assim, obtemos β = {v1 , . . . , vr , u1 , u2 , . . . , um−r } uma base de U e γ = {v1 , . . . , vr , w1 , w2 , . . . , wn−r } uma base de W e consideremos δ = {v1 , . . . , vr , u1 , . . . , um−r , w1 , . . . , wn−r }. Observe que δ tem m + n − r elementos. Precisamos mostrar que δ é uma base de U + W . Como β gera U e γ gera W , então a união de β com γ, que denotamos por δ, gera U + W . Agora basta provar que γ é linearmente independente. Suponhamos que existem escalares ai , bj , ck , com 1 ≤ i ≤ r, 1 ≤ j ≤ m − r e 1 ≤ k ≤ n − r, tais que: − → a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r + c1 w1 + . . . + cn−r wn−r = 0 . (1.1) Seja, v = a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r . (1.2) Por 1.1, obtemos: v = −c1 w1 − . . . − cn−r wn−r . (1.3) Como β é uma base de U , então v ∈ U . Por 1.3 concluímos que v ∈ W . Desta forma, v ∈ U ∩ W . Como α é base de U ∩ W , então existem escalares d1 , . . . , dr tais que v = d1 v1 + . . . + dr vr . Por 1.3, temos d1 v1 + . . . + dr vr = −c1 w1 − . . . − cn−r wn−r Capítulo 1. CONCEITOS PRELIMINARES 22 isto é, − → d1 v1 + . . . + dr vr + c1 w1 + . . . + cn−r wn−r = 0 . Como o conjunto γ é linearmente independente, temos que c1 = · · · = cn−r = 0. Assim, a equação 1.1 resulta em − → a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r = 0 . Como β é linearmente independente, temos que a1 = · · · = ar = b1 = · · · = bm−r = 0. Logo, de 1.1 concluímos que todos os coeficientes ai , bj , ck são nulos, portanto δ é linearmente independente, finalizando a demonstração. Depois de comprovado o Teorema 1.2, a demonstração do próximo Corolário é trivial. Corolário 1.1. Se V é um espaço vetorial sobre K de dimensão finita e V = U ⊕ W , então dim(V ) = dim(U ) + dim(W ). Demonstração: Como a soma de U e W é direta, temos que − → U ∩ W = { 0 }. Assim, dim(U ∩ W ) = 0. Portanto, pelo Teorema 1.2 concluímos que dim(V ) = dim(U ) + dim(W ). Se V = U ⊕ W e são conhecidas às bases de U e W , é possível encontrar uma base para o espaço vetorial V , basta apenas fazer a união de uma das bases de U com uma base de W , conforme o próximo Teorema. Teorema 1.3. Suponha que V = U ⊕ W e que B ′ = {u1 , . . . , um } e B ′′ = {w1 , . . . , wn } sejam subconjuntos linearmente independentes de U e W , respectivamente. Então, são válidas as seguintes afirmações: 1.1. SOMA DIRETA 23 (i) B = B ′ ∪ B ′′ é linearmente independente; (ii) Se B ′ e B ′′ forem bases de U e W , respectivamente, então B = B ′ ∪ B ′′ é uma base de V . Demonstração: (i) Suponhamos que existam escalares ai , bj pertencentes ao corpo K , 1 ≤ i ≤ m, 1 ≤ j ≤ n, tais que − → a1 u1 + · · · + am um + b1 w1 + · · · + bn wn = 0 . Então, − → − → (a1 u1 + · · · + am um ) + (b1 w1 + · · · + bn wn ) = 0 + 0 onde a1 u1 +· · ·+am um ∈ U e b1 w1 +· · ·+bn wn ∈ W . Como V = U ⊕W , − → então esta soma para 0 é única, assim − → − → a1 u1 + · · · + am um = 0 e b1 w1 + · · · + bn wn = 0 . Como B ′ e B ′′ são conjuntos linearmente independentes então, os escalares ai e bj são todos nulos. Portanto, B = B ′ ∪ B ′′ é linearmente independente. (ii) Pelo item anterior, B = B ′ ∪ B ′′ é linearmente independente, assim basta mostrar que B gera V . Seja v ∈ U + W , então v = u + w, com u ∈ U e w ∈ W . Como B ′ é base de U e B ′′ base de W , temos u = a1 u1 + · · · + am um w = b1 w1 + · · · + bn wn , com ai , bj ∈ K. Então, v = u + w = a1 u1 + · · · + am um + b1 w1 + · · · + bn wn . Desta forma, B = B ′ ∪ B ′′ gera U + W , completando a demonstração. Os resultados apresentados nesta seção usam o fato de V ser decomposto em uma soma de dois subespaços. Porém, este resultados permanecem válidos quando a soma se referir a qualquer quantidade finita de subespaços vetoriais. 24 Capítulo 1. CONCEITOS PRELIMINARES 1.2 SUBESPAÇOS INVARIANTES Os subespaços invariantes são fundamentais para o nosso estudo e os usaremos nos próximos capítulos. Lima (2009) define estes subespaços da seguinte forma: Definição 1.2. Um subespaço vetorial W ⊂ V é dito invariante pelo operador T : V −→ V quando, para qualquer v ∈ W , T (v) ∈ W , ou ainda, T (W ) ⊂ W . Podemos também chamar este subespaço de T-invariante. Exemplo 1.1. Considere o subespaço W = {(x, y, z) ∈ R3 /y = 2x}. Para o operador T (x, y, z) = x2 , y2 , 10z , o subespaço W é T -invariante, pois x x 2x , , 10z = , x, 10z ∈ W. T (x, 2x, z) = 2 2 2 Ao longo do trabalho denotaremos o núcleo e a imagem do operador linear T por N uc(T ) e Im(T ), respectivamente. Estes subespaços são T-invariantes, conforme mostraremos na seguinte proposição: Proposição 1.1. Seja V um espaço vetorial de dimensão finita sobre o corpo K e considere o operador linear T : V → V . Então (i) os subespaços Nuc(T) e Im(T) são T-invariantes; (ii) dado W ⊂ V subespaço vetorial e λ ∈ K, W é (λI − T )-invariante se, e somente se, W for T − invariante. Demonstração: (i) Sabemos que para qualquer v ∈ N uc(T ) − → − → temos T (v) = 0 , como 0 ∈ N uc(T ), então T (v) ∈ N uc(T ). Portanto, N uc(T ) é um subespaço T-invariante. Ainda, para qualquer u ∈ V , T (u) ∈ Im(T ), então é evidente que Im(T ) é um subespaço T-invariante. (ii) Seja W um subespaço (λI − T )-invariante. Dado w ∈ W temos que (λI − T )w ∈ W. 1.2. SUBESPAÇOS INVARIANTES 25 Seja w′ ∈ W tal que (λI − T )(w) = w′ ou seja, λw − T (w) = w′ . Isto é, T (w) = λw − w′ ∈ W. Logo, W é T -invariante. Suponhamos agora que W é T -invariante assim, T (w) = w′′ ∈ W , para todo w ∈ W . Desta forma, para todo w ∈ W temos λw − T (w) = λw − w′′ ∈ W. Assim, (λI − T )(w) ∈ W. Portanto, W é (λI − T )-invariante. Ao estudarmos o operador linear T estaremos muito interessados em decomposições em somas diretas V = W1 ⊕ · · · ⊕ Wn , onde cada um dos subespaços Wi seja T-invariante. Com isso, será conveniente olharmos para as restrições do operador linear nos subespaços Wi que nos permitirá obter algumas informações sobre T . Com base nesta decomposição, o Teorema 1.4 nos possibilitará representar a matriz do operador T em um "formato" de matriz diagonal. Teorema 1.4. Seja T : V −→ V um operador linear e V = W1 ⊕ W2 , onde W1 , W2 são subespaços T-invariantes. Sejam T1 = T |W1 e T2 = T |W2 restrições do operador T nos subespaços W1 e W2 , respectivamente, então: [T ] = ! [T1 ] 0 0 [T2 ] " . Capítulo 1. CONCEITOS PRELIMINARES 26 Demonstração: Sejam α = {v1 , . . . , vn } uma base de W1 e β = {u1 , . . . , um } uma base de W2 . Como W1 e W2 são T-invariantes, temos que T (vi ) ∈ W1 , 1≤i≤n e T (uj ) ∈ W2 , 1 ≤ j ≤ m. Como V = W1 ⊕ W2 , pelo Teorema 1.3, temos que γ = {v1 , . . . , vn , u1 , . . . , um } é uma base para V. Assim, obteremos a representação matricial de T na base γ da seguinte forma: T (v1 ) = a11 v1 + · · · + an1 vn + 0 · u1 + · · · + 0 · um T (v2 ) = a12 v1 + · · · + an2 vn + 0 · u1 + · · · + 0 · um .. . T (vn ) = a1n v1 + · · · + ann vn + 0 · u1 + · · · + 0 · um . E ainda, T (u1 ) = 0 · v1 + · · · + 0 · vn + b11 u1 + · · · + bm1 um T (u2 ) = .. . 0 · v1 + · · · + 0 · vn + b12 u1 + · · · + bm2 um T (um ) = 0 · v1 + · · · + 0 · vn + b1m u1 + · · · + bmm um . Portanto, a11 . .. an1 [T ]γ = 0 . . . 0 a12 .. . an2 a1n .. . ann ··· 0 .. . 0 0 .. . 0 ··· ··· ··· 0 .. . 0 b11 .. ··· . · · · bm1 0 .. . 0 ··· b12 .. . bm2 ··· ··· ··· ··· ··· 0 .. . 0 . b1m .. . bmm 1.2. SUBESPAÇOS INVARIANTES 27 Denotando as matrizes de T1 = T |W1 e T2 = T |W2 respectivamente por [T1 ]α = [aii ] e [T2 ]β = [bjj ], obtemos, facilmente, que ! [T1 ]α [T ]γ = 0 0 [T2 ]β " . Suponhamos que V = W1 ⊕W2 ⊕· · ·⊕Wn , sendo Wi subespaço T-invariante. Seja αi uma base de Wi , com 1 ≤ i ≤ n. Conforme o Teorema 1.3, podemos escrever a base α de V como α = α1 ∪ · · · ∪ αn . Generalizando o Teorema 1.4, representamos a matriz de T : V −→ V da seguinte forma: [T ]α = [T1 ]α1 0 ··· 0 .. . 0 [T2 ]α2 .. . 0 ··· .. . 0 0 .. . . · · · [Tn ]αn Um resultado interessante referente aos subespaços Im(T ) e N uc(T ) T-invariantes é que, dado uma transformação T : V −→ W , sendo V e W espaços vetoriais de dimensão finita, temos que dim(V ) = dim(N uc(T )) + dim(Im(T )). Este resultado, intitulado de Teorema do Núcleo e da Imagem, utiliza o fato de que se α = {T (u1 ), . . . , T (up )} e β = {v1 , . . . , vq } são bases de Im(T ) e N uc(T ), respectivamente, então existe uma base para V da forma: γ = {u1 , . . . , up , v1 , . . . , vq }. Elon (2009) enuncia o Teorema do Núcleo e da Imagem da seguinte forma: Teorema 1.5 (Teorema do Núcleo e da Imagem). Sejam V, W espaços vetoriais de dimensão finita. Se T : V → W é uma transformação linear Capítulo 1. CONCEITOS PRELIMINARES 28 qualquer, então dim(V ) = dim(N uc(T )) + dim(Im(T )). Demonstração: Sejam α e β bases de Im(T ) e N uc(T ), respectivamente, dadas por α = {T (u1 ), . . . , T (up )} e β = {v1 , . . . , vq }. Se tivermos − → a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq = 0 (1.4) então, aplicando a transformação T em ambos os lados da igualdade, obtemos − → a1 T (u1 ) + · · · + ap T (up ) + b1 T (v1 ) + · · · + bq T (vq ) = 0 . Como os vetores v1 , . . . , vq fazem parte do Núcleo de T , então − → a1 T (u1 ) + · · · + ap T (up ) = 0 . Como os vetores T (u1 ), . . . , T (up ) são linearmente independentes, segue que a1 = · · · = ap = 0. Da igualdade 1.4, obtemos − → b1 v1 + · · · + bq vq = 0 . Assim, temos que b1 = · · · = bq = 0, pois os vetores v1 , . . . , vp são linearmente independentes. Desta forma, sabemos que os vetores u1 , . . . , up , v1 , . . . , vq são linearmente independentes. Neste momento, precisamos mostrar que para qualquer w ∈ V tem-se w = a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq . Se w ∈ V então, T (w) ∈ Im(T ). Desta forma podemos escrever T (w) como uma combinação linear da base α. Assim, T (w) = a1 T (u1 ) + · · · + ap T (up ). (1.5) 1.3. POLINÔMIOS DE MATRIZES 29 Reescrevendo a igualdade 1.5, temos − → T (w) − a1 T (u1 ) − · · · − ap T (up ) = 0 , isto é, − → T (w − (a1 u1 + · · · + ap up )) = 0 . Então, o vetor w − (a1 u1 + · · · + ap up ) pertence ao N uc(T ) e assim podemos escrevê-lo como uma combinação linear dos vetores da base β. Portanto, w − (a1 u1 + · · · + ap up ) = b1 v1 + · · · + bq vq , isto é, w = a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq . Logo, o conjunto {u1 , . . . , up , v1 , . . . , vq } gera o espaço vetorial V e portanto forma uma base de V . Desta forma, dim(V ) = p + q = dim(N uc(T )) + dim(Im(T )). 1.3 POLINÔMIOS DE MATRIZES O objetivo desta seção é estabelecer algumas das propriedades básicas referentes a polinômios de matrizes, as quais enunciaremos no Teorema 1.6. Estas propriedades serão úteis na demonstração de alguns resultados posteriores. Seja p(x) um polinômio de grau n, definido da seguinte forma: p(x) = an xn + · · · + a1 x + a0 . Se A é uma matriz quadrada, definimos o polinômio da matriz A, através de p(A) = an An + · · · + a1 A + a0 I. Dizemos que A é raiz do polinômio p(x) quando p(A) é a matriz nula. Capítulo 1. CONCEITOS PRELIMINARES 30 Teorema 1.6. Sejam p(x) e q(x) polinômios representados por p(x) = an xn + · · · + a1 x + a0 e q(x) = bm xm + · · · + b1 x + b0 , onde x ∈ K. Dados qualquer matriz quadrada A e qualquer escalar k, valem as seguintes propriedades: (i) (kp + q)(A) = kp(A) + q(A). (ii) (pq)(A) = p(A)q(A). (iii) p(A)q(A) = q(A)p(A). Demonstração: (i) Seja kp(x) = kan xn + · · · + ka1 x + ka0 . Suponhamos que m ≤ n e assim definiremos (kp + q)(x) = (kan + bn )xn + · · · + (ka1 + b1 )x + (ka0 + b0 ), com bi = 0 quando i > m. Assim, (kp + q)(A) = (kan + bn )An + · · · + (ka1 + b1 )A + (ka0 + b0 )I = kan An + bn An + · · · + ka1 A + b1 A + ka0 I + b0 I = (kan An + · · · + ka1 A + ka0 I) + (bn An + · · · + b1 A + b0 I) = k(an An + · · · + a1 A + a0 I) + (bn An + · · · + b1 A + b0 I) = kp(A) + q(A). Logo, (kp + q)(A) = kp(A) + q(A). (ii) Lipschutz e Lipson (2011) definem o polinômio (pq)(x) da seguinte forma: cn+m xn+m + · · · + c1 x + c0 n+m X = cr xr , (pq)(x) = r=0 sendo cr = a0 br + a1 br−1 + · · · + ar b0 = r P ai br−1 . Assim, segue que i=0 (pq)(A) = n+m X r=0 cr Ar . 1.3. POLINÔMIOS DE MATRIZES 31 E, portanto p(A)q(A) = ! n X ai Ai i=0 = n X i=0 = n+m X m X j=0 " m X j=0 bj Aj ai bj Ai+j cr Ar r=0 = (pq)(A). Logo, p(A)q(A) = (pq)(A). (iii) Como a igualdade p(x)q(x) = q(x)p(x) é verdadeira, para qualquer x ∈ K, pelo item (ii) temos p(A)q(A) = (pq)(A) = (qp)(A) = q(A)p(A). 2 2 Exemplo 1.2. ! " Sejam p1 (x) = x − 3x + 7 e p2 (x) = x − 6x + 13, para 1 −2 A= , temos que 4 5 p1 (A) = A2 − 3A + 7I ! "! " ! " ! 1 −2 1 −2 1 −2 1 = −3 +7 4 5 4 5 4 5 0 ! " ! " ! " −7 −12 −3 6 7 0 = + + 24 17 −12 −15 0 7 ! " −3 −6 = . 12 9 0 1 " Capítulo 1. CONCEITOS PRELIMINARES 32 E, A2 − 6A + 13I " " ! " ! "! ! 1 0 1 −2 1 −2 1 −2 + 13 −6 = 0 1 4 5 4 5 4 5 ! " ! " ! " 13 0 −7 −12 −6 12 = + + 24 17 −24 −30 0 13 " ! 0 0 . = 0 0 p2 (A) = Note que p2 (A) resulta na matriz nula, assim A é raiz do polinômio p2 . Sejam T : V −→ V um operador linear sobre um espaço vetorial sobre K e p(x) = an xn +· · ·+a1 x+a0 . Identificando a representação matricial de T por A, podemos definir p(T ) da mesma forma como foi feito para p(A), isto é, p(T ) = an T n + · · · + a1 T + a0 I. Com isso, as relações estabelecidas no Teorema 1.6 permanecem válidas para operadores lineares. 1.4 AUTOVALOR E AUTOVETOR Ao longo desta seção discutiremos sobre os polinômios característico e minimal de um operador linear e suas relações. Nosso objetivo principal será mostrar o Teorema de Cayley-Hamilton que afirma que um operador sempre anula o seu polinômio característico. Primeiramente, definiremos autovalor e autovetor, conceitos que estão relacionados com estes dois polinômios. Definição 1.3. Seja T : V −→ V um operador linear. Um autovalor − → de T é um escalar λ em K tal que exista v 6= 0 em V com T (v) = λv. − → Assim, o vetor v ∈ V , v 6= 0 , tal que T (v) = λv é chamado autovetor de T associado ao autovalor λ. 1.4. AUTOVALOR E AUTOVETOR 33 Teorema 1.7. Seja T : V −→ V um operador linear. As seguintes afirmações são equivalentes: (i) λ é autovalor de T ; (ii) O operador (λI − T ) é singular; (iii) det(λI − [T ]) = 0. Demonstração: Se λ é autovalor de T então existe um vetor − → não nulo v ∈ V tal que T (v) = λv. Desta forma, (λI − [T ])v = 0 . A partir disso é fácil perceber que as afirmações são equivalentes. Considere o polinômio p(x) = det(xI − T ) de grau n e cujo termo líder é xn . Este polinômio é chamado de polinômio característico de T e suas raízes, de acordo com o Teorema 1.7, são os autovalores de T. Lema 1.2. Matrizes semelhantes têm o mesmo polinômio característico. Demonstração: Sejam A e B duas matrizes semelhantes. Logo existe P inversível tal que A = P BP −1 . Assim, det(xI − A) = det(xI − P BP −1 ) = det(xP IP −1 − P BP −1 ) = det(P (xI − B)P −1 ) = detP · det(xI − B) · detP −1 1 = detP · det(xI − B) detP = det(xI − B). Logo, as matrizes A e B possuem o mesmo polinômio característico. Capítulo 1. CONCEITOS PRELIMINARES 34 Como podemos representar um operador linear matricialmente, então o Lema acima aplica-se também aos operadores. Se T : V −→ V é um operador linear e V = W1 ⊕ W2 , então é possível escrever o polinômio característico de T em função dos polinômios característicos das restrições de T a W1 e W2 . Este resultado nos auxiliará na demonstração do Teorema que constrói a forma de Jordan de um operador linear. Proposição 1.2. Seja V = W1 ⊕ W2 , onde W1 e W2 são subespaços T -invariantes. Considere o operador linear T : V −→ V e sejam T1 = T |W1 e T2 = T |W2 , então p(x) = p1 (x) · p2 (x) onde p(x), p1 (x) e p2 (x) são os polinômios característicos de T, T1 e T2 , respectivamente. Demonstração: Segundo o Teorema 1.4, podemos representar o operador linear T da seguinte maneira: " ! [T1 ] 0 . [T ] = 0 [T2 ] Desta forma, obtemos facilmente o polinômio p(x). Assim, p(x) = det(xI − [T ]) ! " xI − [T1 ] 0 = det 0 xI − [T2 ] = det((xI − [T1 ]) · (xI − [T2 ])) = det(xI − [T1 ]) · det(xI − [T2 ]) = p1 (x) · p2 (x). Antes de demonstrarmos o Teorema de Cayley-Hamilton vamos definir, baseado em Coelho e Lourenço (2010) e Lipchutz e Lipson 1.4. AUTOVALOR E AUTOVETOR 35 (2011), o conceito de uma Matriz Adjunta, pois o usaremos em nossa demonstração. Definição 1.4. Seja Mn (K) o conjunto das matrizes quadradas de ordem n sobre K. Dado A ∈ Mn (K), a matriz adjunta de A será a transposta da matriz B = [bij ] tal que bij = (−1)i+j det(Aij ) onde Aij é a matriz em Mn−1 (K) formada a partir de A retirando-se sua iésima linha e sua j-ésima coluna. Dizemos que os elementos bij são os cofatores de A. 2 Exemplo 1.3. Seja A = 0 1 adjunta B. 3 −4 −4 2 , encontraremos a matriz −1 5 Cada elemento da matriz B é escrito da seguinte forma: ! " −4 2 b11 = (−1)1+1 · det = −20 + 2 = −18 −1 5 ! " 0 2 =2 b12 = (−1)1+2 · det 1 5 " ! 0 −4 b13 = (−1)1+3 · det =4 1 −1 ! " 3 −4 = −(15 − 4) = −11 b21 = (−1)2+1 · det −1 5 ! " 2 −4 b22 = (−1)2+2 · det = 10 + 4 = 14 1 5 " ! 2 3 b23 = (−1)2+3 · det = −(−2 − 3) = 5 1 −1 ! " 3 −4 = 6 − 16 = −10 b31 = (−1)3+1 · det −4 2 Capítulo 1. CONCEITOS PRELIMINARES 36 b32 = (−1)3+2 · det ! 2 −4 0 2 ! 2 3 b33 = (−1)3+3 · det 0 −4 Logo, a adjunta de A é a matriz B= −18 2 4 " = −4 " = −8 −11 −10 14 5 Note que detA = −46 e que −46 0 AB = 0 −46 0 0 −4 . −8 0 0 = BA −46 Esta é uma propriedade geral satisfeita por uma matriz e sua adjunta. Lema 1.3. Para qualquer matriz quadrada A, sendo B sua adjunta, é válido que A · B = B · A = detA · I Utilizando este Lema, cuja demonstração pode ser obtida em Lipschutz e Lipson (2011), conseguiremos provar o Teorema a seguir. Teorema 1.8 (Cayley-Hamilton). Se T é um operador linear sobre V e se p(x) é o polinômio característico de T , então p([T ]) = 0. Demonstração: Sejam A = [T ] e p(x) o polinômio característico de A, dado por: p(x) = det(xI − A) = xn + an−1 xn−1 + · · · + a1 x + a0 . Denotemos por B(x) a matriz adjunta de (xI − A), onde os elementos de B(x) são cofatores da matriz (xI − A). Observe que podemos escrever cada elemento de B(x) como um polinômio de grau no 1.4. AUTOVALOR E AUTOVETOR 37 máximo igual a n − 1. Assim, vamos decompor a matriz adjunta da seguinte forma: B(x) = Bn−1 xn−1 + · · · + B1 x + B0 . Usando o Lema 1.3, temos que p(x) · I = det(xI − A) · I = (xI − A) · B(x) = (xI − A) · (Bn−1 xn−1 + · · · + B1 x + B0 ) = Bn−1 xn + · · · + B1 x2 + B0 x − ABn−1 − · · · − AB1 x − AB0 . (1.6) Por outro lado, p(x) · I = (xn + an−1 xn−1 + · · · + a1 x + a0 ) · I = xn I + an−1 xn−1 I + · · · + a1 xI + a0 I. (1.7) Igualando as equações 1.6 e 1.7 e comparando os coeficientes das potências correspondentes de x, obtemos Bn−1 Bn−2 − ABn−1 B − ABn−2 n−3 .. . B1 − AB2 B0 − AB1 −AB0 = = = .. . = = = I an−1 I an−2 I .. . . a2 I a1 I a0 I Multiplicando essas equações respectivamente por An , An−1 , . . . , A, I, obtemos 38 Capítulo 1. CONCEITOS PRELIMINARES An Bn−1 An−1 Bn−2 − An Bn−1 An−2 Bn−3 − An−1 Bn−2 .. . A2 B1 − A3 B2 AB0 − A2 B1 −AB0 = An = an−1 An−1 = an−2 An−2 .. .. . . . = a2 A = = a1 A a0 I Somando estas equações, obtemos 0 = An + an−1 An−1 + · · · + a1 A + a0 I. Portanto, p(A) = p([T ]) = 0. O Teorema de Cayley-Hamilton afirma que a matriz de um operador linear sempre é um zero do seu polinômio característico. Exemplo 1.4. Seja T : R2 → R2 um operador linear dado por T (x, y, z) = (x + 2y, 4y). Denotaremos A = [T ]. Representando o operador matricialmente, temos ! " 1 2 A= . 0 4 Para obter o polinômio característico de T , basta calcular o det(xI −A), assim p(x) = det(xI − A) ! x−1 = det 0 = −2 x−4 (x − 1)(x − 4) = x2 − 5x + 4. " 1.4. AUTOVALOR E AUTOVETOR 39 Portanto, o polinômio característico de T é dado por p(x) = x2 −5x+4. Calculando p(A), temos p(A) = A2 − 5A + 4I. Assim, p(A) ! "! " ! " ! " 1 2 1 2 1 2 1 0 = −5 +4 0 4 0 4 0 4 0 1 ! " ! " ! " 1 10 5 10 4 0 = − + 0 16 0 20 0 4 " " ! ! 4 0 4 0 − = 0 4 0 4 ! " 0 0 = . 0 0 Logo, p([T ]) = 0. − → Um polinômio m(x) é chamado T-anulador se m(T )(v) = 0 , para qualquer v ∈ V , com base nisso definiremos o polinômio minimal de acordo com Coelho e Lourenço (2010). Definição 1.5. O polinômio minimal de um operador T é o polinômio − → mônico m(x) de menor grau tal que m(T )(v) = 0 , para qualquer v ∈ V. Conforme o Teorema de Cayley-Hamilton, o polinômio característico é um polinômio T-anulador, porém não necessariamente será o minimal. Estas informações nos ajudam a perceber que o polinômio minimal do operador T divide qualquer polinômio T-anulador. Algumas conclusões podem ser obtidas a respeito do polinômio característico p(x) e o polinômio minimal m(x). Estes polinômios possuem as mesmas raízes (a menos de multiplicidade) e o minimal é divisor do característico. Capítulo 1. CONCEITOS PRELIMINARES 40 Conforme Coelho e Lourenço (2010) e Lipschutz e Lipson (2011) enunciaremos o próximo Teorema que estabelece essas relações. Teorema 1.9. Seja T : V −→ V operador linear sobre um espaço V em um corpo K. São válidas as seguintes afirmações: (i) m(x) divide p(x); (ii) m(x) possui as mesmas raízes de p(x), a menos de multiplicidade. Demonstração: Seja P (K) o conjunto de polinômios sobre o corpo K. Pelo algoritmo de divisão de Euclides, existem polinômios q, r ∈ P (K) tais que p(x) = m(x)q(x) + r(x), ∀x ∈ K (1.8) onde r(x) = 0 ou grau(r(x)) < grau(m(x)). Aplicando a equação 1.8 em T (v), obtemos p(T )(v) = m(T )(v)q(T )(v) + r(T )(v). − → Por definição m(T )(v) = 0 e pelo Teorema 1.8 temos p(T )(v) = − → − → 0 , assim r(T )(v) = 0 , para qualquer v ∈ V . Se r(x) 6= 0, então r(x) é um polinômio que tem grau menor do que m(x). Porém, r(x) possui T como raiz, o que contradiz a definição de polinômio minimal. Portanto, r(x) = 0 e assim p(x) = m(x)q(x), ∀x ∈ K isto é, m(x) divide p(x). (ii) Precisamos provar que se λ for raiz de p(x), então também será raiz de m(x). Analogamente, se λ for raiz de m(x), terá que ser raiz de p(x). Se p(λ) = 0, então λ é autovalor de T. Assim, existe v ∈ V tal − → que T (v) = λv, com v 6= 0 . Observe que, para cada i ≥ 1, temos T i (v) = λi v. 1.4. AUTOVALOR E AUTOVETOR 41 Escrevendo m(x) = xm + am−1 xm−1 + · · · + a1 x + a0 , obtemos − → 0 = m(T )(v) = T m (v) + am−1 T m−1 (v) + · · · + a1 T (v) + a0 (v) = λm (v) + am−1 λm−1 (v) + · · · + a1 λ(v) + a0 (v) = m (λ + m−1 X ai λi )(v). i=0 − → Como v 6= 0 , então m λ + m−1 X ai λi = 0. i=0 Ou seja, m(λ) = 0. Portanto, λ é raiz de m(x). Suponhamos agora que m(λ) = 0, então podemos escrever m(x) da seguinte forma m(x) = (x − λ)q(x). Pela minimalidade de m(x), podemos afirmar que q(T ) 6= 0, então − → existe u ∈ V tal que q(T )(u) 6= 0 . Seja v = q(T )(u), assim − → 0 = m(T )(u) = (T − λI)q(T )(u) = (T − λI)(v). Desta forma, T (v) = λv, logo λ é autovalor de T, ou seja, p(λ) = 0. Exemplo 1.5. Seja T : R4 → R4 operador linear dado por T (x, y, z, t) = (2x − y + t, 3y − z, y + z, −y + 3t). O operador T possui representação da forma 2 −1 0 0 3 −1 [T ] = 0 1 1 0 −1 0 matricial na base canônica 1 0 . 0 3 Capítulo 1. CONCEITOS PRELIMINARES 42 Observe que o polinômio p(x) = det(xI − T ) = (x − 2)3 (x − 3) é o polinômio característico de T . O polinômio minimal de T deve ser mônico e possuir as mesmas raízes que o polinômio característico, então os polinômios (x − 2)(x − 3), (x − 2)2 (x − 3) e (x − 2)3 (x − 3) são possíveis minimais. Como o polinômio minimal deve ser o de menor grau tal que m([T ]) = 0, então denotando m1 (x) = (x − 2)(x − 3), m2 (x) = (x − 2)2 (x − 3) e m3 (x) = (x − 2)3 (x − 3), temos m1 ([T ]) = (T − 2)(T 0 −1 0 1 = 0 1 0 −1 0 −1 0 −1 = 0 −1 0 −1 m2 ([T ]) − 3) −1 −1 0 1 0 1 0 0 −1 0 −1 0 1 −2 0 −1 0 0 0 −1 0 0 0 1 1 0 1 0 . 1 0 1 0 (T − 2)2 (T − 3) −1 0 −2 1 1 0 0 0 0 0 = 0 0 0 0 0 0 0 −2 1 1 0 0 0 0 0 0 0 0 = 0 0 0 0 . 0 0 0 0 = −1 0 1 0 −1 0 1 −2 0 −1 0 0 Logo, o polinômio m2 (x) = (x − 2)2 (x − 3) é o polinômio de menor grau tal que anula o operador, portanto m2 (x) é o minimal. 1.5. OPERADORES DIAGONALIZÁVEIS 43 1.5 OPERADORES DIAGONALIZÁVEIS Considere uma matriz quadrada A de ordem n. Dizemos que A é semelhante a uma matriz diagonal se existir uma matriz inversível P tal que A = P DP −1 , sendo D uma matriz diagonal. Através dos autovetores de A é possível verificar se ela é diagonalizável, basta constatar se A possui n autovetores linearmente independentes, conforme enunciado no Teorema 1.10. Teorema 1.10. Uma matriz A de ordem n é diagonalizável se, e somente se, possui n autovetores linearmente independentes. Demonstração: (⇒) Se A é uma matriz diagonalizável, então existe uma matriz inversível P tal que A = P DP −1 isto é, (1.9) AP = P D sendo λ1 0 D=0 . . . 0 0 λ2 0 .. . 0 ··· 0 ··· 0 ··· 0 . .. . .. ··· 0 0 0 0 . .. . λn Seja P uma matriz cujas colunas são constituídas pelos vetores v1 , v2 , . . . , vn , denotada por P = [v1 v2 . . . vn ]. Temos que AP = [Av1 Av2 . . . Avn ] Capítulo 1. CONCEITOS PRELIMINARES 44 e P D = [λ1 v1 λ2 v2 . . . λn vn ] assim, por 1.9: [Av1 Av2 . . . Avn ] = [λ1 v1 λ2 v2 . . . λn vn ]. Logo, Avi = λi vi e consequentemente, vi é um autovetor de A associado ao autovalor λi , para 1 ≤ i ≤ n. Como a matriz P é inversível, segue que suas colunas são linearmente independentes. Portanto, A possui n vetores linearmente independentes. (⇐) Seja P = [v1 v2 . . . vn ] a matriz formada pelos autovetores de A em suas colunas. Assim AP = [Av1 Av2 . . . Avn ]. (1.10) Como v1 , v2 , . . . , vn são autovetores linearmente independentes de A, a igualdade 1.10 resulta em AP = [λ1 v1 λ2 v2 . . . λn vn ]. isto é, AP = [v1 v2 . . . vn ] · diag(λ1 , λ2 , . . . , λn ). Portanto, AP = P D. Como as colunas de P são linearmente independentes, então existe P −1 tal que A = P DP −1 . Logo, a matriz A é diagonalizável. O Teorema 1.10 é válido da mesma forma para operadores, basta tomar A como a representação matricial de um operador linear qualquer. Com base nestas informações, definiremos um operador diagonalizável. Hoffman e Kunze (1971) o definem da seguinte forma: Definição 1.6. O operador T : V −→ V , onde V é um espaço vetorial de dimensão finita, é diagonalizável se existe uma base de V formada por autovetores de T. 1.5. OPERADORES DIAGONALIZÁVEIS 45 Observe que se α é uma base de autovetores e λi são autovalores do operador T, então a matriz de T em relação à base ordenada α é diagonal, ou seja, 0 ... 0 λ1 0 0 λ2 0 . . . 0 0 0 λ . . . 0 3 [T ]α = . . .. .. . . .. . . . . . . 0 0 0 . . . λn Necessitamos entender o conceito de Operadores Diagonalizáveis para que futuramente obtermos a Forma Canônica de Jordan dos operadores que não são diagonalizáveis, ou seja, no caso em que a representação de T não poderá ser uma matriz diagonal, porém será obtido uma matriz “quase” diagonal. 47 2 FORMA CANÔNICA RACIONAL O foco deste trabalho não está na construção da Forma Canônica Racional, porém durante nossos estudos descobrimos que esta forma pode ser utilizada mesmo quando os polinômios característico e minimal não podem ser fatorados em polinômios lineares, o que não ocorre com a Forma Canônica de Jordan. Então, achamos importante para o conhecimento o estudo sucinto da Forma Canônica Racional, onde a matriz de um operador é formada por blocos de "Matrizes Companheiras". 2.1 DECOMPOSIÇÃO PRIMÁRIA A Decomposição Primária nos auxilia na obtenção de uma forma canônica para o operador linear T . Esta decomposição mostra que qualquer operador linear T : V −→ V pode ser decomposto em operadores cujos polinômios minimais são potências de polinômios irredutíveis. A proposição seguinte descreve, conforme Lang e Jutuca (2003), uma decomposição para V numa soma direta de subespaços invariantes, obtida a partir de um polinômio que é escrito como um produto de dois polinômios cujo máximo divisor comum é 1. Iremos demonstrar apenas um caso particular, porém este resultado também é válido quando este polinômio é expresso como o produto de uma quantidade finita de fatores. Proposição 2.1. Seja P (K) o conjunto de polinômios sobre o corpo K. Dado m(x) ∈ P (K) um polinômio com m(x) = p1 (x)p2 (x) Capítulo 2. FORMA CANÔNICA RACIONAL 48 sendo p1 e p2 polinômios de grau maior ou igual a 1 tais que mdc(p1 (x), p2 (x)) = 1. − → Se T : V −→ V é um operador linear tal que m(T )(v) = 0 , para qualquer v ∈ V , então V = N uc(p1 (T )) ⊕ N uc(p2 (T )). Demonstração: Vamos denotar os núcleos de p1 (T ) e p2 (T ), respectivamente, como W1 e W2 . Como mdc(p1 (x), p2 (x)) = 1, então existem polinômios q1 (x) e q2 (x) tais que, p1 (x)q1 (x) + p2 (x)q2 (x) = 1, ∀x ∈ K. Portanto, p1 (T )q1 (T ) + p2 (T )q2 (T ) = I onde I é o operador identidade. Tomando v ∈ V , temos p1 (T )q1 (T )(v) + p2 (T )q2 (T )(v) = v. Podemos observar que p1 (T )q1 (T )v ∈ W2 , pois p2 (T )(p1 (T )q1 (T )(v)) = p2 (T )p1 (T )q1 (T )(v) = p1 (T )p2 (T )(v) · q1 (T )(v) = m(T )(v) · q1 (T )(v) = 0 · q1 (T )(v) − → = 0. Da mesma forma p2 (T )q2 (T )v ∈ W1 , pois p1 (T )(p2 (T )q2 (T )(v)) = p1 (T )p2 (T )q2 (T )(v) = p1 (T )p2 (T )(v) · q2 (T )(v) = m(T )(v) · q2 (T )(v) = 0 · q2 (T )(v) − → = 0. (2.1) 2.1. DECOMPOSIÇÃO PRIMÁRIA 49 Logo, v ∈ V pode ser escrito como a soma de um vetor de W1 com um vetor de W2 , isto é, V = W1 + W2 . Para mostrar que esta soma é direta, é necessário provar que a igualdade v = w1 + w2 (2.2) está determinada de modo único, onde w1 ∈ W1 e w2 ∈ W2 . De fato, aplicando p1 q1 (T ) a 2.2, obtemos p1 q1 (T )(v) = p1 q1 (T )(w1 ) + p1 q1 (T )(w2 ) = p1 (T )(w1 ) · q1 (T )(w1 ) + p1 (T )(w2 ) · q1 (T )(w2 ). − → Como w1 ∈ W1 = N uc(p1 (T )) então p1 (T )(w1 ) = 0 . Desta forma, − → p1 q1 (T )(v) = 0 · q1 (T )(w1 ) + p1 (T )(w2 ) · q1 (T )(w2 ) = p1 (T )q1 (T )(w2 ) = p1 q1 (T )(w2 ). (2.3) Aplicando 2.1 em w2 , temos p1 (T )q1 (T )(w2 ) + p2 (T )q2 (T )(w2 ) = w2 . − → Como w2 ∈ W2 = N uc(p2 (T )), então p2 (T )(w2 ) = 0 , desta forma p1 (T )q1 (T )(w2 ) + 0 · q2 (T )(w2 ) = w2 . (2.4) De 2.3 e 2.4, obtemos w2 = p1 (T )q1 (T )(v) e portanto w2 está determinado de maneira única. Da mesma forma, encontramos w1 = p2 (T )q2 (T )v de maneira única. Portanto, pelo Teorema 1.1, V = W1 ⊕ W2 . Proposição 2.2. Sob as mesmas hipóteses da Proposição 2.1, se m(x) o polinômio minimal de T e p1 (x), p2 (x) mônicos, então p1 (x) e p2 (x) são os polinômios minimais das restrições de T a W1 e W2 , respectivamente. Capítulo 2. FORMA CANÔNICA RACIONAL 50 Demonstração: Sejam T1 = T |W1 e T2 = T |W2 sendo m1 (x) e m2 (x) seus polinômios minimais, respectivamente. Como W1 = N uc(p1 (T )) e W2 = N uc(p2 (T )), temos que − → − → p1 (T1 )(v) = 0 e p2 (T2 )(v) = 0 , para qualquer v ∈ V . De modo similiar ao que foi mostrado no Teorema 1.9 segue que m1 (x) divide p1 (x) e m2 (x) divide p2 (x). Assim, existem polinômios q1 (x), q2 (x) tais que p1 (x) = m1 (x)q1 (x) (2.5) p2 (x) = m2 (x)q2 (x). (2.6) e Pela Proposição 2.1, temos que m(x) = m1 (x)m2 (x). De 2.5 e 2.6, resulta m(x) = p1 (x)p2 (x) = m1 (x)q1 (x)m2 (x)q2 (x) = m1 (x)m2 (x)q1 (x)q2 (x) = m(x)q1 (x)q2 (x). Da última igualdade obtemos, q1 (x)q2 (x) = 1. Como os polinômios p1 (x), p2 (x), m1 (x) e m2 (x) são mônicos temos que q1 (x) = q2 (x) = 1. Assim, p1 (x) = m1 (x) e p2 (x) = m2 (x). 2.1. DECOMPOSIÇÃO PRIMÁRIA 51 Com base nas proposições anteriores temos condições de demonstrar o Teorema da Decomposição Primária. De acordo com Lipschutz e Lipson (2011) e Bueno (2006) enunciaremos da seguinte forma: Teorema 2.1 (Teorema da Decomposição Primária). Considere o operador linear T : V −→ V cujo polinômio característico é da forma p(x) = p1 (x)m1 p2 (x)m2 . . . pr (x)mr e o seu polinômio minimal é dado por m(x) = p1 (x)n1 p2 (x)n2 . . . pr (x)nr com 0 < ni ≤ mi e sendo pi (x) polinômios distintos, mônicos e irredutíveis. Seja Wi o núcleo de pi (T )ni , com i = 1, . . . , r. Então, V = W1 ⊕ W2 ⊕ · · · ⊕ Wr onde Wi é T -invariante e além disso pi (x)ni é o polinômio minimal da restrição de T a Wi . Demonstração: Provaremos este teorema usando o princípio de indução em r. Se r = 1, temos que m(x) = p1 (x)n1 um polinômio mônico e irredutível como o minimal de T. Assim, − → ∀v ∈ V ⇒ m(T )(v) = 0 ⇒ ⇒ − → p1 (T )n1 (v) = 0 v ∈ N uc(p1 (T )n1 ). Logo, V ⊂ N uc(p1 (T )n1 ). Como N uc(p1 (T )n1 ) ⊂ V ocorre trivialmente, temos V = N uc(p1 (T )n1 ) = W1 . Além disso, W1 é obviamente T -invariante e p1 (T )n1 é o polinômio minimal de T |W1 = T |V = T . Suponhamos que o teorema seja válido para r = k. Vamos provar sua validade para r = k + 1. Para isso, supomos que o polinômio Capítulo 2. FORMA CANÔNICA RACIONAL 52 minimal de T : V −→ V seja f (x) = p1 (x)n1 p2 (x)n2 . . . pk (x)nk pk+1 (x)nk+1 com pi (x) polinômios mônicos, irredutíveis e distintos entre si. Como f (x) é o polinômio minimal de T , temos que f (T ) = 0 e tomando g(x) = p1 (x)n1 p2 (x)n2 . . . pk (x)nk e h(x) = pk+1 (x)nk+1 temos que g e h são primos entre si. Portanto, podemos aplicar a Proposição 2.1 e obter que (2.7) V =W ⊕U onde W = N uc(g(T )) = N uc(p1 (T )n1 p2 (T )n2 . . . pk (T )nk ) e U = N uc(h(T )) = N uc(pk+1 (T )nk+1 são ambos T -invariantes. Ainda, como g e h são mônicos e f é o polinômio minimal de T , podemos aplicar a Proposição 2.2 e garantir que g e h são, respectivamente, os polinômios minimais das restrições de T a W e U . Com isso, g é o minimal de T1 = T |W e admite k fatores mônicos, irredutíveis e distintos. Pela hipótese de indução, temos então que W = W1 ⊕ W2 ⊕ · · · ⊕ Wk onde Wi = N uc(pi (T1 )ni ), i = 1, 2, . . . , k e tal que pi (x)ni é o polinômio minimal de T1 restrito a Wi . Portanto, tomando Wk+1 = U e substituindo em 2.7 temos V = W ⊕ U = W1 ⊕ W2 ⊕ · · · ⊕ Wk ⊕ Wk+1 2.2. SUBESPAÇOS CÍCLICOS 53 com Wi T -invariante, para i = 1, 2, . . . , k + 1. Falta mostrar que, para i = 1, 2, . . . , k Wi = N uc(pi (T )ni ) e que (pi (x)ni ) é o polinômio minimal de T restrito a Wi . Como pi (x)ni divide p1 (x)n1 p2 (x)n2 . . . pk (x)nk temos que v ∈ N uc(pi (T )ni ) ⇒ − → pi (T )ni (v) = 0 ⇒ − → (p1 (T )n1 p2 (T )n2 . . . pk (T )nk )(v) = 0 ⇒ v ∈ N uc(p1 (T )n1 p2 (T )n2 . . . pk (T )nk ) ⇒ v ∈ W. Como T1 = T |W , temos que N uc(pi (T )ni ) = N uc(pi (T1 )ni ) = Wi . E ainda, a restrição de T em Wi é igual a de T1 a Wi e portanto pi (x)ni é o polinômio minimal de T restrito a Wi , completando a demonstração. 2.2 SUBESPAÇOS CÍCLICOS Os subespaços cíclicos podem ser definidos como a interseção de todos os subespaços T -invariantes de V que contém um dado vetor − → v ∈ V , com v 6= 0 . Porém, seguiremos o exposto em Lipschitz e Lipson (2011) para definirmos estes subespaços. Para isso, sejam T : V −→ V um operador linear, onde V é um espaço vetorial de dimensão finita sobre K e v ∈ V um vetor não nulo. Como a dimensão de V é finita, ao tomarmos os vetores v, T (v), T 2 (v), . . . , T i (v), . . . i∈N temos que existe um menor natural n para o qual T n (v) é uma combinação linear dos vetores que o precedem nesta sequência. Portanto, o Capítulo 2. FORMA CANÔNICA RACIONAL 54 subespaço vetorial gerado por β = {v, T (v), T 2 (v), . . . , T n−1 (v)} será chamado de subespaço T -cíclico e denotado por Z(v, T ), com v ∈ − → V , v 6= 0 , dito vetor T -cíclico, de acordo com a seguinte definição: Definição 2.1. Seja T : V −→ V um operador linear sendo V um − → espaço vetorial de dimensão finita sobre K. Dados v ∈ V , v 6= 0 , o conjunto Z(v, T ) ⊂ V é um subespaço T -cíclico de V se for gerado pelo conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)}. De acordo com Coelho e Lourenço (2010) e Lipschutz e Lipson (2011) construiremos o polinômio mv que é o único polinômio de menor − → grau tal que mv (T )(v) = 0 . Este polinômio é dito T-anulador de v e de Z(v, T ). Assim, considerando o conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)}, tomemos T n (v) ∈ Z(v, T ), então podemos escrevê-lo como uma combinação linear dos vetores do conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)}, ou seja, T n (v) = −a0 v − a1 T (v) − · · · − an−1 T n−1 (v) com ai ∈ K, 0 ≤ i ≤ n − 1. Com isso, − → T n (v) + a0 v + a1 T (v) + · · · + an−1 T n−1 (v) = 0 . Definimos assim o polinômio T -anulador como mv (x) = xn + an−1 xn−1 + · · · + a1 x + a0 . A seguir, mostraremos um teorema que se refere ao polinômio que definimos acima. Com base em Lipschutz e Lipson (2011) o enunciaremos da seguinte forma: Teorema 2.2. Sejam Z(v, T ) um subespaço T − cíclico, Tv a restrição de T a Z(v, T ) e mv (x) = xn +an−1 xn−1 +· · ·+a1 x+a0 o T −anulador de v. Valem as seguintes afirmações: (i) O conjunto β = {v, T (v), T 2 (v), . . . , T n−1 (v)} é uma base de Z(v, T ); 2.2. SUBESPAÇOS CÍCLICOS 55 (ii) O polinômio minimal de Tv é mv (x); (iii) A representação matricial de Tv na base β é chamada matriz companheira de mv (x), dada por [Tv ]β = 0 1 0 .. . 0 0 0 0 1 .. . 0 0 0 0 0 .. . 0 0 ... ... ... .. . ... ... 0 −a0 0 −a1 0 −a2 .. .. . . 0 −an−2 1 −an−1 Demonstração: (i) Por definição, Z(v, T ) é gerado por β = {v, T (v), T 2 (v), . . . , T n−1 (v)}, onde n é o menor natural para o qual T n (v) é uma combinação linear dos vetores de β. Desta forma, para todo i ≤ n−1 temos que T i (v) ∈ β não pode ser escrito como combinação linear dos demais vetores de β. Portanto, β é linearmente independente e sendo assim, uma base para Z(v, T ). (ii) Seja m(x) = xs + bs−1 xs−1 + · · · + b1 x + b0 o polinômio minimal de Tv , assim m(Tv ) = 0, com bi ∈ K, 1 ≤ i ≤ s − 1. Como v ∈ Z(v, T ), temos − → 0 = m(Tv )(v) = m(T )(v) = T s (v) + bs−1 T s−1 (v) + · · · + b1 T (v) + b0 v sendo n ≤ s. Como mv (x) é T -anulador, temos − → 0 = mv (T )(v) = T n (v) + an−1 T n−1 (v) + · · · + a1 T (v) + a0 v = mv (Tv )(v). Assim, mv (Tv ) = 0. Temos que m(x) divide mv (x)(argumento semelhante ao mostrado no Teorema 1.9), assim s ≤ n. Logo, n = s. Como o polinômio mv (x) é o único de menor grau tal que mv (T )(v), então mv (x) = m(x). Portanto, o polinômio mv (x) é o minimal de Tv . Capítulo 2. FORMA CANÔNICA RACIONAL 56 (iii) Seja β = {v, T (v), T 2 (v), · · · , T n−1 (v)}. Para calcularmos [Tv ]β , aplicamos Tv nos vetores de β, obtendo Tv (v) = T (v) = 0 · v + 1 · T (v) + 0 · T 2 (v) + . . . + 0 · T n−1 (v). Da mesma forma, para obter a segunda coluna de [Tv ]β , fazemos Tv (T (v)) = T (T (v)) = T 2 (v) = 0 · v + 0 · T (v) + 1 · T 2 (v) + . . . + 0 · T n−1 (v). Para a penúltima coluna, tomamos Tv (T n−2 (v)) = T (T n−2 (v)) = T n−1 (v) = 0 · v + 0 · T (v) + · · · + 1 · T n−1 (v). Para a última coluna da matriz, vamos utilizar o polinômio mv (x) = xn + an−1 xn−1 + · · · + a1 x + a0 , assim obtemos − → 0 = mv (Tv (v)) = mv (T (v)) = T n (v) + an−1 T n−1 (v) + · · · + a1 T (v) + a0 v. Portanto, T n (v) = −an−1 T n−1 (v) − · · · − a1 T (v) − a0 v. Assim, Tv (T n−1 (v)) = T (T n−1 (v)) = T n (v) = −a0 v − a1 T (v) − · · · − an−1 T n−1 (v). Logo, obtemos a matriz [Tv ]β = 0 1 0 .. . 0 0 0 0 1 .. . 0 0 0 0 0 .. . 0 0 ... 0 −a0 ... 0 −a1 ... 0 −a2 . .. .. . .. . . . . 0 −an−2 . . . 1 −an−1 2.2. SUBESPAÇOS CÍCLICOS 57 que é chamada de matriz companheira do polinômio mv (x). Quando se trata de subespaços cíclicos observamos que estes possuem uma peculiaridade. Se V = Z(v, T ) então o polinômio característico do operador linear T sempre coincidirá com o polinômio minimal. Para mostrar esta afirmação são necessários alguns resultados que mostraremos a seguir, baseados em Coelho e Lourenço (2010). Lema 2.1. Se T : V −→ V é um operador linear onde V é um espaço vetorial sobre um corpo K de dimensão finita, então existe um vetor v ∈ V tal que o polinômio T -anulador é igual ao polinômio minimal de T. Demonstração: Sejam m(x) e mv (x) polinômios minimal e anulador de T , respectivamente. Mostraremos apenas um caso particular, no qual m(x) = f (x)m , sendo f um polinômio irredutível em P (K), porém o resultado também é válido quando m(x) = f1 (x)m1 · · · fr (x))mr . Sabemos que o polinômio minimal m(x) é o polinômio de menor − → grau tal que m(T )(u) = 0 , para qualquer u ∈ V . Assim, existe v ∈ V de tal forma que f (T )m−1 v 6= 0. Como mv (x) divide m(x) (argumento semelhante ao mostrado no Teorema 1.9) e f (x) é irredutível, segue que mv (x) = f (x)l para algum l ≤ m. Como mv (T ) = 0 e usando o fato que f (T )m−1 v 6= 0, concluímos que f (T )m (v) = f (T )l (v). Desta forma, m(x) = mv (x) . Corolário 2.1. Se T : V −→ V é um operador linear onde V é um espaço vetorial sobre um corpo K de dimensão finita, então existe um subespaço T-cíclico de V com dimensão igual ao grau do polinômio minimal de T . Capítulo 2. FORMA CANÔNICA RACIONAL 58 Demonstração: Conforme o Lema 2.1, sabemos que existe v ∈ V tal que m(x) = mv (x). Seja ϕv : P (K) −→ f (T ) uma transformação onde ϕv (f ) = f (T )(v). Note que Im(ϕv ) = [v, T (v), T 2 (v) . . . T m−1 (v)] para algum m. Desta forma, Im(ϕv ) é um subespaço T-cíclico de V, com dimensão igual a m. Como temos que v ∈ V é tal que m(x) = mv (x), então o grau de m(x) também é m. A seguir enunciaremos o Teorema que caracteriza os subespaços T-cíclicos, relacionando os polinômios característico e minimal do operador T . Através do Lema 2.1 e o Corolário 2.1 conseguiremos realizar sua demonstração. Teorema 2.3. Seja T : V −→ V um operador linear onde V é um espaço vetorial sobre K de dimensão n. As seguintes afirmações são equivalentes: (i) V = Z(v, T ); (ii)o grau de m(x) é n; (iii) m(x) = p(x). Demonstração: (i)⇒(ii) Como V = Z(v, T ) então existe v ∈ V tal que V = [v, T (v), T 2 (v) . . . T n−1 (v)]. Com isso, o grau de mv (x) é n. Como dimV = n, então o grau de m(x) deve ser no máximo n. Segue que mv (x) divide m(x). Mas a única maneira disto ocorrer é quando o grau de m(x) é igual a n. (ii)⇒(iii) Se dimV = n, então seu polinômio característico possui grau n. Pelo Teorema de Cayley-Hamilton, m(x) divide p(x), logo m(x) = p(x), pois ambos são polinômios mônicos e por hipótese, tem o mesmo grau. (iii)⇒(i) Pelo Corolário 2.1, existe um subespaço T -cíclico Z(v, T ) de 2.3. FORMA CANÔNICA RACIONAL 59 V com dimensão igual a de m(x). Como o grau de m(x) é n temos que Z(v, T ) = V. Exemplo 2.1. Seja T : R2 → R2 o operador dado por T (x, y) = (2x − 4y, 2x − 2y) tal que [T ] = 2 2 ! −4 −2 . Calculando o polinômio característico de T , obtemos ! x−2 4 p(x) = det = (x − 2)(x + 2) = x2 + 4. −2 x+2 Observe que o polinômio característico é igual ao polinômio minimal. − → Assim pelo Teorema 2.3, existe v = (a, b) ∈ R2 , com v 6= 0 , tal que β = {(a, b), T (a, b)} é uma base para R2 . Como para qualquer v = (a, b) ∈ R2 o conjunto β é linearmente independente, temos que [T ]β = 0 1 ! −4 0 é a matriz companheira do polinômio x2 + 4. Logo, R2 = Z(v, T ). 2.3 FORMA CANÔNICA RACIONAL Com base no que foi visto na seção anterior, enunciaremos dois resultados essenciais para a construção da Forma Canônica Racional. O primeiro diz que o espaço vetorial V pode ser decomposto por somas de subespaços T-cíclicos. E o segundo resultado diz que o operador T pode ser representado de maneira única por uma matriz cuja diagonal é formada por matrizes companheiras. Conforme Lipschutz e Lipson (2011), enunciaremos o seguinte Lema que nos fornece esta decomposição de V. Capítulo 2. FORMA CANÔNICA RACIONAL 60 Lema 2.2 (Decomposição Racional). Se T : V −→ V é um operador linear cujo polinômio minimal é p(x)n , em que p(x) é um polinômio mônico irredutível, então V é a soma direta V = Z(v1 , T ) ⊕ · · · ⊕ Z(vr , T ) dos subespaços T-cíclicos Z(vi , T ) com T-anuladores correspondentes p(x)n1 , p(x)n2 , . . . , p(x)nr , n = n1 ≥ n2 ≥ . . . ≥ nr . Além disso, qualquer outra decomposição de V em subespaços T -cíclicos tem o mesmo número de componentes e mesmos T anuladores. De acordo com o Teorema da Decomposição Primária, podemos escrever V = W1 ⊕ · · · ⊕ Wr quando o polinômio minimal é da forma m(x) = p1 (x)n1 p2 (x)n2 · · · ps (x)ns , sendo Wi = N uc(pni i ). E juntamente com o Lema 2.2, conseguimos representar o operador T como uma matriz cuja diagonal é composta por matrizes companheiras. É o que nos diz o seguinte teorema: Teorema 2.4. Se T : V −→ V é um operador com polinômio minimal m(x) = p1 (x)n1 p2 (x)n2 · · · ps (x)ns em que os pi (x) são polinômios mônicos irredutíveis distintos, então T tem uma única representação matricial diagonal em blocos, da forma C11 0 . . . 0 . [T ]α = .. 0 0 . . . 0 0 C12 .. . ... ... .. . 0 0 .. . ... ... .. . 0 0 .. . 0 0 .. . ... ... .. . 0 0 .. . 0 .. . 0 ... .. . 0 C1r1 .. . 0 ... .. . ... 0 .. . Cs1 0 .. . 0 ... .. . ... 0 .. . 0 0 .. . 0 0 .. . 0 0 .. . 0 ... .. . ... 0 .. . 0 Cs2 .. . 0 ... .. . 0 .. . Csrs ... 2.3. FORMA CANÔNICA RACIONAL 61 onde Ciri são matrizes companheiras dos polinômios pi (x)niri , com ni = mi1 ≥ mi2 ≥ · · · ≥ miri , 1 ≤ i ≤ s. O Teorema 2.4 mostra uma representação matricial de T que é denominada forma canônica racional. Para entendermos melhor, vejamos o exemplo a seguir. Exemplo 2.2. Sejam V um espaço vetorial sobre R , com dim(V ) = 7 e T : V −→ V um operador linear cujo polinômio minimal é m(x) = (x2 − 2x + 5)(x − 3)3 . Vamos obter todas as possíveis formas canônicas racionais de T. Como dimV = 7, temos duas possibilidades para o polinômio característico: p1 (x) = (x2 − 2x + 5)2 (x − 3)3 ou p2 (x) = (x2 − 2x + 5)(x − 3)5 . Como m(x) = (x2 − 2x + 5)(x − 3)3 , então obrigatoriamente devemos ter os blocos C1 (x2 − 2x + 5) e C2 ((x − 3)3 ) = C2 (x3 − 9x2 + 27x − 27). Se o polinômio característico for p1 , então temos uma possibilidade para a representação matricial de T na forma racional: ! 0 −5 1 2 ! 0 −5 [T ]α = . 1 2 0 0 27 1 0 −27 0 1 9 Se o polinômio característico for p2 , então temos duas possibilidades, pois podemos escrever o polinômio p2 de duas formas: p2 = (x2 −2x+5)(x−3)3 (x−3)2 e p2 = (x2 −2x+5)(x−3)3 (x−3)(x−3). Capítulo 2. FORMA CANÔNICA RACIONAL 62 Considerando a primeira opção, obtemos os seguintes blocos: C1 (x2 − 2x + 5), C2 ((x − 3)3 ) e C3 ((x − 3)2 ). Assim, a representação matricial do operador T é dada por: ! 0 −5 1 2 0 0 27 [T ]α = . 1 0 −27 0 1 9 ! 0 −9 1 6 Considerando a segunda opção, obtemos os seguintes blocos: C1 (x2 − 2x + 5), C2 ((x − 3)3 ), C3 (x − 3) e C4 (x − 3). Desta forma, a representação matricial do operador T é dada por: 0 1 [T ]α = ! −5 2 0 0 1 0 0 1 27 −27 . 9 3 3 Portanto, a forma canônica racional de T é uma das matrizes [T ]α exibidas, nos quais os elementos que não estão indicados são todos nulos. 63 3 A FORMA CANÔNICA DE JORDAN No capítulo 1 deste trabalho revisamos alguns conceitos de Álgebra Linear e juntamente com a Decomposição Primária apresentada no capítulo 2 temos condições de construir a Forma Canônica de Jordan. Esta forma existe sempre que os polinômios característico e minimal são escritos como um produto de fatores lineares. Observe que isto sempre acontece quando estamos trabalhando no corpo dos complexos, com isso qualquer operador T : V −→ V pode ser representado na Forma Canônica de Jordan. Veremos que, através da Forma Canônica de Jordan, é possível exibir a matriz de um operador linear não diagonalizável por meio de uma matriz que possui uma forma “quase diagonal”, isto é, constituída por blocos de matrizes triangulares inferiores, cujos elementos das diagonais principais são todos iguais a um mesmo número (os autovalores do operador), cujos elementos imediatamente abaixo destas diagonais são todos iguais a 1 e os elementos restantes são todos nulos. A fim de definir e estudar tudo o que se refere a essa forma, iremos nos basear essencialmente nos livros de Coelho e Lourenço (2010), Hoffman e Kunze (1971), Lima (2009), Lipschutz e Lipson (2011) e Pellegrini (2013). 3.1 OPERADORES NILPOTENTES Neste momento serão estudados os operadores nilpotentes, que são de grande importância para o entendimento da construção da Forma Canônica de Jordan. Assim, segue sua definição baseado nos autores Coelho e Lourenço (2010) e Lima (2009). Capítulo 3. A FORMA CANÔNICA DE JORDAN 64 Definição 3.1. Um operador linear T : V −→ V é dito nilpotente quando existe k ∈ N tal que T k = 0. É chamado de índice de nilpotência o menor número k ∈ N tal que T k = 0, ou seja, T i 6= 0, para todo i < k. Exemplo 3.1. Seja Pm (R) o espaço vetorial dos polinômios de grau m com entradas reais. Considere o operador T : Pm (R) → Pm (R) que é dado por T (p(x)) = p(x)′ . Observe que T é o operador derivação e que T m (p(x)) = c, onde c ∈ R. Aplicando novamente o operador temos T (T m (p(x))) = T m+1 (p(x)) = 0. Desta forma, T é nilpotente de índice m + 1. Exemplo 3.2. Considere o operador T : R3 → R3 definido como T (x, y, z) = (0, x, y). Este operador é nilpotente de índice k = 3. De fato, T (x, y, z) = (0, x, y), T 2 (x, y, z) = T (0, x, y) = (0, 0, x), T 3 (x, y, z) = T (0, 0, x) = (0, 0, 0). Assim, T 3 = 0. Uma característica dos operadores nilpotentes é possuírem apenas o zero como autovalor. Esta afirmação é facilmente mostrada a seguir: Proposição 3.1. Se T : V −→ V é um operador linear nilpotente de índice k, então zero é o seu único autovalor. Demonstração: Por hipótese temos que para qualquer v ∈ − → V tem-se T k (v) = 0 , assim seja v um autovetor de T associado ao autovalor λ. Então − → 0 = T k (v) = λk v 3.1. OPERADORES NILPOTENTES isto é, 65 − → λk v = 0 . − → Como v 6= 0 , concluímos que λ = 0. Quando trabalhamos com um espaço vetorial de dimensão finita podemos obter uma decomposição em subespaços T -invariantes, sendo que quando restringirmos o operador em um desses subespaços teremos um operador nilpotente e no outro subespaço teremos um operador inversível. Teorema 3.1. Se V é um espaço vetorial de dimensão finita (real ou complexo) onde T : V −→ V é um operador linear, então existe uma decomposição V = U ⊕ W , sendo U,W subespaços T -invariantes, onde T é inversível em U e nilpotente em W. E ainda, tal decomposição é única. Demonstração: Considerando os operadores T l , l > 1, podemos obter uma sequência de subespaços T -invariantes de V, tomando V ⊃ Im(T ) ⊃ Im(T 2 ) ⊃ · · · ⊃ Im(T l ) · · · . Como a dimensão de V é finita, então esta sequência não poderá ser estritamente decrescente para sempre. Assim, seja k > 0 o menor número natural que satisfaz a igualdade Im(T k ) = Im(T k+1 ). Afirmamos que Im(T k+1 ) = Im(T k+2 ), de fato: Im(T k+2 ) = T (Im(T k+1 )) = T (Im(T k )) = Im(T k+1 ). Da mesma maneira, Im(T k+2 ) = Im(T k+3 ) = Im(T k+4 ) · · · . Igualmente obtemos, N uc(T ) ⊆ N uc(T 2 ) ⊆ · · · ⊆ N uc(T k ) = N uc(T k+1 ) = · · · pois pelo Teorema do Núcleo e da Imagem, concluímos que dimN uc(T k+1 ) = dim(V ) − dimIm(T k+1 ) = dim(V ) − dimIm(T k ) = dimN uc(T k ). Capítulo 3. A FORMA CANÔNICA DE JORDAN 66 Sejam U = Im(T k ) e W = N uc(T k ). Queremos mostrar que V = U + W. Tomando v ∈ V temos que existe x ∈ V tal que T k (v) = T 2k (x), pois Im(T k ) = Im(T 2k ). Então, escrevendo v = v + (T k (x) − T k (x)) = v + (−T k (x) + T k (x)) = (v − T k (x)) + T k (x) − → temos que T k (v − T k (x)) = T k (v) − T 2k (x) = 0 . Logo, o vetor v − T k (x) ∈ W e obrigatoriamente T k (x) ∈ U . Assim, mostramos que V = U + W. − → Para que esta soma seja direta, falta mostrar que U ∩W = { 0 }. Sabendo que dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) e usando o Teorema do Núcleo e da Imagem, obtemos dim(V ) = dim(U + W ) = dim(Im(T k )) + dim(N uc(T k )) − dim(U ∩ W ) = dim(V ) − dim(U ∩ W ) e então dim(U ∩ W ) = 0. − → Logo, U ∩ W = { 0 }. Considere as restrições H1 = T |U e H2 = T |W . É evidente que − → H1 é nilpotente, pois H1k (v) = T k (v) = 0 . E H2 é sobrejetor pois, H2 (U ) = T (U ) = T (Im(T k )) = Im(T k+1 ) = Im(T k ) = U. Desta forma, H2 é inversível, por ser um operador linear sobrejetor. Ainda falta provar que essa decomposição é única, para isso suponhamos que existam E1 e E2 subespaços T-invariantes onde V = E1 ⊕ E2 . 3.1. OPERADORES NILPOTENTES 67 Sejam T1 e T2 operadores tais que T1 = T |E1 é nilpotente de índice k ′ e T2 = T |E2 é inversível. Definimos agora m = max{k, k ′ } e tomando w1 ∈ W ⊂ V , como V = E1 ⊕ E2 então conseguimos escrever este vetor w1 como a soma dos vetores e1 e e2 , onde e1 ∈ E1 , e2 ∈ E2 . − → Então, a igualdade T m (w1 ) = 0 é válida, pois se m = k, − → temos T m (w1 ) = T k (w1 ) = 0 devido a T ser operador nilpotente ′ − → de índice k. Se m = k ′ , temos T m (w1 ) = T k (w1 ) = 0 devido a ′ w1 ∈ W = N uc(T k ) ⊂ N uc(T k ), como visto anteriormente. Assim, − → 0 = T m (w1 ) = T m (e1 + e2 ) = T m (e1 ) + T m (e2 ) = T1m (e1 ) + T2m (e2 ). − → Concluímos que T m (e1 ) = 0 , pois se m = k, temos T m (e1 ) = − → T k (e1 ) = 0 , devido a T ser operador nilpotente de índice k. Se m = k ′ , ′ − → temos T m (e1 ) = T1k (e1 ) = 0 , pois e1 ∈ U1 e T1 é nilpotente de índice k′ . − → Com isso, temos T2m (e2 ) = 0 . Como T2 é inversível, segue que e2 = 0, fazendo com que w1 = e1 . Assim, W ⊆ E1 . Analogamente, mostramos que E1 ⊆ W , portanto E1 = W = N uc(T k ). Seja agora u1 ∈ U . Como U = Im(T k ), existe v ∈ V tal que T k (v) = u1 . Escrevendo v = b1 + b2 , onde b1 ∈ E1 , b2 ∈ E2 , obtemos: u1 = T k (v) = T k (b1 + b2 ) = T k (b1 ) + T k (b2 ). Segue que T k (b1 ) = 0, pois b1 ∈ E1 = N uc(T k ) e assim u1 = T k (b2 ). Como E2 é T-invariante, segue que u1 ∈ E2 , portanto U ⊆ E2 . Seja agora b2 ∈ E2 ⊂ V , como V = U ⊕ W então podemos escrever b2 = u2 + w2 , com u2 ∈ U e w2 ∈ W . Assim, w2 = b2 − u2 ∈ Capítulo 3. A FORMA CANÔNICA DE JORDAN 68 − → E1 ∩ E2 = { 0 }, pois W = E1 e U ⊆ E2 . Dessa forma, b2 = u2 e segue que E2 ⊆ U , fazendo com que U = E2 . Logo, a decomposição é única. A Proposição a seguir nos auxiliará na obtenção de uma base em relação a qual a matriz que representa o operador T é composta por blocos da forma 0 0 ··· 0 0 1 0 · · · 0 0 0 1 · · · 0 0 . . . . . . . . . . . . . . . 0 0 ··· 1 0 em sua diagonal. Proposição 3.2. Considere o operador linear T : V −→ V nilpotente − → de índice k ≥ 1, se v ∈ V é um vetor tal que T k−1 (v) 6= 0 e T k (v) = − → 0 , então: (i) O conjunto {v, T (v), T 2 (v), . . . , T k−1 (v)} é l.i. (ii) Existe um subespaço T-invariante W de V tal que V = U ⊕ W , onde U = [v, T (v), T 2 (v), . . . , T k−1 (v)]. Demonstração: (i) Para mostrar que o conjunto {v, T (v), T 2 (v), . . . , T k−1 (v)} é linearmente independente, precisamos primeiramente tomar uma combinação linear nula com os elementos do conjunto. Assim, consideremos − → a0 v + a1 T (v) + a2 T 2 (v) + . . . + ak−1 T k−1 (v) = 0 . Aplicando o operador T k−1 em ambos os lados, obtemos − → a0 T k−1 (v) + a1 T k (v) + a2 T k+1 (v) + . . . + ak−1 T 2k−2 (v) = 0 . − → Por hipótese temos T k (v) = T k+1 (v) = . . . = T 2k−2 (v) = 0 . Logo, − → a0 T k−1 (v) = 0 . 3.1. OPERADORES NILPOTENTES 69 − → No entanto, T k−1 (v) 6= 0 , portanto a0 = 0. Da mesma forma, aplicando o operador T k−2 temos que a1 = 0. Prosseguindo analogamente, temos a0 = a1 = a2 = . . . = ak−1 = 0. Sendo assim o conjunto {v, T (v), T 2 (v), . . . , T k−1 (v)} é linearmente independente. (ii) Primeiramente, note que U é T -invariante, pois tomando u ∈ U podemos escrevê-lo da seguinte forma: u = a0 v + a1 T (v) + a2 T 2 (v) + · · · + ak−1 T k−1 (v) onde ai ∈ K, 0 ≤ i ≤ k − 1. Assim, T (u) = T (a0 v + a1 T (v) + a2 T 2 (v) + · · · + ak−1 T k−1 (v)) = T (a0 v) + T (a1 T (v)) + T (a2 T 2 (v)) + · · · + T (ak−1 T k−1 (v)) = a0 T (v) + a1 T 2 (v) + a2 T 3 (v) + · · · + ak−1 T k (v). − → Por hipótese segue que ak−1 T k (v) = 0 . Consequentemente, T (u) = a0 T (v) + a1 T 2 (v) + a2 T 3 (v) + · · · + ak−2 T k−1 (v) ∈ U. Logo, U é T -invariante. Para mostrarmos o resultado desejado, usaremos o princípio de indução sobre k. − → Quando k = 1, teríamos U = [v] = N uc(T ), pois v 6= 0 e − → T (v) = 0 e obviamente W = Im(T ) é T -invariante e V = U ⊕ W . Suponhamos que a decomposição é válida para todos os operadores nilpotentes com índices menores que k, com k > 1. Podemos observar que Im(T ) é um subespaço T -invariante e que a restrição de T em Im(T ) gera um operador tal que − → T k−1 (T (v)) = T k (v) = 0 e − → T k−2 (T (v)) = T k−1 (v) 6= 0 . Capítulo 3. A FORMA CANÔNICA DE JORDAN 70 Assim, T |Im(T ) é um operador nilpotente de índice k − 1. Vamos escrever um subespaço U1 como U1 = U ∩Im(T ), devido a interseção de U e Im(T ) podemos concluir que U1 = [T (v), T 2 (v), . . . , T k−1 (v)]. Utilizando a hipótese de indução temos que Im(T ) = U1 ⊕ W1 , onde W1 é um subespaço T -invariante de V. Considere o subespaço W2 = {w ∈ V | T (w) ∈ W1 }. Precisamos primeiramente mostrar duas afirmações: − → V = U + W2 e U ∩ W1 = { 0 }. Se u ∈ V , teremos T (u) ∈ Im(T ) e assim, representamos T (u) como a soma de um vetor de U1 e outro de W1 , ou seja, T (u) = u1 + w1 , u1 ∈ U1 e w1 ∈ W1 . Como U1 = [T (v), T 2 (v), . . . , T k−1 (v)], existem a1 , a2 , . . . , ak−1 ∈ K tais que, ! k−1 k−1 X X ai T i (v) = T ai T i−1 (v) = T (u2 ), u1 = i=1 i=1 onde denotamos u2 = k−1 P ai T i−1 (v) e temos que u2 ∈ U . Assim, i=1 T (u) = T (u2 ) + w1 ou seja, T (u) − T (u2 ) = w1 isto é, T (u − u2 ) = w1 ∈ W1 . Pela forma que W2 foi definido, concluímos que u − u2 ∈ W2 . Logo, u = u2 + (u − u2 ) ∈ U + W2 3.1. OPERADORES NILPOTENTES 71 de modo que provamos a primeira afirmação. Considere agora u ∈ U ∩ W1 . Por U e W1 serem T -invariantes temos que T (u) ∈ U ∩ Im(T ) e T (u) ∈ W1 . Com isso, T (u) ∈ U ∩ Im(T ) ∩ W1 = U1 ∩ W1 . Como Im(T ) = U1 ⊕ W1 então − → T (u) ∈ U1 ∩ W1 = { 0 }. − → Logo T (u) = 0 . Como u ∈ U , existem escalares a0 , a1 , · · · , ak−1 ∈ K, tais que u= k−1 X ai T i (v), i=0 Portanto, − → 0 = T (u) = T k−1 X ai T i (v) i=0 = k−1 X ! ai T i+1 (v) i=0 = a0 T (v) + a1 T 2 (v) + · · · + ak−2 T k−1 (v) + ak−1 T k (v). − → Visto que T k (v) = 0 , nos resta − → a0 T (v) + a1 T 2 (v) + · · · + ak−2 T k−1 (v) = 0 . Dado que o conjunto {T (v), T 2 (v), . . . , T k−1 } é linearmente independente, então a0 = a1 = · · · = ak−2 = 0 e u = ak−1 T k−1 (v) ∈ − → Im(T ). Assim, u ∈ U ∩ Im(T ) = U1 . Logo, u ∈ U1 ∩ W1 = { 0 }, portanto − → U ∩ W1 = { 0 }. Capítulo 3. A FORMA CANÔNICA DE JORDAN 72 − → Conforme a igualdade U ∩ W1 = { 0 }, temos que − → U ∩ W2 ∩ W1 = { 0 } e como U ∩ W2 e W1 estão contidos em W2 , pois W1 é T -invariante, segue que existe um subespaço W , tal que W2 = W ⊕ W1 ⊕ (U ∩ W2 ). (3.1) Afirmamos que W = W ⊕ W1 é o subespaço que estamos procurando. − → − → De fato, W ⊆ W2 e W ∩ (U ∩ W2 ) = { 0 }, assim U ∩ W = { 0 }. Utilizando a primeira afirmação, V = U + W2 e o Teorema 1.2, temos dim(V ) = dim(U + W2 ) = dim(U ) + dim(W2 ) − dim(U ∩ W2 ). (3.2) Por 3.1, temos dim(W2 ) − dim(U ) ∩ W2 = dim(W ⊕ W1 ) = dim(W ). (3.3) Subtraindo as equações 3.2 e 3.3, temos dim(V ) − dim(W ) = dim(U ) e assim, dim(V ) = dim(U ) + dim(W ). Logo, V = W + U como queríamos. Basta apenas mostrar que W é um subespaço T -invariante. De fato, como W ⊆ W2 , teremos T (W ) ⊆ W1 ⊆ W , finalizando a demonstração. Considere um operador linear T : V → V , onde V possui dimensão n ≥ 1. Suponhamos que o polinômio característico de T seja da forma p(x) = (x − λ)n e que o índice de nilpotência do operador (T − λ) seja n. Pela Proposição 3.2, existe um conjunto β = {v, (T − λI)(v), (T − λI)2 (v), . . . , (T − λI)(v)n−1 } 3.1. OPERADORES NILPOTENTES 73 que é linearmente independente. Como β possui n vetores e dim(V ) = n, temos que β é base de V . Em relação a base β, a representação matricial de (T − λI) é dada por 0 0 ··· 0 0 1 0 · · · 0 0 0 1 · · · 0 0 [T − λI ]β = . . . . . . . . . . . . . . . . 0 0 ··· 1 0 Assim, λ 0 [T − λI ]β = [T ]β − 0 . . . 0 0 .. . 0 Isto é, Logo, λ 0 0 λ [T ]β = 0 0 . . . . . . 0 0 0 0 0 0 1 0 · · · 0 0 = 0 1 . . .. .. .. . .. .. . . 0 0 ··· 0 λ 0 ··· 0 λ ··· 0 ··· 0 ··· 0 ··· 0 . .. . .. ··· 0 λ 1 [T ]β = 0 . . . 0 0 0 0 1 0 + 0 .. .. . . λ 0 0 λ 1 .. . 0 ··· ··· ··· .. . ··· 0 0 1 .. . 0 ··· 0 0 · · · 0 0 · · · 0 0 . . . .. . .. .. ··· 1 0 0 0 · · · 0 0 . . . .. . .. .. ··· 1 0 ··· 0 ··· 0 0 0 0 0 0 0 . .. .. . . 1 λ Desta forma, quando o operador T : V −→ V possui polinômio característico da forma p(x) = (x − λ)n , conseguimos representar este operador através de uma matriz cuja diagonal principal é formada pelo 74 Capítulo 3. A FORMA CANÔNICA DE JORDAN autovalor λ e os elementos imediatamente abaixo da diagonal principal são iguais a 1 e os demais elementos são todos nulos. Baseado nisto, definiremos um bloco de Jordan. Definição 3.2. Um bloco de Jordan n × n é uma matriz triangular inferior dada por: λ 0 1 λ J(λ, n) = 0 1 . . . . . . 0 0 ··· ··· ··· .. . ··· 0 0 0 .. . 1 0 0 0 . .. . λ Neste momento, nosso objetivo é encontrar uma base onde qualquer operador linear T é representado através de uma matriz formada por blocos de Jordan em sua diagonal. Tal matriz será chamada de Forma Canônica de Jordan. Teorema 3.2. Se T : V −→ V é um operador linear nilpotente com índice de nilpotência k ≥ 1, onde V é um espaço vetorial sobre o corpo K de dimensão finita, então existem números positivos t, k1 , . . . , kt e vetores v1 , . . . , vt ∈ V tais que: (a) k = k1 ≥ k2 ≥ k3 ≥ · · · ≥ kt . (b)O conjunto γ = {v1 , T (v1 ), . . . , T k1 −1 (v1 ), . . . , vt , T (vt ), . . . , T kt −1 (vt )} é uma base de V. − → (c)T ki (vi ) = 0 para cada i = 1, . . . , t. Demonstração: Como T é nilpotente de índice k, existe − → v1 ∈ V tal que T k−1 (v1 ) 6= 0 . Utilizando a Proposição 3.2 temos um conjunto β1 = {v1 , T (v1 ), T 2 (v1 ), . . . , T k−1 (v1 )} linearmente independente, onde v1 ∈ V e ainda, podemos escrever V = U1 ⊕ W1 onde U1 é gerado por β1 e W1 é subespaço T -invariante. 3.2. AUTOVETORES GENERALIZADOS 75 Seja k = k1 . Fazendo T1 = T |W1 , temos que T1 será nilpotente com o índice que denotaremos k2 , sendo que k2 ≤ k1 . Da mesma − → maneira, existe v2 ∈ W1 tal que T1k2 −1 (v2 ) = T k2 −1 (v2 ) 6= 0 e pela Proposição 3.2 temos W1 = U2 ⊕ W2 onde U2 é gerado por β2 = {v2 , T (v2 ), T 2 (v2 ), . . . , T k2 −1 (v2 )} , que é um conjunto linearmente independente, e W2 é um subespaço T -invariante. Fazendo T2 = T |W2 teremos um operador nilpotente de índice k3 , com k3 ≤ k2 . Como a dimensão de V é finita, se repetirmos este processo, chegaremos que k1 ≥ k2 ≥ k3 ≥ · · · ≥ kt . Além disso,vemos que γ = β1 ∪ β2 ∪ · · · ∪ βt é uma base de V , pois de acordo com a Proposição 3.2 temos V = U1 ⊕ U2 ⊕ · · · ⊕ Ut . − → Por fim, T ki (vi ) = 0 para cada i = 1, · · · , t, pois T |Wi é sempre nilpotente de índice ki . O Teorema 3.2 nos garante que existe uma base em que a representação matricial de um operador nilpotente será formada por blocos de Jordan, porém não especifica quem são os elementos desta base. Na próxima seção, teremos como objetivo reescrever o Teorema 3.2 em termos de autovetores generalizados, que nos permitirá explicitar esta base. 3.2 AUTOVETORES GENERALIZADOS Sempre que temos um operador linear T : V −→ V diagonalizável, podemos afirmar que existe uma base de V formada por autovetores de T . Porém, quando T não é diagonalizável, não haverá autovetores suficientes para compor uma base de V . Neste caso, veremos que existe uma base constituída pelo que chamaremos de cadeia de Jordan. Definição 3.3 (Autovetores generalizados). Seja T : V −→ V um operador linear. Se existirem escalares λ e p, com p positivo, tais que: − → (T − λI)p (v) = 0 Capítulo 3. A FORMA CANÔNICA DE JORDAN 76 e − → (T − λI)p−1 (v) 6= 0 então v é chamado de autovetor generalizado de T . Observe que se p = 1 então v é um autovetor de T . Exemplo 3.3. Seja T : R3 → R3 o operador linear dado por 0 0 1 [T ] = 1 1 0 . 1 0 0 O vetor v = (1, 0, 1) é um autovetor generalizado de T associado ao autovalor 1, com p = 2. De fato, 0 1 2 0 −2 2 (T − I) (v) = −1 0 1 0 = 0 −2 0 2 1 0 porém, −1 0 (T − I)(v) = 1 1 0 0 0 1 0 0 = 1 . 0 1 −1 1 Definição 3.4. Seja λ um autovalor do operador linear T : V → V. Uma cadeia de Jordan é uma sequência de vetores da forma: v, (T − λI)(v), (T − λI)2 (v), . . . , (T − λI)p−1 (v) sendo v um autovetor generalizado de T . Exemplo 3.4. Retomando o exemplo 3.3, temos que a sequência v = (1, 0, 1), (T − I)(v) = (0, 1, 0) é uma cadeia de Jordan associado ao autovalor 1. Teorema 3.3. Uma cadeia de Jordan é formada por vetores linearmente independentes. 3.2. AUTOVETORES GENERALIZADOS 77 Demonstração: Seja T um operador linear tal que a sequência v, (T − λI)(v), . . . , (T − λI)p−1 (v) − → − → é uma cadeia de Jordan, com (T − λI)p (v) = 0 e (T − λI)p−1 (v) 6= 0 . Suponhamos que − → a0 v + a1 (T − λI)(v) + . . . + ap−1 (T − λI)p−1 (v) = 0 . (3.4) Aplicando o operador (T − λI)p−1 em ambos os lados, obtemos − → a0 (T − λI)p−1 (v) + a1 (T − λI)p (v) + . . . + ap−1 (T − λI)2p−2 (v) = 0 . − → Como (T − λI)i (v) = 0 , para todo i ≥ p, então a igualdade anterior se reduz a − → a0 (T − λI)p−1 (v) = 0 . − → Como (T −λI)p−1 (v) 6= 0 , temos que a0 = 0. Reescrevendo a igualdade 3.4, temos − → a1 (T − λI)(v) + . . . + ap−1 (T − λI)p−1 (v) = 0 . (3.5) Aplicando (T − λI)p−2 em ambos os lados, temos − → a1 (T − λI)p−1 (v) + a2 (T − λI)p (v) + . . . + ap−1 (T − λI)2p−3 (v) = 0 que se reduz a − → a1 (T − λI)p−1 = 0 − → e portanto a1 = 0, visto que (T − λI)p−1 6= 0 . De modo análogo, concluímos que a2 = · · · = ap−1 = 0. Logo, a cadeia de Jordan é linearmente independente. Podemos generalizar o resultado do Teorema 3.3 para uma quantidade finita de cadeias de Jordan. Ou seja, a união de cadeias associadas a autovalores distintos é linearmente independente. Seja T : V −→ V um operador linear cujo polinômio característico é dado por p(x) = (x − λ)n , considere as seguintes cadeias de Capítulo 3. A FORMA CANÔNICA DE JORDAN 78 Jordan associadas ao autovalor λ: v1 , (T − λI)(v1 ), . . . , (T − λI)k1 −1 (v1 ), v2 , (T − λI)(v2 ), . . . .. . , (T − λI)k2 −1 (v2 ), vt , (T − λI)(vt ), . . . , (T − λI)kt −1 (vt ). − → Observe que (T − λI)ki (vi ) = 0 , para cada i = 1, . . . , t, e que o operador (T − λI) é nilpotente de índice menor ou igual a n, pois p(T ) = (T − λI)n = 0. Assim, conforme o Teorema 3.2 estas cadeias formam uma base para V . Logo, existe uma base formada por cadeias de Jordan tal que a representação de T nesta base está na forma de Jordan. 3.3 A FORMA CANÔNICA DE JORDAN Nesta seção, temos como finalidade utilizar os resultados vistos para construir a chamada forma canônica de Jordan, ou simplesmente, forma de Jordan de um operador linear qualquer. A existência da forma de Jordan para um operador qualquer decorre da sua existência para operadores nilpotentes. Mostraremos isto através do próximo Teorema que Coelho e Lourenço (2010) enuncia da seguinte forma: Teorema 3.4. Seja V um espaço vetorial de dimensão finita sobre K. Se T : V −→ V é um operador linear cujo polinômio característico é da forma p(x) = (x − λ1 )m1 · · · (x − λr )mr com mi > 1 e λi 6= λj , se i 6= j, então V = W1 ⊕ W2 ⊕ · · · ⊕ Wr onde, para cada 1 ≤ i ≤ r, tem-se que: (i) a restrição do operador T − λi I a Wi é nilpotente; (ii) Wi é T -invariante; (iii) dim(Wi ) = mi . 3.3. A FORMA CANÔNICA DE JORDAN 79 Demonstração: Considere a transformação (T − λi I) : V → V . Vamos denotar esta transformação por Ti = (T − λi I), para 1 ≤ i ≤ r. Pelo Teorema 3.1 existe uma decomposição V = Wi ⊕Ui , sendo Wi e Ui subespaços Ti -invariantes e as restrições de Ti a Wi e a Ui nilpotente e inversível, respectivamente. Desta forma, provamos o primeiro item. Como Wi é T -invariante e Ti = (T − λi I), pela Proposição 1.1, podemos afirmar que Wi e Ui são T -invariantes, provando assim o segundo item. Sejam agora T ′ = T |Wi e T ′′ = T |Ui , como V = Wi ⊕ Ui então pela Proposição 1.2 temos que o polinômio característico de T é escrito como p(x) = p′ (x) p′′ (x) sendo p′ (x) e p′′ (x) os polinômios característico de T ′ e T ′′ , respectivamente. Conforme a Proposição 3.1, temos que o operador T ′ − λi I possui apenas o zero como autovalor. Desta forma, para algum w ∈ Wi , − → com w 6= 0 , temos (T ′ − λi I)(w) = 0 · w isto é, assim, − → (T ′ − λi I)(w) = 0 − → T ′ (w) − λi w = 0 ⇒ T ′ (w) = λi w. Portanto, λi é o único autovalor de T ′ . Como (T ′′ − λi I) = (T |Ui − λi I) = (T − λi I)|Ui = Ti |Ui é inversível, temos que λi não é autovalor de T ′′ , em outras palavras det(T ′′ − λi I) 6= 0. Capítulo 3. A FORMA CANÔNICA DE JORDAN 80 Assim concluímos que p′ (x) = (x − λi )mi . Como p′ (x) é o polinômio característico de T ′ : Wi → Wi , então concluímos que dim(Wi ) = mi , provando o terceiro item. Como p(x) = (x − λ1 )m1 · · · (x − λr )mr , temos que dim(V ) = m1 + m2 + · · · + mr Pelo item (iii), obtemos dim(V ) = dim(W1 ) + dim(W2 ) + · · · + dim(Wr ). − → E como Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wr ) = { 0 }, então dim(V ) = dim(W1 + W2 + · · · + Wr ). Logo, V = W1 ⊕ W2 ⊕ · · · ⊕ Wr . Observe que para um operador T : V −→ V cujo polinômio característico é da forma p(x) = (x − λ1 )m1 · · · (x − λr )mr , tem-se que o polinômio minimal de T será dado por m(x) = (x−λ1 )n1 · · · (x−λr )nr , com ni ≤ mi . Assim, pelo Teorema da Decomposição Primária temos que os subespaços Wi do Teorema 3.4 são os núcleos de (T − λi I)ni . De acordo com o Teorema 3.4 o espaço vetorial V pode ser decomposto como uma soma direta de subespaços Wi que satisfazem os itens (i),(ii) e (iii). Tomando o operador Ti sendo a restrição de T a Wi , para cada i = 1, 2, . . . , r, temos que (Ti − λi I) é nilpotente. Observe que os polinômios característico e minimal do operador Ti são, respectivamente p(x) = (x − λi )mi e m(x) = (x − λi )ni 3.3. A FORMA CANÔNICA DE JORDAN Segundo o Teorema 3.2, existe uma 0 1 [Ti − λi I]γi = 0 . . . 0 isto é, [Ti ]γi λi 1 = 0 . . . 0 0 λi 1 .. . 0 81 base γi de Wi tal que 0 ··· 0 0 0 · · · 0 0 1 · · · 0 0 .. . . .. .. . . . . 0 ··· 1 0 0 0 0 .. . λi m ··· 0 ··· 0 ··· 0 . .. . .. ··· 1 i ×mi Podemos reescrever a matriz acima de tal forma que, para ni = ni1 ≥ ni2 ≥ · · · ≥ nij , sua diagonal é formada por blocos de Jordan, desta forma J(λi , ni1 ) 0 0 ··· 0 J(λi , ni2 ) · · · 0 [Ti ]γi = .. .. .. .. . . . . 0 0 sendo cada bloco dado por λi 1 J (λi , nij ) = 0 . . . 0 ··· 0 ··· 0 λi 1 .. . ··· ··· .. . 0 0 .. . 0 ··· J(λi , nij ) 0 mi ×mi 0 0 .. . 1 λi n ij ×nij para cada i = 1, . . . , r e j = 1, . . . , ti . Segundo o Teorema 1.3, existe uma base de V que é a união das bases γi de Wi , ou seja, γ = γ1 ∪ γ2 ∪ · · · ∪ γr . Capítulo 3. A FORMA CANÔNICA DE JORDAN 82 E finalmente, obtemos [T1 ]γ1 0 [T ]γ = .. . 0 [T2 ]γ2 .. . 0 0 ··· ··· .. . 0 0 .. . · · · [Tr ]γr que é dita a forma de Jordan de T . Pode-se demonstrar que a Forma Canônica de Jordan de um operador linear é única, a menos da posição dos blocos de Jordan ao longo da diagonal principal, conforme demonstrado por Lima (2009). Note que o polinômio minimal de T é dado por m(x) = (x − λ1 )n1 · · · (x − λr )nr e assim, para cada J(λi , nij ) há ao menos um bloco com ordem ni , sendo que os outros são de ordem menor ou igual a ni . Isto decorre do fato que o operador (Ti − λi I)ni = 0. E ainda, a soma das ordens dos J(λi , nij ) é mi . Para identificar quantos blocos J(λi , nij ) a matriz do operador possui, basta observar a multiplicidade geométrica de λi . Com base nas informações obtidas, temos condições de encontrar a Forma de Jordan para qualquer operador T : V → V , sendo V de dimensão finita. Vale salientar que T pode ser posto na Forma de Jordan quando seus polinômios característico e minimal são escritos como um produto de fatores lineares, e isto sempre acontece no corpo dos complexos. Exemplo 3.5. Seja T : R3 → R3 operador linear dado por T (x, y, z) = (2x + 6y − 15z, x + y − 5z, x + 2y − 6z). O operador T possui a representação matricial na base canônica 3.3. A FORMA CANÔNICA DE JORDAN da forma 83 −15 −5 −6 2 6 [T ] = 1 1 1 2 portanto, p(x) = (x + 1)3 . As possibilidades para o polinômio minimal são m(x) = (x + 1), m(x)(x + 1)2 ou m(x) = (x + 1)3 . Como (T + I) 6= 0 e (T + I)2 = 0, então o polinômio minimal de T é dado por m(x) = (x + 1)2 . Pelo Teorema da Decomposição Primária temos R3 = N uc(T + I)2 . − → Através do sistema (T + I)(v) = 0 é possível encontrar dois autovetores associados a λ = −1, assim a multiplicidade geométrica de λ = −1 é igual a 2, de modo que haverá dois blocos referentes a este autovalor. Resolvendo o sistema 0 x 3 6 −15 1 2 −5 y = 0 1 2 −5 z 0 obtemos os autovetores (−2, 1, 0) e (5, 0, 1). Precisamos encontrar uma base γ tal que a matriz [T ] esteja na forma de Jordan. Com isso, conforme o Teorema 3.2, resolvendo o − → sistema (T +I)2 (v) = 0 para obter a cadeia de Jordan, encontramos os autovetores generalizados (1, 0, 0), (0, 1, 0) e (0, 0, 1). Escolhendo v1 = (1, 0, 0), temos que o vetor (T + I)(v1 ) = (3, 1, 1) compõe a base γ. Tomando v2 = (−2, 1, 0), obtemos γ = {(1, 0, 0), (3, 1, 1), (−2, 1, 0)}. Logo, a matriz [T ]γ é representada por ! −1 0 1 −1 [T ]γ = −1 Capítulo 3. A FORMA CANÔNICA DE JORDAN 84 nos quais os elementos que não estão indicados são todos nulos. Exemplo 3.6. Seja T : R4 → R4 operador linear dado por T (x, y, z, t) = (2x − y + t, 3y − z, y + z, −y + 3t). O operador T possui representação da forma 2 −1 0 0 3 −1 [T ] = 0 1 1 0 −1 0 matricial na base canônica 1 0 . 0 3 Conforme o exemplo 1.5, temos que os polinômios característico e minimal de T são dados por p(x) = (x − 2)3 (x − 3) e m(x) = (x − 2)2 (x − 3). Pelo Teorema da Decomposição Primária, o espaço vetorial R4 pode ser escrito como R4 = N uc(T − 2I)2 ⊕ N uc(T − 3I). Para λ = 2, encontraremos os vetores que satisfazem a igual− → dade (T − 2I)(v) = 0 . Resolvendo o sistema 0 0 0 0 −1 1 1 −1 0 x 0 1 −1 0 y = 0 −1 0 z 0 t 0 1 0 encontramos os autovetores (0, 1, 1, 1) e (1, 0, 0, 0). Como a multiplicidade algébrica de λ = 2 é igual a 3, diferentemente da sua multiplicidade geométrica que é 2, então precisamos resolver outro sistema para obter um autovetor generalizado, ou seja, − → encontrar os vetores que satisfazem a igualdade (T − 2I)2 (v) = 0 . 3.3. A FORMA CANÔNICA DE JORDAN Resolvendo o sistema 0 0 0 0 −2 1 0 0 0 0 −2 1 85 1 0 x 0 y = 0 0 z 0 t 1 0 encontramos os autovetores generalizados (0, 1, 0, 2), (0, 0, 1, −1) e (1, 0, 0, 0). Escolhendo o vetor v1 = (0, 0, 1, −1), temos pelo Teorema 3.2 que o vetor (T − 2I)(v1 ) = (−1, −1, −1, −1) compõe a base γ. Note que teremos dois blocos associados ao autovalor λ = 2, com isso escolhemos o autovetor v2 = (0, 1, 1, 1). − → Para λ = 3, encontraremos um vetor v tal que (T −3I)(v) = 0 . Resolvendo o sistema −1 0 0 0 −1 0 1 −1 0 x 1 −1 0 y = 0 −2 0 z 0 0 t 0 0 0 encontramos o autovetor v3 = (1, 0, 0, 1). Como a multiplicidade geométrica do autovalor λ = 3 é igual a 1, então há somente um bloco referente a este autovalor. Logo, encontramos uma base γ = {(0, 0, 1, −1), (−1, −1, −1, −1), (0, 1, 1, 1), (1, 0, 0, 1)} tal que a representação de T nesta base é dada por ! 2 0 1 2 [T ]γ = 2 3 que é a forma de Jordan de T . Capítulo 3. A FORMA CANÔNICA DE JORDAN 86 Exemplo 3.7. Seja T : R6 → R6 operador linear dado por T (x, y, z, t, w, p) = (2x, x + 2y, −x + 2z, y + 2t, x + y + z + t + 2w, w − p) cuja representação na base canônica é 2 0 0 1 2 0 −1 0 2 [T ] = 0 1 0 1 1 1 0 0 0 0 0 0 0 0 0 2 0 1 2 0 1 0 . 0 −1 0 0 0 Os polinômios característico e minimal de T são p(x) = (x − 2)5 (x + 1) e m(x) = (x − 2)4 (x + 1) e segue que R6 = N uc(T − 2I)4 ⊕ N uc(T + I). Para λ = 2, 0 1 −1 0 1 0 temos o sistema 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 1 1 0 0 1 0 0 1 0 x 0 y 0 0 z 0 = , 0 t 0 0 w 0 p −3 0 0 que fornece os autovetores (0, 0, −1, 1, 0, 0) e (0, 0, 0, 0, 3, 1). − → Através do sistema (T − 2I)4 (v) = 0 , obtemos os autovetores generalizados (−6, 10, 0, 0, 0, 0), (−9, 0, 10, 0, 0, 0), (−9, 0, 0, 10, 0, 0), (27, 0, 0, 0, 10, 0), (−81, 0, 0, 0, 0, 10). Escolhendo v1 = (−6, 10, 0, 0, 0, 0), temos que os vetores = (−6, 10, 0, 0, 0, 0) (T − 2I)(v1 ) = (0, −6, 6, 10, 4, 0), (T − 2I)2 (v1 ) = (0, 0, 0, −6, 10, 4), (T − 2I)3 (v1 ) = (0, 0, 0, 0, −6, −2) v1 3.3. A FORMA CANÔNICA DE JORDAN 87 formam uma cadeia de Jordan para λ = 2. Como a multiplicidade geométrica é igual a 2, haverá dois blocos associados a λ = 2. Assim, seja v2 = (0, 0, −1, 1, 0, 0). Para λ = −1, temos o sistema 3 1 −1 0 1 0 0 3 0 0 0 0 0 0 0 3 0 0 1 0 3 0 1 1 1 3 0 0 0 1 0 0 x 0 y 0 0 z 0 = 0 t 0 0 w 0 0 0 p que fornece o autovetor v3 = (0, 0, 0, 0, 0, 1). Logo, γ = {(−6, 10, 0, 0, 0, 0), (0, −6, 6, 10, 4, 0), (0, 0, 0, −6, 10, 4), (0, 0, 0, 0, −6, −2), (0, 0, −1, 1, 0, 0), (0, 0, 0, 0, 0, 1)} e assim a forma de Jordan de T é 2 0 0 1 2 0 0 1 2 [T ]γ = 0 0 1 0 0 0 2 . 2 1 Exemplo 3.8. Seja T um operador linear cujos polinômios característico e minimal são, respectivamente p(x) = (x − 5)4 (x − 1)3 e m(x) = (x − 5)2 (x − 1)2 . Podemos encontrar as possíveis formas de Jordan com as informações dadas. Se o operador T possui dois autovetores independentes associ- 88 Capítulo 3. A FORMA CANÔNICA DE JORDAN ados a λ = 5, então sua forma de Jordan é dada por ! 5 0 1 5 ! 5 0 . 1 5 ! 1 0 1 1 1 No entanto, se possuir três autovetores independentes associa- dos a λ = 5 sua forma de Jordan será ! 5 0 1 5 5 5 . ! 1 0 1 1 1 Uma das aplicações da Foma Canônica de Jordan se encontra na resolução de sistemas de equações diferenciais lineares. Ao estudar o caso geral da equação diferencial linear x′ = Ax, onde A é uma matriz de ordem n × n, temos que a solução geral do problema de valor inicial (PVI) linear ( x′ = Ax x(0) = x0 é dada por x(t) = eAt x0 . Assim, para obtermos a solução do sistema é necessário calcular a matriz eAt , cuja obtenção é simplificada com o uso da Forma Canônica de Jordan, como veremos no exemplo abaixo. Exemplo 3.9. Seja o PVI da forma ( x′ (t) = Ax(t) x(0) = x0 3.3. A FORMA CANÔNICA DE JORDAN 89 sendo 3 A = 1 2 0 1 0 4 3 1 e x0 = 2 −1 6 Primeiramente, verificamos que a forma de Jordan de A, que denotaremos por J e com os polinômios característico e minimal da forma pA (x) = mA (x) = (x − 3)2 (x − 7), é dada por 3 0 J = 1 3 ! 7 associada a base γ = {(4, 0, −3), (0, 1, −1), (0, 1, 3)}. Assim, a matriz P de mudança de base, tal que J = P −1 AP , é igual a 4 0 0 1 . 3 P = 0 1 −3 −1 Para determinar a solução x(t) = eAt x0 , precisamos calcular a matriz eAt . Para isso, conforme Figueiredo e Neves (2008), algumas propriedades são necessárias: 1) Se P é uma matriz inversível então, eP −1 AP = P −1 eA P. 2) AB = BA se, e somente se e(A+B)t = eAt eBt , para todo t. 3) Usando a propriedade 2 e a expansão em série de MacLaurin A e = ∞ X Ai i=0 i! , Capítulo 3. A FORMA CANÔNICA DE JORDAN 90 temos eJ(λi ,ni )t = e(λi I+Ni )t = eλi t eNi t ni −1 2 N N i = eλi t I + Ni t + i t2 + · · · + tni −1 2! (ni − 1)! 1 0 0 0 0 t 1 0 0 0 2 t λi t t 1 0 0 (3.6) = e 2! . . . .. .. .. .. . . .. tni −2 tni −1 ··· t 1 (ni −1)! (ni −2)! ni ×ni onde Ni é uma matriz nilpotente 0 0 1 0 Ni = 0 1 . . . . . . 0 0 do tipo ··· 0 0 · · · 0 0 · · · 0 0 .. .. .. . . . ··· 1 0 n i ×ni ∞ Ai P é a soma de infinitos termos, porém se a matriz i=0 i! A for nilpotente esta soma se torna finita, pois a partir de uma certa Note que a série potência a matriz se anula. Portanto, a exponencial eP por blocos do tipo 3.6. −1 Observe que os blocos de Jordan de A são ! 3 0 J(3, 2) = e J(7, 1) = (7) . 1 3 Conforme as propriedades acima, temos eJ(3,2)t 3It+N1 t = e(3I+N1 )t = = e3t eN1 t !e 1 0 = e3t t 1 ! 3t 0 e = te3t e3t AP é formada 3.3. A FORMA CANÔNICA DE JORDAN 91 e = e(7I+N2 )t = e7It+N2 t = e7t eN2 t eJ(7,1)t = e7t (1) = (e7t ). Logo, eJt e3t = te3t 0 e3t 0 0 0 0 . e7t Com as informações obtidas, temos condições de encontrar a matriz eAt . Assim, eAt = P eJt P −1 4 0 = 0 1 0 e3t 1 te3t −1 3 0 −3 0 e3t 0 e3t te3t 3e3t 3e7t = − + 4 16 16 3e3t te3t 3e3t − 4 − 4 + 16 + 9e7t 16 1 4 3 0 − 16 3 e7t 16 0 3e3t 4 3e3t − 4 0 + e7t 4 3e7t + 4 0 3 4 1 4 0 − 14 1 4 0 3t − e4 + e3t 4 + e7t 4 7t 3e 4 Logo, a solução geral do sistema de equações diferenciais é dada por x(t) e3t te3t 4 3e3t 16 0 3e7t 16 = − 3e4 − = te3t 25e3t 7e7t . 4 + 16 + 16 3t te3t 21e7t − 13e − + 16 4 16 3t − te3t 4 e3t + + 3e3t 16 7t + 9e16 3e3t e7t + 4 4 3e3t 3e7t − 4 + 4 0 1 3t 7t − e4 + e4 2 e3t 3e7t −1 4 + 4 93 CONCLUSÃO O curso de Licenciatura em Matemática permite ao acadêmico uma visão de várias áreas da matemática. E este trabalho teve como um dos seus objetivos ampliar os conhecimentos referentes à Álgebra Linear. A construção da Forma Canônica de Jordan requer o estudo destes conhecimentos, para atingir tal objetivo se explorou alguns conceitos não abordados na graduação. Dentre eles, o estudo relativo aos operadores não diagonalizáveis. A Forma Canônica de Jordan possibilita uma representação matricial de um operador linear não diagonalizável de maneira mais simples possível, visto que este operador não possui uma base constituída por autovetores, assim não podendo ser representado por uma matriz diagonal. No entanto, através de uma base constituída por autovetores generalizados, este operador possui uma representação matricial formada por blocos de Jordan. Os operadores nilpotentes são de suma importância para a forma de Jordan, pois por meio deles a existência da forma de Jordan pode ser estendida para qualquer operador linear, quando este possui polinômios característico e minimal escritos como um produto de fatores lineares. Com isso, a forma de Jordan tem aplicabilidade na resolução de sistemas de equações diferenciais de primeira ordem. A resolução se torna simples quando a matriz dos coeficientes deste sistema for diagonalizável. Porém, quando esta matriz não é diagonalizável, podese reduzir o sistema a outro equivalente, cuja nova matriz esta na Forma de Jordan. As pesquisas realizadas neste trabalho despertaram o interesse em aprofundar ainda mais o conhecimento a respeito da Forma de Jor- 94 dan, de outras formas canônicas existentes e suas aplicações. Conclusão 95 Referências BUENO, H. P. Álgebra linear: Um segundo curso. Rio de Janeiro: IMPA, 2006. COELHO, F. U.; LOURENÇO, M. L. Um curso de álgebra linear. 2.ed. São Paulo; EDUSP, 2010. FIGUEIREDO, D. G.; NEVES, A. F. Equações Diferenciais Aplicadas. 3. Ed. Rio de Janeiro: IMPA, 2009. HOFFMAN, K; KUNZE, R. Linear Algebra. 2. ed. Rio de Janeiro: Prentice Hall, 1971. LANG, S.; JUTUCA, L. P. S. G. Álgebra linear. Rio de Janeiro: Ciência Moderna, 2003. LIMA, E. L. Álgebra Linear. 7. ed. Coleção Matemática Universitária. Rio de Janeiro: IMPA, 2009. LIPSCHUTZ, S; LIPSON, M. Álgebra Linear. 4.ed. Coleção Schaum. Porto Alegre: Bookman, 2011. PELLEGRINI J. C.. Álgebra Linear - notas de aula - versão 114. Disponível em <http://aleph0.info/cursos/al/notas/al.pdf>. Data de acesso: 12 de junho de 2015. Apêndices 99 APÊNDICE A – PROPRIEDADES Para a resolução do sistema de equações diferenciais do exemplo 3.9, foram utilizadas algumas propriedades, sendo duas delas demonstradas a seguir. Propriedade A.1. Se P é uma matriz inversível então, eP −1 AP = P −1 eA P. Demonstração: Utilizado a expansão em série de MacLaurin A e = ∞ X Ai i! i=0 temos que P −1 AP e = , ∞ X (P −1 AP )i i! i=0 Como (P −1 AP )i = P −1 Ai P , segue que P −1 AP e = = ∞ X (P −1 AP )i i=0 ∞ X i=0 i! P −1 Ai P i! = P −1 = P ∞ X Ai i=0 −1 A i! e P. Logo, eP −1 AP = P −1 eA P. ! P APÊNDICE A. PROPRIEDADES 100 Propriedade A.2. AB = BA se, e somente se e(A+B)t = eAt eBt , para todo t. Demonstração: (⇒) Precisamos mostrar que x1 (t) = eAt eBt e x2 (t) = e(A+B)t satisfazem o PVI dado por x′ (t) = (A + B)x2 (t), com x(0) = I. Pela regra do produto, segue que = AeAt eBt + eAt BeBt . x′1 (t) (A.1) Observe que eAt B = BeAt , pois At e B = ∞ X (At)i i=0 i! B = I · B + At · B + A2 t2 An tn · B + ··· + · B. 2 n Como as matrizes A e B comutam, segue que At e B A 2 t2 An tn = B · I + B · At + B · + ··· + B · 2 n ∞ X (At)i = B i! i=0 = BeAt . Retornando para a equação A.1, obtemos x′1 (t) = = AeAt eBt + BeAt eBt (A + B)eAt eBt . Pela unicidade de solução de equações diferenciais, temos que e(A+B)t = eAt eBt . (⇐) Derivando ambos os lados da igualdade e(A+B)t = eAt eBt , obtemos (A + B)e(A+B)t = AeAt eBt + eAt BeBt . Derivando novamente, obtemos (A + B)2 e(A+B)t = A2 eAt eBt + AeAt BeBt + AeAt BeBt + eAt B 2 eBt . 101 Fazendo t = 0, temos (A + B)2 = A2 + AB + AB + B 2 (A + B)(A + B) = A2 + 2AB + B 2 A2 + AB + BA + B 2 = A2 + 2AB + B 2 AB + BA = 2AB BA = AB. Logo, as matrizes A e B comutam.