UNIVERSIDADE DO ESTADO DE SANTA CATARINA - UDESC
CENTRO DE CIÊNCIAS TECNOLÓGICAS - CCT
CURSO DE LICENCIATURA EM MATEMÁTICA
TRABALHO DE CONCLUSÃO DE CURSO
A FORMA CANÔNICA DE JORDAN
JÉSSICA NECKEL CAVALHEIRO
JOINVILLE, 2015
JÉSSICA NECKEL CAVALHEIRO
A FORMA CANÔNICA DE JORDAN
Trabalho de Graduação apresentado ao
Curso de Licenciatura em Matemática
do Centro de Ciências Tecnológicas,
da Universidade do Estado de Santa
Catarina, como requisito parcial para
a obtenção do grau de Licenciatura em
Matemática.
Orientador(a):
Luis Mandler
JOINVILLE, SC
2015
Prof.
Ms.
Marnei
A minha família.
Agradecimentos
Primeiramente agradeço a Deus que me concedeu a oportunidade de realizar este curso.
Sou grata a todas as minhas amigas que de alguma forma me
ajudaram durante o curso, em especial as meninas Andressa Mocellin,
Bruna Corso, Evelyn Freitas, Joyce Finamor e Karla Prudencio.
Agradeço a professora Viviane, pois sem ela este trabalho não
seria possível. E ao professor Marnei que aceitou gentilmente o desafio
de orientar este trabalho e por sempre acreditar em mim.
E finalmente, a minha família pelo apoio e amor que me deram.
Resumo
CAVALHEIRO, Jéssica Neckel. A Forma Canônica de Jordan. 2015. 101p.. Trabalho de Conclusão de Curso (Graduação
em Licenciatura em Matemática) - Universidade do Estado de
Santa Catarina, Joinville, 2015.
A Forma Canônica de Jordan é um conceito bastante importante
da Álgebra Linear, pois fornece a representação matricial mais
simples possível para um operador linear não diagonalizável definido num espaço vetorial de dimensão finita. Para construir a
teoria que permeia a construção da Forma de Jordan utilizam-se,
neste trabalho, os conceitos, propriedades e resultados referentes
a Somas Diretas, Subespaços Invariantes, Decomposição Primária, Operadores Nilpotentes, Autovetores Generalizados, dentre
outros. Prova-se que a Forma Canônica de Jordan pode ser obtida quando o polinômio característico do operador considerado
puder ser decomposto em fatores lineares, o que sempre ocorre
no corpo dos complexos. A existência da Forma de Jordan para
um operador qualquer será uma consequência da sua existência
para operadores nilpotentes. Com o auxílio dos autovetores generalizados será possível exibir uma base para o espaço vetorial
em relação à qual a representação matricial do operador linear
considerado estará na Forma de Jordan. Diversos exemplos são
resolvidos detalhadamente, incluindo uma aplicação da Forma
de Jordan na resolução de Sistema de Equações Diferenciais Ordinárias.
Palavras-chave: Álgebra Linear. A Forma Canônica de Jordan.
Operadores Nilpotentes. Decomposição Primária.
Abstract
CAVALHEIRO, Jéssica Neckel. The Jordan Canonical Form.
2015. 101p.. Work of Course Conclusion (Graduate Degree in
Mathematics) - Santa Catarina State University, Joinville, 2015.
The Jordan’s canonical form is a important concept in linear
algebra, because it provides the simplest possible matrix representation to the linear operator not diagonalizable in a vector
space of finite dimension. To develop the theory construction of
the Jordan’s canonical form, was used in this bachelor work, the
concepts, properties and results for the Direct Sums, Invariant
Subspaces, Primary Decomposition, Nilpotent Operator, Generalized Eigenvectors, etc. Prove up that the Jordan’s canonical
form can be obtained when the characteristic polynomial of this
operator can be decomposed into linear factors, and this always
happens when it is in the field of the complexes. The existence of
the Jordan’s form for any operator will be a consequence of its
existence for nilpotent operators. With the aid of the generalized
eigenvectors, it is possible to show a basis for vector space for
which the matrix representation of linear operator is considered
in Jordan’s form. Several examples are solved in detail, including
an application of Jordan’s form to solve the system of ordinary
differential equation.
Key-words: Linear Algebra. The Jordan Canonical Form. Nilpotent Operators. Primary Decomposition.
Lista de símbolos
R
Conjunto dos números reais
K
Corpo (real ou complexo)
Mn (K)
Conjunto das matrizes quadradas de ordem n sobre
K
P (K)
Conjunto dos polinômios sobre K
dim(V )
Dimensão do Espaço Vetorial V
Im(T )
Imagem do operador T
N uc(T )
Núcleo do operador T
T |U
Restrição do operador linear T : V −→ V a um
subespaço vetorial U ⊂ V
h i
T
h i
T
Representação matricial do operador T na base canônica
γ
detA
Representação matricial do operador T na base γ
Determinante da matriz A
mdc(p1 , p2 ) Máximo divisor comum entre p1 (x) e p2 (x)
i
h
Subespaço vetorial gerado pelos vetores
v1 , v2 , · · · , vn
v1 , v2 , · · · , vn
Sumário
INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1 CONCEITOS PRELIMINARES . . . . . . . . . . . . . . . . 19
1.1 SOMA DIRETA . . . . . . . . . . . . . . . . . . . . . . 19
1.2
1.3
1.4
SUBESPAÇOS INVARIANTES . . . . . . . . . . . . . .
POLINÔMIOS DE MATRIZES . . . . . . . . . . . . . .
AUTOVALOR E AUTOVETOR . . . . . . . . . . . . .
24
29
32
1.5
OPERADORES DIAGONALIZÁVEIS . . . . . . . . . .
43
2 FORMA CANÔNICA RACIONAL
. . . . . . . . . . . . . . 47
2.1
2.2
DECOMPOSIÇÃO PRIMÁRIA . . . . . . . . . . . . . .
SUBESPAÇOS CÍCLICOS . . . . . . . . . . . . . . . .
47
53
2.3
FORMA CANÔNICA RACIONAL . . . . . . . . . . . .
59
3 A FORMA CANÔNICA DE JORDAN . . . . . . . . . . . . 63
3.1
3.2
3.3
OPERADORES NILPOTENTES . . . . . . . . . . . . .
AUTOVETORES GENERALIZADOS . . . . . . . . . .
A FORMA CANÔNICA DE JORDAN . . . . . . . . . .
CONCLUSÃO
63
75
78
. . . . . . . . . . . . . . . . . . . . . . . . . . . 93
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Apêndices
97
APÊNDICE A PROPRIEDADES . . . . . . . . . . . . . . . . 99
17
INTRODUÇÃO
Durante o curso de graduação em Licenciatura em Matemática,
o estudo dos operadores lineares fica basicamente restrito aos diagonalizáveis, ou seja, àqueles cujos autovetores formam uma base para o
espaço vetorial e, portanto, podem ser representados através de uma
matriz diagonal, sendo esta a melhor representação para estes casos.
Porém, não é estudado, ao longo da graduação, se existe uma forma de
representar os operadores que não são diagonalizáveis de uma maneira
mais simples. Veremos que existem outras formas que possibilitam esta
representação, uma delas é através da Forma Canônica Racional, que
abordaremos de forma sucinta neste trabalho, visto que nosso maior
objetivo é estudar a Forma Canônica de Jordan.
Para realizar o estudo referente aos operadores não diagonalizáveis, aprofundaremos e ampliaremos muitos dos conhecimentos já
vistos na disciplina de Álgebra Linear. Portanto, ao longo deste trabalho, será realizada uma revisão teórica dos conceitos necessários para
que seja possível definir a Forma Canônica de Jordan de um operador
linear definido num espaço vetorial de dimensão finita.
Apesar de não ser possível encontrar uma base formada por
autovetores, no caso dos operadores não diagonalizáveis, veremos que
através da Forma Canônica de Jordan, existe uma base formada por
autovetores generalizados a qual fornece uma representação matricial
cuja diagonal é constituída por blocos de Jordan. Os blocos de Jordan
são matrizes tais que sua diagonal principal é formada pelos autovalores
do operador, logo abaixo desta diagonal os elementos são todos iguais
a 1 e os restantes são todos nulos.
Para construir a Forma Canônica de Jordan recorremos aos
operadores nilpotentes, operadores que se anulam quando elevados a
18
Introdução
uma determinada potência, pois a existência da Forma Canônica de
Jordan para estes operadores possibilita sua existência para qualquer
operador linear.
Este trabalho consiste em uma pesquisa bibliográfica, pautada essencialmente em Coelho e Lourenço (2010), Lipschutz e Lipson
(2011), Lima (2009) e Hoffman e Kunze (1971). No Capítulo 1 será
feita uma revisão de alguns conceitos de Álgebra Linear. No Capítulo 2
será abordado a Forma Canônica Racional e o Decomposição Primária.
E finalmente, no Capítulo 3 será apresentada a construção da Forma
Canônica de Jordan, exibindo diversos exemplos.
19
1 CONCEITOS PRELIMINARES
Para compreendermos a Forma Canônica de Jordan será necessário discorrer sobre alguns conceitos preliminares de Álgebra Linear
que serão necessários para a sua construção.
1.1 SOMA DIRETA
Indicaremos V como um espaço vetorial sobre o corpo K, real
ou complexo, e U , W como subespaços vetoriais de V . Em nosso estudo será necessário escrever V como a soma de subespaços vetoriais,
isto nos auxiliará a demonstrar alguns resultados e, muitas vezes, será
conveniente que estes subespaços sejam ditos T-invariantes.
Quando V = U + W , isto significa que para qualquer v ∈ V
temos que v = u + w, onde u ∈ U e w ∈ W . Desta forma, podemos
definir a soma direta de subespaços vetoriais.
Definição 1.1. Dizemos que V é uma soma direta de U e W se para
todo elemento de v ∈ V , tem-se v = u + w, com u ∈ U e w ∈ W , de
maneira única.
−
→
Da mesma forma, se V = U + W e U ∩ W = { 0 }, então
podemos afirmar que a soma entre U e W é direta. Assim, temos o
seguinte teorema.
Teorema 1.1. Seja V um espaço vetorial sobre o corpo K e sejam U
−
→
e W dois subespaços de V. Se V = U + W e U ∩ W = { 0 }, então a
soma é direta.
Demonstração: Seja v ∈ V tal que v = u + w, sendo u ∈ U
e w ∈ W . Para provar que a soma é direta precisamos mostrar que
Capítulo 1. CONCEITOS PRELIMINARES
20
v = u + w é escrito de forma única. Assim, sejam u′ ∈ U e w′ ∈ V tal
que v = u′ + w′ . Desta forma
u + w = u′ + w ′
e então,
u − u′ = w ′ − w
−
→
com u − u′ ∈ U e w′ − w ∈ W . Como U ∩ W = { 0 }, temos
u − u′ = w ′ − w = 0
Donde, u − u′ = 0 e w′ − w = 0, desta forma u = u′ e w = w′ .
Logo, v = u + w é escrito de forma única.
Observação 1.1. Quando V é escrito numa soma direta de subespaços
U e W, denotamos
V = U ⊕ W.
A seguir, veremos que se V = U + W podemos encontrar a
dimensão desta soma através da expressão
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).
Porém, se a soma é direta fica evidente que dim(U + W ) =
dim(U ) + dim(W ). Para demonstrar o Teorema referente à esta dimensão, utilizaremos o seguinte Lema, baseado em Lipschutz e Lipson
(2010).
Lema 1.1. Sejam V um espaço vetorial de dimensão finita e α =
{u1 , u2 , . . . , ur } um conjunto de vetores linearmente independente em
V. Então α pode ser estendido para uma base de V.
Teorema 1.2. Sejam U e W subespaços vetoriais de V com dimensão
finita. Então:
dim(U + W ) = dimU + dimW − dim(U ∩ W ).
1.1. SOMA DIRETA
21
Demonstração:
Sejam dimU = m, dimW = n e dim(U ∩ W ) = r. Suponhamos
que α = {v1 , v2 , . . . , vr } é uma base de U ∩ W .
Pelo Lema 1.1, podemos estender α a uma base de U e a uma
base de W . Assim, obtemos β = {v1 , . . . , vr , u1 , u2 , . . . , um−r } uma base
de U e γ = {v1 , . . . , vr , w1 , w2 , . . . , wn−r } uma base de W e consideremos
δ = {v1 , . . . , vr , u1 , . . . , um−r , w1 , . . . , wn−r }.
Observe que δ tem m + n − r elementos. Precisamos mostrar
que δ é uma base de U + W . Como β gera U e γ gera W , então a união
de β com γ, que denotamos por δ, gera U + W .
Agora basta provar que γ é linearmente independente. Suponhamos que existem escalares ai , bj , ck , com 1 ≤ i ≤ r, 1 ≤ j ≤ m − r
e 1 ≤ k ≤ n − r, tais que:
−
→
a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r + c1 w1 + . . . + cn−r wn−r = 0 .
(1.1)
Seja,
v = a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r .
(1.2)
Por 1.1, obtemos:
v = −c1 w1 − . . . − cn−r wn−r .
(1.3)
Como β é uma base de U , então v ∈ U . Por 1.3 concluímos que
v ∈ W . Desta forma, v ∈ U ∩ W .
Como α é base de U ∩ W , então existem escalares d1 , . . . , dr
tais que
v = d1 v1 + . . . + dr vr .
Por 1.3, temos
d1 v1 + . . . + dr vr = −c1 w1 − . . . − cn−r wn−r
Capítulo 1. CONCEITOS PRELIMINARES
22
isto é,
−
→
d1 v1 + . . . + dr vr + c1 w1 + . . . + cn−r wn−r = 0 .
Como o conjunto γ é linearmente independente, temos que
c1 = · · · = cn−r = 0. Assim, a equação 1.1 resulta em
−
→
a1 v1 + . . . + ar vr + b1 u1 + . . . + bm−r um−r = 0 .
Como β é linearmente independente, temos que
a1 = · · · = ar = b1 = · · · = bm−r = 0.
Logo, de 1.1 concluímos que todos os coeficientes ai , bj , ck são
nulos, portanto δ é linearmente independente, finalizando a demonstração.
Depois de comprovado o Teorema 1.2, a demonstração do próximo Corolário é trivial.
Corolário 1.1. Se V é um espaço vetorial sobre K de dimensão finita
e V = U ⊕ W , então
dim(V ) = dim(U ) + dim(W ).
Demonstração: Como a soma de U e W é direta, temos que
−
→
U ∩ W = { 0 }. Assim, dim(U ∩ W ) = 0. Portanto, pelo Teorema 1.2
concluímos que dim(V ) = dim(U ) + dim(W ).
Se V = U ⊕ W e são conhecidas às bases de U e W , é possível
encontrar uma base para o espaço vetorial V , basta apenas fazer a
união de uma das bases de U com uma base de W , conforme o próximo
Teorema.
Teorema 1.3. Suponha que V = U ⊕ W e que B ′ = {u1 , . . . , um } e
B ′′ = {w1 , . . . , wn } sejam subconjuntos linearmente independentes de
U e W , respectivamente. Então, são válidas as seguintes afirmações:
1.1. SOMA DIRETA
23
(i) B = B ′ ∪ B ′′ é linearmente independente;
(ii) Se B ′ e B ′′ forem bases de U e W , respectivamente, então B =
B ′ ∪ B ′′ é uma base de V .
Demonstração: (i) Suponhamos que existam escalares ai , bj
pertencentes ao corpo K , 1 ≤ i ≤ m, 1 ≤ j ≤ n, tais que
−
→
a1 u1 + · · · + am um + b1 w1 + · · · + bn wn = 0 .
Então,
−
→ −
→
(a1 u1 + · · · + am um ) + (b1 w1 + · · · + bn wn ) = 0 + 0
onde a1 u1 +· · ·+am um ∈ U e b1 w1 +· · ·+bn wn ∈ W . Como V = U ⊕W ,
−
→
então esta soma para 0 é única, assim
−
→
−
→
a1 u1 + · · · + am um = 0 e b1 w1 + · · · + bn wn = 0 .
Como B ′ e B ′′ são conjuntos linearmente independentes então, os escalares ai e bj são todos nulos. Portanto, B = B ′ ∪ B ′′ é linearmente
independente.
(ii) Pelo item anterior, B = B ′ ∪ B ′′ é linearmente independente, assim
basta mostrar que B gera V . Seja v ∈ U + W , então v = u + w, com
u ∈ U e w ∈ W . Como B ′ é base de U e B ′′ base de W , temos
u = a1 u1 + · · · + am um
w = b1 w1 + · · · + bn wn ,
com ai , bj ∈ K. Então,
v = u + w = a1 u1 + · · · + am um + b1 w1 + · · · + bn wn .
Desta forma, B = B ′ ∪ B ′′ gera U + W , completando a demonstração.
Os resultados apresentados nesta seção usam o fato de V ser
decomposto em uma soma de dois subespaços. Porém, este resultados
permanecem válidos quando a soma se referir a qualquer quantidade
finita de subespaços vetoriais.
24
Capítulo 1. CONCEITOS PRELIMINARES
1.2 SUBESPAÇOS INVARIANTES
Os subespaços invariantes são fundamentais para o nosso estudo e os usaremos nos próximos capítulos. Lima (2009) define estes
subespaços da seguinte forma:
Definição 1.2. Um subespaço vetorial W ⊂ V é dito invariante pelo
operador T : V −→ V quando, para qualquer v ∈ W , T (v) ∈ W ,
ou ainda, T (W ) ⊂ W . Podemos também chamar este subespaço de
T-invariante.
Exemplo 1.1. Considere o subespaço W = {(x, y, z) ∈ R3 /y = 2x}.
Para o operador T (x, y, z) = x2 , y2 , 10z , o subespaço W é T -invariante,
pois
x
x 2x
, , 10z =
, x, 10z ∈ W.
T (x, 2x, z) =
2 2
2
Ao longo do trabalho denotaremos o núcleo e a imagem do operador linear T por N uc(T ) e Im(T ), respectivamente. Estes subespaços
são T-invariantes, conforme mostraremos na seguinte proposição:
Proposição 1.1. Seja V um espaço vetorial de dimensão finita sobre
o corpo K e considere o operador linear T : V → V . Então
(i) os subespaços Nuc(T) e Im(T) são T-invariantes;
(ii) dado W ⊂ V subespaço vetorial e λ ∈ K, W é (λI − T )-invariante
se, e somente se, W for T − invariante.
Demonstração: (i) Sabemos que para qualquer v ∈ N uc(T )
−
→
−
→
temos T (v) = 0 , como 0 ∈ N uc(T ), então T (v) ∈ N uc(T ). Portanto, N uc(T ) é um subespaço T-invariante. Ainda, para qualquer
u ∈ V , T (u) ∈ Im(T ), então é evidente que Im(T ) é um subespaço
T-invariante.
(ii) Seja W um subespaço (λI − T )-invariante. Dado w ∈ W temos
que
(λI − T )w ∈ W.
1.2. SUBESPAÇOS INVARIANTES
25
Seja w′ ∈ W tal que
(λI − T )(w)
= w′
ou seja,
λw − T (w) = w′ .
Isto é,
T (w)
= λw − w′ ∈ W.
Logo, W é T -invariante.
Suponhamos agora que W é T -invariante assim, T (w) = w′′ ∈
W , para todo w ∈ W . Desta forma, para todo w ∈ W temos
λw − T (w) = λw − w′′ ∈ W.
Assim,
(λI − T )(w) ∈ W.
Portanto, W é (λI − T )-invariante.
Ao estudarmos o operador linear T estaremos muito interessados em decomposições em somas diretas V = W1 ⊕ · · · ⊕ Wn , onde
cada um dos subespaços Wi seja T-invariante. Com isso, será conveniente olharmos para as restrições do operador linear nos subespaços Wi
que nos permitirá obter algumas informações sobre T . Com base nesta
decomposição, o Teorema 1.4 nos possibilitará representar a matriz do
operador T em um "formato" de matriz diagonal.
Teorema 1.4. Seja T : V −→ V um operador linear e V = W1 ⊕ W2 ,
onde W1 , W2 são subespaços T-invariantes. Sejam T1 = T |W1 e T2 =
T |W2 restrições do operador T nos subespaços W1 e W2 , respectivamente, então:
[T ] =
!
[T1 ]
0
0
[T2 ]
"
.
Capítulo 1. CONCEITOS PRELIMINARES
26
Demonstração: Sejam α = {v1 , . . . , vn } uma base de W1 e
β = {u1 , . . . , um } uma base de W2 . Como W1 e W2 são T-invariantes,
temos que
T (vi ) ∈ W1 ,
1≤i≤n
e
T (uj ) ∈ W2 ,
1 ≤ j ≤ m.
Como V = W1 ⊕ W2 , pelo Teorema 1.3, temos que
γ = {v1 , . . . , vn , u1 , . . . , um }
é uma base para V. Assim, obteremos a representação matricial de T
na base γ da seguinte forma:
T (v1 )
= a11 v1 + · · · + an1 vn + 0 · u1 + · · · + 0 · um
T (v2 )
= a12 v1 + · · · + an2 vn + 0 · u1 + · · · + 0 · um
..
.
T (vn )
= a1n v1 + · · · + ann vn + 0 · u1 + · · · + 0 · um .
E ainda,
T (u1 ) =
0 · v1 + · · · + 0 · vn + b11 u1 + · · · + bm1 um
T (u2 ) =
..
.
0 · v1 + · · · + 0 · vn + b12 u1 + · · · + bm2 um
T (um ) =
0 · v1 + · · · + 0 · vn + b1m u1 + · · · + bmm um .
Portanto,

a11
 .
 ..


an1
[T ]γ = 
 0

 .
 .
 .
0
a12
..
.
an2
a1n
..
.
ann
···
0
..
.
0
0
..
.
0
···
···
···
0
..
.
0
b11
..
···
.
· · · bm1
0
..
.
0
···
b12
..
.
bm2
···
···
···
···
···
0
..
.
0






.
b1m 

.. 

. 
bmm
1.2. SUBESPAÇOS INVARIANTES
27
Denotando as matrizes de T1 = T |W1 e T2 = T |W2 respectivamente por [T1 ]α = [aii ] e [T2 ]β = [bjj ], obtemos, facilmente, que
!
[T1 ]α
[T ]γ =
0
0
[T2 ]β
"
.
Suponhamos que V = W1 ⊕W2 ⊕· · ·⊕Wn , sendo Wi subespaço
T-invariante. Seja αi uma base de Wi , com 1 ≤ i ≤ n. Conforme o
Teorema 1.3, podemos escrever a base α de V como α = α1 ∪ · · · ∪ αn .
Generalizando o Teorema 1.4, representamos a matriz de T : V −→ V
da seguinte forma:



[T ]α = 


[T1 ]α1
0
···
0
..
.
0
[T2 ]α2
..
.
0
···
..
.
0


0 
.. 
.
. 
· · · [Tn ]αn
Um resultado interessante referente aos subespaços Im(T ) e
N uc(T ) T-invariantes é que, dado uma transformação T : V −→ W ,
sendo V e W espaços vetoriais de dimensão finita, temos que
dim(V ) = dim(N uc(T )) + dim(Im(T )).
Este resultado, intitulado de Teorema do Núcleo e da Imagem,
utiliza o fato de que se α = {T (u1 ), . . . , T (up )} e β = {v1 , . . . , vq } são
bases de Im(T ) e N uc(T ), respectivamente, então existe uma base para
V da forma:
γ = {u1 , . . . , up , v1 , . . . , vq }.
Elon (2009) enuncia o Teorema do Núcleo e da Imagem da seguinte
forma:
Teorema 1.5 (Teorema do Núcleo e da Imagem). Sejam V, W espaços
vetoriais de dimensão finita. Se T : V → W é uma transformação linear
Capítulo 1. CONCEITOS PRELIMINARES
28
qualquer, então
dim(V ) = dim(N uc(T )) + dim(Im(T )).
Demonstração: Sejam α e β bases de Im(T ) e N uc(T ),
respectivamente, dadas por
α = {T (u1 ), . . . , T (up )} e β = {v1 , . . . , vq }.
Se tivermos
−
→
a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq = 0
(1.4)
então, aplicando a transformação T em ambos os lados da igualdade,
obtemos
−
→
a1 T (u1 ) + · · · + ap T (up ) + b1 T (v1 ) + · · · + bq T (vq ) = 0 .
Como os vetores v1 , . . . , vq fazem parte do Núcleo de T , então
−
→
a1 T (u1 ) + · · · + ap T (up ) = 0 .
Como os vetores T (u1 ), . . . , T (up ) são linearmente independentes, segue
que a1 = · · · = ap = 0. Da igualdade 1.4, obtemos
−
→
b1 v1 + · · · + bq vq = 0 .
Assim, temos que b1 = · · · = bq = 0, pois os vetores v1 , . . . , vp
são linearmente independentes. Desta forma, sabemos que os vetores
u1 , . . . , up , v1 , . . . , vq são linearmente independentes. Neste momento,
precisamos mostrar que para qualquer w ∈ V tem-se
w = a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq .
Se w ∈ V então, T (w) ∈ Im(T ). Desta forma podemos escrever T (w)
como uma combinação linear da base α. Assim,
T (w) = a1 T (u1 ) + · · · + ap T (up ).
(1.5)
1.3. POLINÔMIOS DE MATRIZES
29
Reescrevendo a igualdade 1.5, temos
−
→
T (w) − a1 T (u1 ) − · · · − ap T (up ) = 0 ,
isto é,
−
→
T (w − (a1 u1 + · · · + ap up )) = 0 .
Então, o vetor w − (a1 u1 + · · · + ap up ) pertence ao N uc(T ) e
assim podemos escrevê-lo como uma combinação linear dos vetores da
base β. Portanto,
w − (a1 u1 + · · · + ap up ) = b1 v1 + · · · + bq vq ,
isto é,
w = a1 u1 + · · · + ap up + b1 v1 + · · · + bq vq .
Logo, o conjunto {u1 , . . . , up , v1 , . . . , vq } gera o espaço vetorial V e portanto forma uma base de V . Desta forma,
dim(V ) = p + q = dim(N uc(T )) + dim(Im(T )).
1.3 POLINÔMIOS DE MATRIZES
O objetivo desta seção é estabelecer algumas das propriedades
básicas referentes a polinômios de matrizes, as quais enunciaremos no
Teorema 1.6. Estas propriedades serão úteis na demonstração de alguns
resultados posteriores.
Seja p(x) um polinômio de grau n, definido da seguinte forma:
p(x) = an xn + · · · + a1 x + a0 .
Se A é uma matriz quadrada, definimos o polinômio da matriz A, através de
p(A) = an An + · · · + a1 A + a0 I.
Dizemos que A é raiz do polinômio p(x) quando p(A) é a matriz nula.
Capítulo 1. CONCEITOS PRELIMINARES
30
Teorema 1.6. Sejam p(x) e q(x) polinômios representados por
p(x) = an xn + · · · + a1 x + a0
e
q(x) = bm xm + · · · + b1 x + b0 ,
onde x ∈ K. Dados qualquer matriz quadrada A e qualquer escalar k,
valem as seguintes propriedades:
(i) (kp + q)(A) = kp(A) + q(A).
(ii) (pq)(A) = p(A)q(A).
(iii) p(A)q(A) = q(A)p(A).
Demonstração: (i) Seja kp(x) = kan xn + · · · + ka1 x + ka0 .
Suponhamos que m ≤ n e assim definiremos
(kp + q)(x) = (kan + bn )xn + · · · + (ka1 + b1 )x + (ka0 + b0 ),
com bi = 0 quando i > m. Assim,
(kp + q)(A) =
(kan + bn )An + · · · + (ka1 + b1 )A + (ka0 + b0 )I
= kan An + bn An + · · · + ka1 A + b1 A + ka0 I + b0 I
= (kan An + · · · + ka1 A + ka0 I) + (bn An + · · · + b1 A + b0 I)
= k(an An + · · · + a1 A + a0 I) + (bn An + · · · + b1 A + b0 I)
= kp(A) + q(A).
Logo,
(kp + q)(A) = kp(A) + q(A).
(ii) Lipschutz e Lipson (2011) definem o polinômio (pq)(x) da seguinte
forma:
cn+m xn+m + · · · + c1 x + c0
n+m
X
=
cr xr ,
(pq)(x) =
r=0
sendo cr = a0 br + a1 br−1 + · · · + ar b0 =
r
P
ai br−1 . Assim, segue que
i=0
(pq)(A) =
n+m
X
r=0
cr Ar .
1.3. POLINÔMIOS DE MATRIZES
31
E, portanto
p(A)q(A)
=
! n
X
ai Ai
i=0
=
n
X
i=0
=


n+m
X
m
X
j=0
"

m
X
j=0

bj Aj 

ai bj Ai+j 
cr Ar
r=0
= (pq)(A).
Logo,
p(A)q(A) = (pq)(A).
(iii) Como a igualdade p(x)q(x) = q(x)p(x) é verdadeira, para qualquer
x ∈ K, pelo item (ii) temos
p(A)q(A) = (pq)(A) = (qp)(A) = q(A)p(A).
2
2
Exemplo
1.2.
!
" Sejam p1 (x) = x − 3x + 7 e p2 (x) = x − 6x + 13, para
1 −2
A=
, temos que
4 5
p1 (A) = A2 − 3A + 7I
!
"!
"
!
"
!
1 −2
1 −2
1 −2
1
=
−3
+7
4 5
4 5
4 5
0
!
" !
" !
"
−7 −12
−3
6
7 0
=
+
+
24
17
−12 −15
0 7
!
"
−3 −6
=
.
12
9
0
1
"
Capítulo 1. CONCEITOS PRELIMINARES
32
E,
A2 − 6A + 13I
"
"
!
"
!
"!
!
1 0
1 −2
1 −2
1 −2
+ 13
−6
=
0 1
4 5
4 5
4 5
!
" !
" !
"
13 0
−7 −12
−6
12
=
+
+
24
17
−24 −30
0 13
"
!
0 0
.
=
0 0
p2 (A) =
Note que p2 (A) resulta na matriz nula, assim A é raiz do polinômio p2 .
Sejam T : V −→ V um operador linear sobre um espaço vetorial sobre K e p(x) = an xn +· · ·+a1 x+a0 . Identificando a representação
matricial de T por A, podemos definir p(T ) da mesma forma como foi
feito para p(A), isto é,
p(T ) = an T n + · · · + a1 T + a0 I.
Com isso, as relações estabelecidas no Teorema 1.6 permanecem válidas
para operadores lineares.
1.4 AUTOVALOR E AUTOVETOR
Ao longo desta seção discutiremos sobre os polinômios característico e minimal de um operador linear e suas relações. Nosso objetivo
principal será mostrar o Teorema de Cayley-Hamilton que afirma que
um operador sempre anula o seu polinômio característico.
Primeiramente, definiremos autovalor e autovetor, conceitos
que estão relacionados com estes dois polinômios.
Definição 1.3. Seja T : V −→ V um operador linear. Um autovalor
−
→
de T é um escalar λ em K tal que exista v 6= 0 em V com T (v) = λv.
−
→
Assim, o vetor v ∈ V , v 6= 0 , tal que T (v) = λv é chamado autovetor
de T associado ao autovalor λ.
1.4. AUTOVALOR E AUTOVETOR
33
Teorema 1.7. Seja T : V −→ V um operador linear. As seguintes
afirmações são equivalentes:
(i) λ é autovalor de T ;
(ii) O operador (λI − T ) é singular;
(iii) det(λI − [T ]) = 0.
Demonstração: Se λ é autovalor de T então existe um vetor
−
→
não nulo v ∈ V tal que T (v) = λv. Desta forma, (λI − [T ])v = 0 . A
partir disso é fácil perceber que as afirmações são equivalentes.
Considere o polinômio p(x) = det(xI − T ) de grau n e cujo
termo líder é xn . Este polinômio é chamado de polinômio característico
de T e suas raízes, de acordo com o Teorema 1.7, são os autovalores de
T.
Lema 1.2. Matrizes semelhantes têm o mesmo polinômio característico.
Demonstração: Sejam A e B duas matrizes semelhantes.
Logo existe P inversível tal que
A = P BP −1 .
Assim,
det(xI − A) =
det(xI − P BP −1 )
= det(xP IP −1 − P BP −1 )
= det(P (xI − B)P −1 )
= detP · det(xI − B) · detP −1
1
= detP · det(xI − B)
detP
= det(xI − B).
Logo, as matrizes A e B possuem o mesmo polinômio característico.
Capítulo 1. CONCEITOS PRELIMINARES
34
Como podemos representar um operador linear matricialmente,
então o Lema acima aplica-se também aos operadores.
Se T : V −→ V é um operador linear e V = W1 ⊕ W2 ,
então é possível escrever o polinômio característico de T em função
dos polinômios característicos das restrições de T a W1 e W2 . Este
resultado nos auxiliará na demonstração do Teorema que constrói a
forma de Jordan de um operador linear.
Proposição 1.2. Seja V = W1 ⊕ W2 , onde W1 e W2 são subespaços
T -invariantes. Considere o operador linear T : V −→ V e sejam T1 =
T |W1 e T2 = T |W2 , então
p(x) = p1 (x) · p2 (x)
onde p(x), p1 (x) e p2 (x) são os polinômios característicos de T, T1 e T2 ,
respectivamente.
Demonstração: Segundo o Teorema 1.4, podemos representar o operador linear T da seguinte maneira:
"
!
[T1 ]
0
.
[T ] =
0
[T2 ]
Desta forma, obtemos facilmente o polinômio p(x). Assim,
p(x) =
det(xI − [T ])
!
"
xI − [T1 ]
0
= det
0
xI − [T2 ]
= det((xI − [T1 ]) · (xI − [T2 ]))
= det(xI − [T1 ]) · det(xI − [T2 ])
= p1 (x) · p2 (x).
Antes de demonstrarmos o Teorema de Cayley-Hamilton vamos definir, baseado em Coelho e Lourenço (2010) e Lipchutz e Lipson
1.4. AUTOVALOR E AUTOVETOR
35
(2011), o conceito de uma Matriz Adjunta, pois o usaremos em nossa
demonstração.
Definição 1.4. Seja Mn (K) o conjunto das matrizes quadradas de
ordem n sobre K. Dado A ∈ Mn (K), a matriz adjunta de A será a
transposta da matriz B = [bij ] tal que bij = (−1)i+j det(Aij ) onde Aij
é a matriz em Mn−1 (K) formada a partir de A retirando-se sua iésima linha e sua j-ésima coluna. Dizemos que os elementos bij são os
cofatores de A.

2

Exemplo 1.3. Seja A =  0
1
adjunta B.

3 −4

−4 2 , encontraremos a matriz
−1 5
Cada elemento da matriz B é escrito da seguinte forma:
!
"
−4
2
b11 = (−1)1+1 · det
= −20 + 2 = −18
−1 5
!
"
0
2
=2
b12 = (−1)1+2 · det
1 5
"
!
0
−4
b13 = (−1)1+3 · det
=4
1 −1
!
"
3
−4
= −(15 − 4) = −11
b21 = (−1)2+1 · det
−1 5
!
"
2 −4
b22 = (−1)2+2 · det
= 10 + 4 = 14
1 5
"
!
2 3
b23 = (−1)2+3 · det
= −(−2 − 3) = 5
1 −1
!
"
3 −4
= 6 − 16 = −10
b31 = (−1)3+1 · det
−4 2
Capítulo 1. CONCEITOS PRELIMINARES
36
b32 = (−1)3+2 · det
!
2
−4
0
2
!
2 3
b33 = (−1)3+3 · det
0 −4
Logo, a adjunta de A é a matriz


B=
−18
2
4
"
= −4
"
= −8
−11 −10
14
5
Note que detA = −46 e que

−46
0

AB =  0
−46
0
0


−4  .
−8

0

0  = BA
−46
Esta é uma propriedade geral satisfeita por uma matriz e sua adjunta.
Lema 1.3. Para qualquer matriz quadrada A, sendo B sua adjunta, é
válido que
A · B = B · A = detA · I
Utilizando este Lema, cuja demonstração pode ser obtida em
Lipschutz e Lipson (2011), conseguiremos provar o Teorema a seguir.
Teorema 1.8 (Cayley-Hamilton). Se T é um operador linear sobre V
e se p(x) é o polinômio característico de T , então p([T ]) = 0.
Demonstração: Sejam A = [T ] e p(x) o polinômio característico de A, dado por:
p(x) = det(xI − A) = xn + an−1 xn−1 + · · · + a1 x + a0 .
Denotemos por B(x) a matriz adjunta de (xI − A), onde os
elementos de B(x) são cofatores da matriz (xI − A). Observe que podemos escrever cada elemento de B(x) como um polinômio de grau no
1.4. AUTOVALOR E AUTOVETOR
37
máximo igual a n − 1. Assim, vamos decompor a matriz adjunta da
seguinte forma:
B(x) = Bn−1 xn−1 + · · · + B1 x + B0 .
Usando o Lema 1.3, temos que
p(x) · I
= det(xI − A) · I
=
(xI − A) · B(x)
=
(xI − A) · (Bn−1 xn−1 + · · · + B1 x + B0 )
= Bn−1 xn + · · · + B1 x2 + B0 x − ABn−1 − · · · − AB1 x − AB0 .
(1.6)
Por outro lado,
p(x) · I
= (xn + an−1 xn−1 + · · · + a1 x + a0 ) · I
= xn I + an−1 xn−1 I + · · · + a1 xI + a0 I.
(1.7)
Igualando as equações 1.6 e 1.7 e comparando os coeficientes das potências correspondentes de x, obtemos


Bn−1





Bn−2 − ABn−1





B
− ABn−2

 n−3
..
.




B1 − AB2





B0 − AB1




−AB0
=
=
=
..
.
=
=
=
I
an−1 I
an−2 I
..
.
.
a2 I
a1 I
a0 I
Multiplicando essas equações respectivamente por An , An−1 , . . . , A, I,
obtemos
38
Capítulo 1. CONCEITOS PRELIMINARES


An Bn−1





An−1 Bn−2 − An Bn−1





An−2 Bn−3 − An−1 Bn−2


..
.




A2 B1 − A3 B2





AB0 − A2 B1




−AB0
=
An
= an−1 An−1
= an−2 An−2
..
..
.
.
.
=
a2 A
=
=
a1 A
a0 I
Somando estas equações, obtemos
0 = An + an−1 An−1 + · · · + a1 A + a0 I.
Portanto,
p(A) = p([T ]) = 0.
O Teorema de Cayley-Hamilton afirma que a matriz de um
operador linear sempre é um zero do seu polinômio característico.
Exemplo 1.4. Seja T : R2 → R2 um operador linear dado por
T (x, y, z) = (x + 2y, 4y).
Denotaremos A = [T ]. Representando o operador matricialmente, temos
!
"
1 2
A=
.
0 4
Para obter o polinômio característico de T , basta calcular o det(xI −A),
assim
p(x) = det(xI − A)
!
x−1
= det
0
=
−2
x−4
(x − 1)(x − 4)
= x2 − 5x + 4.
"
1.4. AUTOVALOR E AUTOVETOR
39
Portanto, o polinômio característico de T é dado por p(x) = x2 −5x+4.
Calculando p(A), temos
p(A) = A2 − 5A + 4I.
Assim,
p(A)
!
"!
"
!
"
!
"
1 2
1 2
1 2
1 0
=
−5
+4
0 4
0 4
0 4
0 1
!
" !
" !
"
1 10
5 10
4 0
=
−
+
0 16
0 20
0 4
"
" !
!
4 0
4 0
−
=
0 4
0 4
!
"
0 0
=
.
0 0
Logo, p([T ]) = 0.
−
→
Um polinômio m(x) é chamado T-anulador se m(T )(v) = 0 ,
para qualquer v ∈ V , com base nisso definiremos o polinômio minimal
de acordo com Coelho e Lourenço (2010).
Definição 1.5. O polinômio minimal de um operador T é o polinômio
−
→
mônico m(x) de menor grau tal que m(T )(v) = 0 , para qualquer v ∈
V.
Conforme o Teorema de Cayley-Hamilton, o polinômio característico é um polinômio T-anulador, porém não necessariamente será
o minimal.
Estas informações nos ajudam a perceber que o polinômio minimal do operador T divide qualquer polinômio T-anulador.
Algumas conclusões podem ser obtidas a respeito do polinômio característico p(x) e o polinômio minimal m(x). Estes polinômios
possuem as mesmas raízes (a menos de multiplicidade) e o minimal é
divisor do característico.
Capítulo 1. CONCEITOS PRELIMINARES
40
Conforme Coelho e Lourenço (2010) e Lipschutz e Lipson (2011)
enunciaremos o próximo Teorema que estabelece essas relações.
Teorema 1.9. Seja T : V −→ V operador linear sobre um espaço V
em um corpo K. São válidas as seguintes afirmações:
(i) m(x) divide p(x);
(ii) m(x) possui as mesmas raízes de p(x), a menos de multiplicidade.
Demonstração: Seja P (K) o conjunto de polinômios sobre
o corpo K. Pelo algoritmo de divisão de Euclides, existem polinômios
q, r ∈ P (K) tais que
p(x) = m(x)q(x) + r(x),
∀x ∈ K
(1.8)
onde r(x) = 0 ou grau(r(x)) < grau(m(x)).
Aplicando a equação 1.8 em T (v), obtemos
p(T )(v) = m(T )(v)q(T )(v) + r(T )(v).
−
→
Por definição m(T )(v) = 0 e pelo Teorema 1.8 temos p(T )(v) =
−
→
−
→
0 , assim r(T )(v) = 0 , para qualquer v ∈ V .
Se r(x) 6= 0, então r(x) é um polinômio que tem grau menor do
que m(x). Porém, r(x) possui T como raiz, o que contradiz a definição
de polinômio minimal. Portanto, r(x) = 0 e assim
p(x) = m(x)q(x),
∀x ∈ K
isto é, m(x) divide p(x).
(ii) Precisamos provar que se λ for raiz de p(x), então também será
raiz de m(x). Analogamente, se λ for raiz de m(x), terá que ser raiz de
p(x).
Se p(λ) = 0, então λ é autovalor de T. Assim, existe v ∈ V tal
−
→
que T (v) = λv, com v 6= 0 . Observe que, para cada i ≥ 1, temos
T i (v) = λi v.
1.4. AUTOVALOR E AUTOVETOR
41
Escrevendo m(x) = xm + am−1 xm−1 + · · · + a1 x + a0 , obtemos
−
→
0 = m(T )(v)
= T m (v) + am−1 T m−1 (v) + · · · + a1 T (v) + a0 (v)
= λm (v) + am−1 λm−1 (v) + · · · + a1 λ(v) + a0 (v)
=
m
(λ +
m−1
X
ai λi )(v).
i=0
−
→
Como v 6= 0 , então
m
λ +
m−1
X
ai λi
= 0.
i=0
Ou seja, m(λ) = 0. Portanto, λ é raiz de m(x).
Suponhamos agora que m(λ) = 0, então podemos escrever
m(x) da seguinte forma
m(x) = (x − λ)q(x).
Pela minimalidade de m(x), podemos afirmar que q(T ) 6= 0, então
−
→
existe u ∈ V tal que q(T )(u) 6= 0 . Seja v = q(T )(u), assim
−
→
0 = m(T )(u)
= (T − λI)q(T )(u)
= (T − λI)(v).
Desta forma, T (v) = λv, logo λ é autovalor de T, ou seja, p(λ) = 0.
Exemplo 1.5. Seja T : R4 → R4 operador linear dado por
T (x, y, z, t) = (2x − y + t, 3y − z, y + z, −y + 3t).
O operador T possui representação
da forma

2 −1 0

0 3 −1
[T ] = 
0 1
1

0 −1 0
matricial na base canônica
1


0
.
0

3
Capítulo 1. CONCEITOS PRELIMINARES
42
Observe que o polinômio p(x) = det(xI − T ) = (x − 2)3 (x − 3) é
o polinômio característico de T . O polinômio minimal de T deve ser
mônico e possuir as mesmas raízes que o polinômio característico, então
os polinômios (x − 2)(x − 3), (x − 2)2 (x − 3) e (x − 2)3 (x − 3) são
possíveis minimais. Como o polinômio minimal deve ser o de menor
grau tal que m([T ]) = 0, então denotando m1 (x) = (x − 2)(x − 3),
m2 (x) = (x − 2)2 (x − 3) e m3 (x) = (x − 2)3 (x − 3), temos
m1 ([T ]) =
(T − 2)(T

0 −1

0 1
= 
0 1

0 −1

0 −1

0 −1
= 
0 −1

0 −1
m2 ([T ])
− 3)


−1 −1 0 1
0 1



0
0
−1
0
−1 0




1 −2 0
−1 0  0

0 −1 0 0
0 1

1 0

1 0
.
1 0

1 0
(T − 2)2 (T − 3)


−1
0 −2 1 1


0 0 0 0   0

= 
0 0 0 0   0


0
0 −2 1 1


0 0 0 0


0 0 0 0 

= 
0 0 0 0  .


0 0 0 0
=

−1 0 1

0 −1 0

1 −2 0

−1 0 0
Logo, o polinômio m2 (x) = (x − 2)2 (x − 3) é o polinômio de menor grau
tal que anula o operador, portanto m2 (x) é o minimal.
1.5. OPERADORES DIAGONALIZÁVEIS
43
1.5 OPERADORES DIAGONALIZÁVEIS
Considere uma matriz quadrada A de ordem n. Dizemos que
A é semelhante a uma matriz diagonal se existir uma matriz inversível
P tal que
A = P DP −1 ,
sendo D uma matriz diagonal.
Através dos autovetores de A é possível verificar se ela é diagonalizável, basta constatar se A possui n autovetores linearmente
independentes, conforme enunciado no Teorema 1.10.
Teorema 1.10. Uma matriz A de ordem n é diagonalizável se, e somente se, possui n autovetores linearmente independentes.
Demonstração: (⇒) Se A é uma matriz diagonalizável, então
existe uma matriz inversível P tal que
A = P DP −1
isto é,
(1.9)
AP = P D
sendo

λ1

0


D=0
.
.
.
0
0
λ2
0
..
.
0
··· 0
··· 0
··· 0
.
..
. ..
··· 0

0

0

0
.
.. 

. 
λn
Seja P uma matriz cujas colunas são constituídas pelos vetores
v1 , v2 , . . . , vn , denotada por
P = [v1
v2 . . . vn ].
Temos que
AP = [Av1
Av2 . . . Avn ]
Capítulo 1. CONCEITOS PRELIMINARES
44
e
P D = [λ1 v1
λ2 v2 . . . λn vn ]
assim, por 1.9:
[Av1
Av2 . . . Avn ] = [λ1 v1
λ2 v2 . . . λn vn ].
Logo, Avi = λi vi e consequentemente, vi é um autovetor de A associado
ao autovalor λi , para 1 ≤ i ≤ n. Como a matriz P é inversível, segue
que suas colunas são linearmente independentes. Portanto, A possui n
vetores linearmente independentes.
(⇐) Seja P = [v1
v2 . . . vn ] a matriz formada pelos autovetores de
A em suas colunas. Assim
AP = [Av1
Av2 . . . Avn ].
(1.10)
Como v1 , v2 , . . . , vn são autovetores linearmente independentes de A, a
igualdade 1.10 resulta em
AP = [λ1 v1
λ2 v2 . . . λn vn ].
isto é,
AP = [v1
v2 . . . vn ] · diag(λ1 , λ2 , . . . , λn ).
Portanto, AP = P D. Como as colunas de P são linearmente independentes, então existe P −1 tal que
A = P DP −1 .
Logo, a matriz A é diagonalizável.
O Teorema 1.10 é válido da mesma forma para operadores,
basta tomar A como a representação matricial de um operador linear
qualquer. Com base nestas informações, definiremos um operador diagonalizável. Hoffman e Kunze (1971) o definem da seguinte forma:
Definição 1.6. O operador T : V −→ V , onde V é um espaço vetorial
de dimensão finita, é diagonalizável se existe uma base de V formada
por autovetores de T.
1.5. OPERADORES DIAGONALIZÁVEIS
45
Observe que se α é uma base de autovetores e λi são autovalores
do operador T, então a matriz de T em relação à base ordenada α é
diagonal, ou seja,


0 ... 0
λ1 0


 0 λ2 0 . . . 0 



 0
0
λ
.
.
.
0
3
[T ]α = 
.
 .
..
.. . .
.. 
 .
. . 
.
.

 .
0
0
0 . . . λn
Necessitamos entender o conceito de Operadores Diagonalizáveis para que futuramente obtermos a Forma Canônica de Jordan dos
operadores que não são diagonalizáveis, ou seja, no caso em que a representação de T não poderá ser uma matriz diagonal, porém será obtido
uma matriz “quase” diagonal.
47
2 FORMA CANÔNICA RACIONAL
O foco deste trabalho não está na construção da Forma Canônica Racional, porém durante nossos estudos descobrimos que esta
forma pode ser utilizada mesmo quando os polinômios característico
e minimal não podem ser fatorados em polinômios lineares, o que não
ocorre com a Forma Canônica de Jordan. Então, achamos importante
para o conhecimento o estudo sucinto da Forma Canônica Racional,
onde a matriz de um operador é formada por blocos de "Matrizes Companheiras".
2.1 DECOMPOSIÇÃO PRIMÁRIA
A Decomposição Primária nos auxilia na obtenção de uma
forma canônica para o operador linear T . Esta decomposição mostra
que qualquer operador linear T : V −→ V pode ser decomposto em
operadores cujos polinômios minimais são potências de polinômios irredutíveis.
A proposição seguinte descreve, conforme Lang e Jutuca (2003),
uma decomposição para V numa soma direta de subespaços invariantes, obtida a partir de um polinômio que é escrito como um produto
de dois polinômios cujo máximo divisor comum é 1. Iremos demonstrar apenas um caso particular, porém este resultado também é válido
quando este polinômio é expresso como o produto de uma quantidade
finita de fatores.
Proposição 2.1. Seja P (K) o conjunto de polinômios sobre o corpo
K. Dado m(x) ∈ P (K) um polinômio com
m(x) = p1 (x)p2 (x)
Capítulo 2. FORMA CANÔNICA RACIONAL
48
sendo p1 e p2 polinômios de grau maior ou igual a 1 tais que
mdc(p1 (x), p2 (x)) = 1.
−
→
Se T : V −→ V é um operador linear tal que m(T )(v) = 0 , para
qualquer v ∈ V , então
V = N uc(p1 (T )) ⊕ N uc(p2 (T )).
Demonstração: Vamos denotar os núcleos de p1 (T ) e p2 (T ),
respectivamente, como W1 e W2 . Como mdc(p1 (x), p2 (x)) = 1, então
existem polinômios q1 (x) e q2 (x) tais que,
p1 (x)q1 (x) + p2 (x)q2 (x) = 1, ∀x ∈ K.
Portanto,
p1 (T )q1 (T ) + p2 (T )q2 (T ) = I
onde I é o operador identidade. Tomando v ∈ V , temos
p1 (T )q1 (T )(v) + p2 (T )q2 (T )(v) = v.
Podemos observar que p1 (T )q1 (T )v ∈ W2 , pois
p2 (T )(p1 (T )q1 (T )(v))
=
p2 (T )p1 (T )q1 (T )(v)
= p1 (T )p2 (T )(v) · q1 (T )(v)
= m(T )(v) · q1 (T )(v)
= 0 · q1 (T )(v)
−
→
= 0.
Da mesma forma p2 (T )q2 (T )v ∈ W1 , pois
p1 (T )(p2 (T )q2 (T )(v))
=
p1 (T )p2 (T )q2 (T )(v)
= p1 (T )p2 (T )(v) · q2 (T )(v)
= m(T )(v) · q2 (T )(v)
= 0 · q2 (T )(v)
−
→
= 0.
(2.1)
2.1. DECOMPOSIÇÃO PRIMÁRIA
49
Logo, v ∈ V pode ser escrito como a soma de um vetor de W1 com um
vetor de W2 , isto é, V = W1 + W2 .
Para mostrar que esta soma é direta, é necessário provar que a
igualdade
v = w1 + w2
(2.2)
está determinada de modo único, onde w1 ∈ W1 e w2 ∈ W2 . De fato,
aplicando p1 q1 (T ) a 2.2, obtemos
p1 q1 (T )(v)
= p1 q1 (T )(w1 ) + p1 q1 (T )(w2 )
= p1 (T )(w1 ) · q1 (T )(w1 ) + p1 (T )(w2 ) · q1 (T )(w2 ).
−
→
Como w1 ∈ W1 = N uc(p1 (T )) então p1 (T )(w1 ) = 0 . Desta forma,
−
→
p1 q1 (T )(v) = 0 · q1 (T )(w1 ) + p1 (T )(w2 ) · q1 (T )(w2 )
= p1 (T )q1 (T )(w2 )
= p1 q1 (T )(w2 ).
(2.3)
Aplicando 2.1 em w2 , temos
p1 (T )q1 (T )(w2 ) + p2 (T )q2 (T )(w2 ) = w2 .
−
→
Como w2 ∈ W2 = N uc(p2 (T )), então p2 (T )(w2 ) = 0 , desta forma
p1 (T )q1 (T )(w2 ) + 0 · q2 (T )(w2 ) = w2 .
(2.4)
De 2.3 e 2.4, obtemos
w2 = p1 (T )q1 (T )(v)
e portanto w2 está determinado de maneira única. Da mesma forma,
encontramos w1 = p2 (T )q2 (T )v de maneira única.
Portanto, pelo Teorema 1.1, V = W1 ⊕ W2 .
Proposição 2.2. Sob as mesmas hipóteses da Proposição 2.1, se m(x)
o polinômio minimal de T e p1 (x), p2 (x) mônicos, então p1 (x) e p2 (x)
são os polinômios minimais das restrições de T a W1 e W2 , respectivamente.
Capítulo 2. FORMA CANÔNICA RACIONAL
50
Demonstração: Sejam T1 = T |W1 e T2 = T |W2 sendo m1 (x)
e m2 (x) seus polinômios minimais, respectivamente.
Como W1 = N uc(p1 (T )) e W2 = N uc(p2 (T )), temos que
−
→
−
→
p1 (T1 )(v) = 0 e p2 (T2 )(v) = 0 , para qualquer v ∈ V . De modo
similiar ao que foi mostrado no Teorema 1.9 segue que m1 (x) divide
p1 (x) e m2 (x) divide p2 (x). Assim, existem polinômios q1 (x), q2 (x) tais
que
p1 (x) = m1 (x)q1 (x)
(2.5)
p2 (x) = m2 (x)q2 (x).
(2.6)
e
Pela Proposição 2.1, temos que
m(x) = m1 (x)m2 (x).
De 2.5 e 2.6, resulta
m(x) = p1 (x)p2 (x)
= m1 (x)q1 (x)m2 (x)q2 (x)
= m1 (x)m2 (x)q1 (x)q2 (x)
= m(x)q1 (x)q2 (x).
Da última igualdade obtemos,
q1 (x)q2 (x) = 1.
Como os polinômios p1 (x), p2 (x), m1 (x) e m2 (x) são mônicos temos
que
q1 (x) = q2 (x) = 1.
Assim,
p1 (x) = m1 (x)
e
p2 (x) = m2 (x).
2.1. DECOMPOSIÇÃO PRIMÁRIA
51
Com base nas proposições anteriores temos condições de demonstrar o Teorema da Decomposição Primária. De acordo com Lipschutz e Lipson (2011) e Bueno (2006) enunciaremos da seguinte forma:
Teorema 2.1 (Teorema da Decomposição Primária). Considere o operador linear T : V −→ V cujo polinômio característico é da forma
p(x) = p1 (x)m1 p2 (x)m2 . . . pr (x)mr
e o seu polinômio minimal é dado por
m(x) = p1 (x)n1 p2 (x)n2 . . . pr (x)nr
com 0 < ni ≤ mi e sendo pi (x) polinômios distintos, mônicos e irredutíveis. Seja Wi o núcleo de pi (T )ni , com i = 1, . . . , r. Então,
V = W1 ⊕ W2 ⊕ · · · ⊕ Wr
onde Wi é T -invariante e além disso pi (x)ni é o polinômio minimal da
restrição de T a Wi .
Demonstração: Provaremos este teorema usando o princípio
de indução em r.
Se r = 1, temos que m(x) = p1 (x)n1 um polinômio mônico e
irredutível como o minimal de T. Assim,
−
→
∀v ∈ V ⇒ m(T )(v) = 0 ⇒
⇒
−
→
p1 (T )n1 (v) = 0
v ∈ N uc(p1 (T )n1 ).
Logo, V ⊂ N uc(p1 (T )n1 ). Como N uc(p1 (T )n1 ) ⊂ V ocorre trivialmente, temos
V = N uc(p1 (T )n1 ) = W1 .
Além disso, W1 é obviamente T -invariante e p1 (T )n1 é o polinômio
minimal de T |W1 = T |V = T .
Suponhamos que o teorema seja válido para r = k. Vamos
provar sua validade para r = k + 1. Para isso, supomos que o polinômio
Capítulo 2. FORMA CANÔNICA RACIONAL
52
minimal de T : V −→ V seja
f (x) = p1 (x)n1 p2 (x)n2 . . . pk (x)nk pk+1 (x)nk+1
com pi (x) polinômios mônicos, irredutíveis e distintos entre si.
Como f (x) é o polinômio minimal de T , temos que f (T ) = 0 e
tomando
g(x) = p1 (x)n1 p2 (x)n2 . . . pk (x)nk
e h(x) = pk+1 (x)nk+1
temos que g e h são primos entre si. Portanto, podemos aplicar a Proposição 2.1 e obter que
(2.7)
V =W ⊕U
onde
W = N uc(g(T )) = N uc(p1 (T )n1 p2 (T )n2 . . . pk (T )nk )
e
U = N uc(h(T )) = N uc(pk+1 (T )nk+1
são ambos T -invariantes.
Ainda, como g e h são mônicos e f é o polinômio minimal de
T , podemos aplicar a Proposição 2.2 e garantir que g e h são, respectivamente, os polinômios minimais das restrições de T a W e U .
Com isso, g é o minimal de T1 = T |W e admite k fatores
mônicos, irredutíveis e distintos. Pela hipótese de indução, temos então
que
W = W1 ⊕ W2 ⊕ · · · ⊕ Wk
onde
Wi = N uc(pi (T1 )ni ),
i = 1, 2, . . . , k
e tal que pi (x)ni é o polinômio minimal de T1 restrito a Wi . Portanto,
tomando Wk+1 = U e substituindo em 2.7 temos
V = W ⊕ U = W1 ⊕ W2 ⊕ · · · ⊕ Wk ⊕ Wk+1
2.2. SUBESPAÇOS CÍCLICOS
53
com Wi T -invariante, para i = 1, 2, . . . , k + 1.
Falta mostrar que, para i = 1, 2, . . . , k
Wi = N uc(pi (T )ni )
e que (pi (x)ni ) é o polinômio minimal de T restrito a Wi . Como pi (x)ni
divide p1 (x)n1 p2 (x)n2 . . . pk (x)nk temos que
v ∈ N uc(pi (T )ni ) ⇒
−
→
pi (T )ni (v) = 0
⇒
−
→
(p1 (T )n1 p2 (T )n2 . . . pk (T )nk )(v) = 0
⇒
v ∈ N uc(p1 (T )n1 p2 (T )n2 . . . pk (T )nk )
⇒
v ∈ W.
Como T1 = T |W , temos que
N uc(pi (T )ni ) = N uc(pi (T1 )ni ) = Wi .
E ainda, a restrição de T em Wi é igual a de T1 a Wi e portanto pi (x)ni é
o polinômio minimal de T restrito a Wi , completando a demonstração.
2.2 SUBESPAÇOS CÍCLICOS
Os subespaços cíclicos podem ser definidos como a interseção
de todos os subespaços T -invariantes de V que contém um dado vetor
−
→
v ∈ V , com v 6= 0 . Porém, seguiremos o exposto em Lipschitz e Lipson
(2011) para definirmos estes subespaços. Para isso, sejam T : V −→ V
um operador linear, onde V é um espaço vetorial de dimensão finita
sobre K e v ∈ V um vetor não nulo. Como a dimensão de V é finita,
ao tomarmos os vetores
v, T (v), T 2 (v), . . . , T i (v), . . .
i∈N
temos que existe um menor natural n para o qual T n (v) é uma combinação linear dos vetores que o precedem nesta sequência. Portanto, o
Capítulo 2. FORMA CANÔNICA RACIONAL
54
subespaço vetorial gerado por
β = {v, T (v), T 2 (v), . . . , T n−1 (v)}
será chamado de subespaço T -cíclico e denotado por Z(v, T ), com v ∈
−
→
V , v 6= 0 , dito vetor T -cíclico, de acordo com a seguinte definição:
Definição 2.1. Seja T : V −→ V um operador linear sendo V um
−
→
espaço vetorial de dimensão finita sobre K. Dados v ∈ V , v 6= 0 , o
conjunto Z(v, T ) ⊂ V é um subespaço T -cíclico de V se for gerado pelo
conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)}.
De acordo com Coelho e Lourenço (2010) e Lipschutz e Lipson
(2011) construiremos o polinômio mv que é o único polinômio de menor
−
→
grau tal que mv (T )(v) = 0 . Este polinômio é dito T-anulador de v e de
Z(v, T ). Assim, considerando o conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)},
tomemos T n (v) ∈ Z(v, T ), então podemos escrevê-lo como uma combinação linear dos vetores do conjunto {v, T (v), T 2 (v), . . . , T n−1 (v)}, ou
seja,
T n (v) = −a0 v − a1 T (v) − · · · − an−1 T n−1 (v)
com ai ∈ K, 0 ≤ i ≤ n − 1. Com isso,
−
→
T n (v) + a0 v + a1 T (v) + · · · + an−1 T n−1 (v) = 0 .
Definimos assim o polinômio T -anulador como
mv (x) = xn + an−1 xn−1 + · · · + a1 x + a0 .
A seguir, mostraremos um teorema que se refere ao polinômio
que definimos acima. Com base em Lipschutz e Lipson (2011) o enunciaremos da seguinte forma:
Teorema 2.2. Sejam Z(v, T ) um subespaço T − cíclico, Tv a restrição
de T a Z(v, T ) e mv (x) = xn +an−1 xn−1 +· · ·+a1 x+a0 o T −anulador
de v. Valem as seguintes afirmações:
(i) O conjunto β = {v, T (v), T 2 (v), . . . , T n−1 (v)} é uma base de Z(v, T );
2.2. SUBESPAÇOS CÍCLICOS
55
(ii) O polinômio minimal de Tv é mv (x);
(iii) A representação matricial de Tv na base β é chamada matriz companheira de mv (x), dada por






[Tv ]β = 




0
1
0
..
.
0
0
0
0
1
..
.
0
0
0
0
0
..
.
0
0
...
...
...
..
.
...
...
0
−a0
0
−a1
0
−a2
..
..
.
.
0 −an−2
1 −an−1











Demonstração: (i) Por definição, Z(v, T ) é gerado por β =
{v, T (v), T 2 (v), . . . , T n−1 (v)}, onde n é o menor natural para o qual
T n (v) é uma combinação linear dos vetores de β.
Desta forma, para todo i ≤ n−1 temos que T i (v) ∈ β não pode
ser escrito como combinação linear dos demais vetores de β. Portanto,
β é linearmente independente e sendo assim, uma base para Z(v, T ).
(ii) Seja m(x) = xs + bs−1 xs−1 + · · · + b1 x + b0 o polinômio minimal
de Tv , assim m(Tv ) = 0, com bi ∈ K, 1 ≤ i ≤ s − 1. Como v ∈ Z(v, T ),
temos
−
→
0 = m(Tv )(v)
= m(T )(v)
= T s (v) + bs−1 T s−1 (v) + · · · + b1 T (v) + b0 v
sendo n ≤ s. Como mv (x) é T -anulador, temos
−
→
0 = mv (T )(v)
= T n (v) + an−1 T n−1 (v) + · · · + a1 T (v) + a0 v
= mv (Tv )(v).
Assim, mv (Tv ) = 0. Temos que m(x) divide mv (x)(argumento semelhante ao mostrado no Teorema 1.9), assim s ≤ n. Logo, n = s. Como
o polinômio mv (x) é o único de menor grau tal que mv (T )(v), então
mv (x) = m(x). Portanto, o polinômio mv (x) é o minimal de Tv .
Capítulo 2. FORMA CANÔNICA RACIONAL
56
(iii) Seja β = {v, T (v), T 2 (v), · · · , T n−1 (v)}. Para calcularmos [Tv ]β ,
aplicamos Tv nos vetores de β, obtendo
Tv (v) = T (v) = 0 · v + 1 · T (v) + 0 · T 2 (v) + . . . + 0 · T n−1 (v).
Da mesma forma, para obter a segunda coluna de [Tv ]β , fazemos
Tv (T (v)) = T (T (v)) =
T 2 (v)
= 0 · v + 0 · T (v) + 1 · T 2 (v) + . . . + 0 · T n−1 (v).
Para a penúltima coluna, tomamos
Tv (T n−2 (v)) =
T (T n−2 (v))
= T n−1 (v)
= 0 · v + 0 · T (v) + · · · + 1 · T n−1 (v).
Para a última coluna da matriz, vamos utilizar o polinômio mv (x) =
xn + an−1 xn−1 + · · · + a1 x + a0 , assim obtemos
−
→
0 = mv (Tv (v)) = mv (T (v))
= T n (v) + an−1 T n−1 (v) + · · · + a1 T (v) + a0 v.
Portanto,
T n (v) = −an−1 T n−1 (v) − · · · − a1 T (v) − a0 v.
Assim,
Tv (T n−1 (v)) = T (T n−1 (v)) =
T n (v)
= −a0 v − a1 T (v) − · · · − an−1 T n−1 (v).
Logo, obtemos a matriz






[Tv ]β = 




0
1
0
..
.
0
0
0
0
1
..
.
0
0
0
0
0
..
.
0
0
... 0
−a0
... 0
−a1
... 0
−a2
.
..
..
. ..
.
. . . 0 −an−2
. . . 1 −an−1











2.2. SUBESPAÇOS CÍCLICOS
57
que é chamada de matriz companheira do polinômio mv (x).
Quando se trata de subespaços cíclicos observamos que estes possuem
uma peculiaridade. Se V = Z(v, T ) então o polinômio característico do
operador linear T sempre coincidirá com o polinômio minimal. Para
mostrar esta afirmação são necessários alguns resultados que mostraremos a seguir, baseados em Coelho e Lourenço (2010).
Lema 2.1. Se T : V −→ V é um operador linear onde V é um espaço
vetorial sobre um corpo K de dimensão finita, então existe um vetor
v ∈ V tal que o polinômio T -anulador é igual ao polinômio minimal de
T.
Demonstração: Sejam m(x) e mv (x) polinômios minimal e
anulador de T , respectivamente. Mostraremos apenas um caso particular, no qual m(x) = f (x)m , sendo f um polinômio irredutível em P (K),
porém o resultado também é válido quando m(x) = f1 (x)m1 · · · fr (x))mr .
Sabemos que o polinômio minimal m(x) é o polinômio de menor
−
→
grau tal que m(T )(u) = 0 , para qualquer u ∈ V . Assim, existe v ∈ V
de tal forma que f (T )m−1 v 6= 0. Como mv (x) divide m(x) (argumento
semelhante ao mostrado no Teorema 1.9) e f (x) é irredutível, segue que
mv (x) = f (x)l para algum l ≤ m.
Como mv (T ) = 0 e usando o fato que f (T )m−1 v 6= 0, concluímos que
f (T )m (v) = f (T )l (v).
Desta forma,
m(x) = mv (x)
.
Corolário 2.1. Se T : V −→ V é um operador linear onde V é um
espaço vetorial sobre um corpo K de dimensão finita, então existe um
subespaço T-cíclico de V com dimensão igual ao grau do polinômio
minimal de T .
Capítulo 2. FORMA CANÔNICA RACIONAL
58
Demonstração: Conforme o Lema 2.1, sabemos que existe
v ∈ V tal que m(x) = mv (x). Seja ϕv : P (K) −→ f (T ) uma transformação onde ϕv (f ) = f (T )(v).
Note que Im(ϕv ) = [v, T (v), T 2 (v) . . . T m−1 (v)] para algum m.
Desta forma, Im(ϕv ) é um subespaço T-cíclico de V, com dimensão
igual a m.
Como temos que v ∈ V é tal que m(x) = mv (x), então o grau
de m(x) também é m.
A seguir enunciaremos o Teorema que caracteriza os subespaços T-cíclicos, relacionando os polinômios característico e minimal do
operador T . Através do Lema 2.1 e o Corolário 2.1 conseguiremos realizar sua demonstração.
Teorema 2.3. Seja T : V −→ V um operador linear onde V é um
espaço vetorial sobre K de dimensão n. As seguintes afirmações são
equivalentes:
(i) V = Z(v, T );
(ii)o grau de m(x) é n;
(iii) m(x) = p(x).
Demonstração:
(i)⇒(ii) Como V = Z(v, T ) então existe
v ∈ V tal que V = [v, T (v), T 2 (v) . . . T n−1 (v)].
Com isso, o grau de mv (x) é n. Como dimV = n, então o grau
de m(x) deve ser no máximo n. Segue que mv (x) divide m(x). Mas a
única maneira disto ocorrer é quando o grau de m(x) é igual a n.
(ii)⇒(iii) Se dimV = n, então seu polinômio característico possui
grau n. Pelo Teorema de Cayley-Hamilton, m(x) divide p(x), logo
m(x) = p(x), pois ambos são polinômios mônicos e por hipótese, tem
o mesmo grau.
(iii)⇒(i) Pelo Corolário 2.1, existe um subespaço T -cíclico Z(v, T ) de
2.3. FORMA CANÔNICA RACIONAL
59
V com dimensão igual a de m(x). Como o grau de m(x) é n temos que
Z(v, T ) = V.
Exemplo 2.1. Seja T : R2 → R2 o operador dado por T (x, y) =
(2x − 4y, 2x − 2y) tal que
[T ] =
2
2
!
−4
−2
.
Calculando o polinômio característico de T , obtemos
!
x−2
4
p(x) = det
= (x − 2)(x + 2) = x2 + 4.
−2
x+2
Observe que o polinômio característico é igual ao polinômio minimal.
−
→
Assim pelo Teorema 2.3, existe v = (a, b) ∈ R2 , com v 6= 0 , tal que
β = {(a, b), T (a, b)}
é uma base para R2 . Como para qualquer v = (a, b) ∈ R2 o conjunto β
é linearmente independente, temos que
[T ]β =
0
1
!
−4
0
é a matriz companheira do polinômio x2 + 4. Logo, R2 = Z(v, T ).
2.3 FORMA CANÔNICA RACIONAL
Com base no que foi visto na seção anterior, enunciaremos dois
resultados essenciais para a construção da Forma Canônica Racional. O
primeiro diz que o espaço vetorial V pode ser decomposto por somas de
subespaços T-cíclicos. E o segundo resultado diz que o operador T pode
ser representado de maneira única por uma matriz cuja diagonal é formada por matrizes companheiras. Conforme Lipschutz e Lipson (2011),
enunciaremos o seguinte Lema que nos fornece esta decomposição de
V.
Capítulo 2. FORMA CANÔNICA RACIONAL
60
Lema 2.2 (Decomposição Racional). Se T : V −→ V é um operador
linear cujo polinômio minimal é p(x)n , em que p(x) é um polinômio
mônico irredutível, então V é a soma direta
V = Z(v1 , T ) ⊕ · · · ⊕ Z(vr , T )
dos subespaços T-cíclicos Z(vi , T ) com T-anuladores correspondentes
p(x)n1 , p(x)n2 , . . . , p(x)nr ,
n = n1 ≥ n2 ≥ . . . ≥ nr .
Além disso, qualquer outra decomposição de V em subespaços T -cíclicos tem o mesmo número de componentes e mesmos T anuladores.
De acordo com o Teorema da Decomposição Primária, podemos escrever V = W1 ⊕ · · · ⊕ Wr quando o polinômio minimal é da
forma m(x) = p1 (x)n1 p2 (x)n2 · · · ps (x)ns , sendo Wi = N uc(pni i ). E juntamente com o Lema 2.2, conseguimos representar o operador T como
uma matriz cuja diagonal é composta por matrizes companheiras. É o
que nos diz o seguinte teorema:
Teorema 2.4. Se T : V −→ V é um operador com polinômio minimal
m(x) = p1 (x)n1 p2 (x)n2 · · · ps (x)ns
em que os pi (x) são polinômios mônicos irredutíveis distintos, então T
tem uma única representação matricial diagonal em blocos, da forma

C11

 0
 .
 .
 .

 0

 .
[T ]α = 
 ..

 0


 0
 .
 .
 .
0
0
C12
..
.
...
...
..
.
0
0
..
.
...
...
..
.
0
0
..
.
0
0
..
.
...
...
..
.
0
0
..
.
0
..
.
0
...
..
.
0
C1r1
..
.
0
...
..
.
...
0
..
.
Cs1
0
..
.
0
...
..
.
...
0
..
.
0
0
..
.
0
0
..
.
0
0
..
.
0
...
..
.
...
0
..
.
0
Cs2
..
.
0
...
..
.
0
..
.
Csrs
...




















2.3. FORMA CANÔNICA RACIONAL
61
onde Ciri são matrizes companheiras dos polinômios pi (x)niri , com
ni = mi1 ≥ mi2 ≥ · · · ≥ miri , 1 ≤ i ≤ s.
O Teorema 2.4 mostra uma representação matricial de T que
é denominada forma canônica racional. Para entendermos melhor, vejamos o exemplo a seguir.
Exemplo 2.2. Sejam V um espaço vetorial sobre R , com dim(V ) = 7
e T : V −→ V um operador linear cujo polinômio minimal é
m(x) = (x2 − 2x + 5)(x − 3)3 .
Vamos obter todas as possíveis formas canônicas racionais de
T. Como dimV = 7, temos duas possibilidades para o polinômio característico:
p1 (x) = (x2 − 2x + 5)2 (x − 3)3 ou p2 (x) = (x2 − 2x + 5)(x − 3)5 .
Como m(x) = (x2 − 2x + 5)(x − 3)3 , então obrigatoriamente devemos
ter os blocos C1 (x2 − 2x + 5) e C2 ((x − 3)3 ) = C2 (x3 − 9x2 + 27x − 27).
Se o polinômio característico for p1 , então temos uma possibilidade
para a representação matricial de T na forma racional:
!


0 −5



 1 2
!




0
−5




[T ]α = 
.
1 2




0 0 27 





1 0 −27

0 1
9
Se o polinômio característico for p2 , então temos duas possibilidades, pois podemos escrever o polinômio p2 de duas formas:
p2 = (x2 −2x+5)(x−3)3 (x−3)2 e p2 = (x2 −2x+5)(x−3)3 (x−3)(x−3).
Capítulo 2. FORMA CANÔNICA RACIONAL
62
Considerando a primeira opção, obtemos os seguintes blocos:
C1 (x2 − 2x + 5), C2 ((x − 3)3 ) e C3 ((x − 3)2 ).
Assim, a representação matricial do operador T é dada por:
!


0 −5


 1 2







0 0 27






[T ]α = 
.
1 0 −27




0
1
9


!


0 −9 

1 6
Considerando a segunda opção, obtemos os seguintes blocos:
C1 (x2 − 2x + 5), C2 ((x − 3)3 ), C3 (x − 3) e C4 (x − 3).
Desta forma, a representação matricial do operador T é dada
por:

0

 1




[T ]α = 






!
−5
2

0 0

1 0
0 1






27



−27
.


9



3

3
Portanto, a forma canônica racional de T é uma das matrizes
[T ]α exibidas, nos quais os elementos que não estão indicados são todos
nulos.
63
3 A FORMA CANÔNICA DE JORDAN
No capítulo 1 deste trabalho revisamos alguns conceitos de Álgebra Linear e juntamente com a Decomposição Primária apresentada
no capítulo 2 temos condições de construir a Forma Canônica de Jordan. Esta forma existe sempre que os polinômios característico e minimal são escritos como um produto de fatores lineares. Observe que isto
sempre acontece quando estamos trabalhando no corpo dos complexos,
com isso qualquer operador T : V −→ V pode ser representado na
Forma Canônica de Jordan.
Veremos que, através da Forma Canônica de Jordan, é possível
exibir a matriz de um operador linear não diagonalizável por meio de
uma matriz que possui uma forma “quase diagonal”, isto é, constituída
por blocos de matrizes triangulares inferiores, cujos elementos das diagonais principais são todos iguais a um mesmo número (os autovalores
do operador), cujos elementos imediatamente abaixo destas diagonais
são todos iguais a 1 e os elementos restantes são todos nulos.
A fim de definir e estudar tudo o que se refere a essa forma, iremos nos basear essencialmente nos livros de Coelho e Lourenço (2010),
Hoffman e Kunze (1971), Lima (2009), Lipschutz e Lipson (2011) e
Pellegrini (2013).
3.1 OPERADORES NILPOTENTES
Neste momento serão estudados os operadores nilpotentes, que
são de grande importância para o entendimento da construção da Forma
Canônica de Jordan. Assim, segue sua definição baseado nos autores
Coelho e Lourenço (2010) e Lima (2009).
Capítulo 3. A FORMA CANÔNICA DE JORDAN
64
Definição 3.1. Um operador linear T : V −→ V é dito nilpotente
quando existe k ∈ N tal que T k = 0. É chamado de índice de nilpotência
o menor número k ∈ N tal que T k = 0, ou seja, T i 6= 0, para todo i < k.
Exemplo 3.1. Seja Pm (R) o espaço vetorial dos polinômios de grau
m com entradas reais. Considere o operador T : Pm (R) → Pm (R) que
é dado por T (p(x)) = p(x)′ .
Observe que T é o operador derivação e que T m (p(x)) = c,
onde c ∈ R. Aplicando novamente o operador temos
T (T m (p(x))) = T m+1 (p(x)) = 0.
Desta forma, T é nilpotente de índice m + 1.
Exemplo 3.2. Considere o operador T : R3 → R3 definido como
T (x, y, z) = (0, x, y). Este operador é nilpotente de índice k = 3. De
fato,
T (x, y, z)
=
(0, x, y),
T 2 (x, y, z)
= T (0, x, y) = (0, 0, x),
T 3 (x, y, z)
= T (0, 0, x) = (0, 0, 0).
Assim, T 3 = 0.
Uma característica dos operadores nilpotentes é possuírem apenas o zero como autovalor. Esta afirmação é facilmente mostrada a
seguir:
Proposição 3.1. Se T : V −→ V é um operador linear nilpotente de
índice k, então zero é o seu único autovalor.
Demonstração: Por hipótese temos que para qualquer v ∈
−
→
V tem-se T k (v) = 0 , assim seja v um autovetor de T associado ao
autovalor λ. Então
−
→
0 = T k (v) = λk v
3.1. OPERADORES NILPOTENTES
isto é,
65
−
→
λk v = 0 .
−
→
Como v 6= 0 , concluímos que λ = 0.
Quando trabalhamos com um espaço vetorial de dimensão finita podemos obter uma decomposição em subespaços T -invariantes,
sendo que quando restringirmos o operador em um desses subespaços
teremos um operador nilpotente e no outro subespaço teremos um operador inversível.
Teorema 3.1. Se V é um espaço vetorial de dimensão finita (real ou
complexo) onde T : V −→ V é um operador linear, então existe uma
decomposição V = U ⊕ W , sendo U,W subespaços T -invariantes, onde
T é inversível em U e nilpotente em W. E ainda, tal decomposição é
única.
Demonstração: Considerando os operadores T l , l > 1, podemos obter uma sequência de subespaços T -invariantes de V, tomando
V ⊃ Im(T ) ⊃ Im(T 2 ) ⊃ · · · ⊃ Im(T l ) · · · .
Como a dimensão de V é finita, então esta sequência não poderá ser estritamente decrescente para sempre. Assim, seja k > 0 o
menor número natural que satisfaz a igualdade Im(T k ) = Im(T k+1 ).
Afirmamos que Im(T k+1 ) = Im(T k+2 ), de fato:
Im(T k+2 ) = T (Im(T k+1 )) = T (Im(T k )) = Im(T k+1 ).
Da mesma maneira, Im(T k+2 ) = Im(T k+3 ) = Im(T k+4 ) · · · . Igualmente obtemos,
N uc(T ) ⊆ N uc(T 2 ) ⊆ · · · ⊆ N uc(T k ) = N uc(T k+1 ) = · · ·
pois pelo Teorema do Núcleo e da Imagem, concluímos que
dimN uc(T k+1 ) = dim(V ) − dimIm(T k+1 )
= dim(V ) − dimIm(T k )
= dimN uc(T k ).
Capítulo 3. A FORMA CANÔNICA DE JORDAN
66
Sejam U = Im(T k ) e W = N uc(T k ). Queremos mostrar que
V = U + W.
Tomando v ∈ V temos que existe x ∈ V tal que T k (v) =
T 2k (x), pois Im(T k ) = Im(T 2k ). Então, escrevendo
v
= v + (T k (x) − T k (x))
= v + (−T k (x) + T k (x))
=
(v − T k (x)) + T k (x)
−
→
temos que T k (v − T k (x)) = T k (v) − T 2k (x) = 0 . Logo, o vetor v −
T k (x) ∈ W e obrigatoriamente T k (x) ∈ U . Assim, mostramos que
V = U + W.
−
→
Para que esta soma seja direta, falta mostrar que U ∩W = { 0 }.
Sabendo que dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ) e usando
o Teorema do Núcleo e da Imagem, obtemos
dim(V )
= dim(U + W )
= dim(Im(T k )) + dim(N uc(T k )) − dim(U ∩ W )
= dim(V ) − dim(U ∩ W )
e então
dim(U ∩ W ) = 0.
−
→
Logo, U ∩ W = { 0 }.
Considere as restrições H1 = T |U e H2 = T |W . É evidente que
−
→
H1 é nilpotente, pois H1k (v) = T k (v) = 0 . E H2 é sobrejetor pois,
H2 (U ) = T (U ) = T (Im(T k )) = Im(T k+1 ) = Im(T k ) = U.
Desta forma, H2 é inversível, por ser um operador linear sobrejetor.
Ainda falta provar que essa decomposição é única, para isso
suponhamos que existam E1 e E2 subespaços T-invariantes onde
V = E1 ⊕ E2 .
3.1. OPERADORES NILPOTENTES
67
Sejam T1 e T2 operadores tais que T1 = T |E1 é nilpotente de
índice k ′ e T2 = T |E2 é inversível. Definimos agora m = max{k, k ′ } e
tomando w1 ∈ W ⊂ V , como V = E1 ⊕ E2 então conseguimos escrever
este vetor w1 como a soma dos vetores e1 e e2 , onde e1 ∈ E1 , e2 ∈ E2 .
−
→
Então, a igualdade T m (w1 ) = 0 é válida, pois se m = k,
−
→
temos T m (w1 ) = T k (w1 ) = 0 devido a T ser operador nilpotente
′
−
→
de índice k. Se m = k ′ , temos T m (w1 ) = T k (w1 ) = 0 devido a
′
w1 ∈ W = N uc(T k ) ⊂ N uc(T k ), como visto anteriormente. Assim,
−
→
0 =
T m (w1 ) = T m (e1 + e2 )
= T m (e1 ) + T m (e2 )
= T1m (e1 ) + T2m (e2 ).
−
→
Concluímos que T m (e1 ) = 0 , pois se m = k, temos T m (e1 ) =
−
→
T k (e1 ) = 0 , devido a T ser operador nilpotente de índice k. Se m = k ′ ,
′
−
→
temos T m (e1 ) = T1k (e1 ) = 0 , pois e1 ∈ U1 e T1 é nilpotente de índice
k′ .
−
→
Com isso, temos T2m (e2 ) = 0 . Como T2 é inversível, segue que
e2 = 0, fazendo com que w1 = e1 . Assim, W ⊆ E1 .
Analogamente, mostramos que E1 ⊆ W , portanto E1 = W =
N uc(T k ).
Seja agora u1 ∈ U . Como U = Im(T k ), existe v ∈ V tal que
T k (v) = u1 . Escrevendo v = b1 + b2 , onde b1 ∈ E1 , b2 ∈ E2 , obtemos:
u1 = T k (v) = T k (b1 + b2 ) = T k (b1 ) + T k (b2 ).
Segue que T k (b1 ) = 0, pois b1 ∈ E1 = N uc(T k ) e assim
u1 = T k (b2 ).
Como E2 é T-invariante, segue que u1 ∈ E2 , portanto U ⊆ E2 .
Seja agora b2 ∈ E2 ⊂ V , como V = U ⊕ W então podemos
escrever b2 = u2 + w2 , com u2 ∈ U e w2 ∈ W . Assim, w2 = b2 − u2 ∈
Capítulo 3. A FORMA CANÔNICA DE JORDAN
68
−
→
E1 ∩ E2 = { 0 }, pois W = E1 e U ⊆ E2 . Dessa forma, b2 = u2 e segue
que E2 ⊆ U , fazendo com que U = E2 . Logo, a decomposição é única.
A Proposição a seguir nos auxiliará na obtenção de uma base
em relação a qual a matriz que representa o operador T é composta
por blocos da forma


0 0 ··· 0 0


1 0 · · · 0 0 


0 1 · · · 0 0 



. . .
.
.

. .
.
.
.
.
. .
. .
0 0 ··· 1 0
em sua diagonal.
Proposição 3.2. Considere o operador linear T : V −→ V nilpotente
−
→
de índice k ≥ 1, se v ∈ V é um vetor tal que T k−1 (v) 6= 0 e T k (v) =
−
→
0 , então:
(i) O conjunto {v, T (v), T 2 (v), . . . , T k−1 (v)} é l.i.
(ii) Existe um subespaço T-invariante W de V tal que V = U ⊕ W ,
onde U = [v, T (v), T 2 (v), . . . , T k−1 (v)].
Demonstração: (i) Para mostrar que o conjunto
{v, T (v), T 2 (v), . . . , T k−1 (v)}
é linearmente independente, precisamos primeiramente tomar uma combinação linear nula com os elementos do conjunto. Assim, consideremos
−
→
a0 v + a1 T (v) + a2 T 2 (v) + . . . + ak−1 T k−1 (v) = 0 .
Aplicando o operador T k−1 em ambos os lados, obtemos
−
→
a0 T k−1 (v) + a1 T k (v) + a2 T k+1 (v) + . . . + ak−1 T 2k−2 (v) = 0 .
−
→
Por hipótese temos T k (v) = T k+1 (v) = . . . = T 2k−2 (v) = 0 . Logo,
−
→
a0 T k−1 (v) = 0 .
3.1. OPERADORES NILPOTENTES
69
−
→
No entanto, T k−1 (v) 6= 0 , portanto a0 = 0.
Da mesma forma, aplicando o operador T k−2 temos que a1 = 0.
Prosseguindo analogamente, temos a0 = a1 = a2 = . . . = ak−1 = 0.
Sendo assim o conjunto {v, T (v), T 2 (v), . . . , T k−1 (v)} é linearmente independente.
(ii) Primeiramente, note que U é T -invariante, pois tomando u ∈ U
podemos escrevê-lo da seguinte forma:
u = a0 v + a1 T (v) + a2 T 2 (v) + · · · + ak−1 T k−1 (v)
onde ai ∈ K, 0 ≤ i ≤ k − 1. Assim,
T (u) = T (a0 v + a1 T (v) + a2 T 2 (v) + · · · + ak−1 T k−1 (v))
= T (a0 v) + T (a1 T (v)) + T (a2 T 2 (v)) + · · · + T (ak−1 T k−1 (v))
= a0 T (v) + a1 T 2 (v) + a2 T 3 (v) + · · · + ak−1 T k (v).
−
→
Por hipótese segue que ak−1 T k (v) = 0 . Consequentemente,
T (u) = a0 T (v) + a1 T 2 (v) + a2 T 3 (v) + · · · + ak−2 T k−1 (v) ∈ U.
Logo, U é T -invariante.
Para mostrarmos o resultado desejado, usaremos o princípio de
indução sobre k.
−
→
Quando k = 1, teríamos U = [v] = N uc(T ), pois v 6= 0 e
−
→
T (v) = 0 e obviamente W = Im(T ) é T -invariante e V = U ⊕ W .
Suponhamos que a decomposição é válida para todos os operadores nilpotentes com índices menores que k, com k > 1.
Podemos observar que Im(T ) é um subespaço T -invariante e
que a restrição de T em Im(T ) gera um operador tal que
−
→
T k−1 (T (v)) = T k (v) = 0
e
−
→
T k−2 (T (v)) = T k−1 (v) 6= 0 .
Capítulo 3. A FORMA CANÔNICA DE JORDAN
70
Assim, T |Im(T ) é um operador nilpotente de índice k − 1.
Vamos escrever um subespaço U1 como U1 = U ∩Im(T ), devido
a interseção de U e Im(T ) podemos concluir que
U1 = [T (v), T 2 (v), . . . , T k−1 (v)].
Utilizando a hipótese de indução temos que Im(T ) = U1 ⊕ W1 ,
onde W1 é um subespaço T -invariante de V.
Considere o subespaço W2 = {w ∈ V | T (w) ∈ W1 }. Precisamos primeiramente mostrar duas afirmações:
−
→
V = U + W2 e U ∩ W1 = { 0 }.
Se u ∈ V , teremos T (u) ∈ Im(T ) e assim, representamos T (u) como
a soma de um vetor de U1 e outro de W1 , ou seja, T (u) = u1 + w1 ,
u1 ∈ U1 e w1 ∈ W1 .
Como U1 = [T (v), T 2 (v), . . . , T k−1 (v)], existem a1 , a2 , . . . , ak−1 ∈
K tais que,
!
k−1
k−1
X
X
ai T i (v) = T
ai T i−1 (v) = T (u2 ),
u1 =
i=1
i=1
onde denotamos u2 =
k−1
P
ai T i−1 (v) e temos que u2 ∈ U . Assim,
i=1
T (u) = T (u2 ) + w1
ou seja,
T (u) − T (u2 ) = w1
isto é,
T (u − u2 ) = w1 ∈ W1 .
Pela forma que W2 foi definido, concluímos que u − u2 ∈ W2 .
Logo,
u = u2 + (u − u2 ) ∈ U + W2
3.1. OPERADORES NILPOTENTES
71
de modo que provamos a primeira afirmação.
Considere agora u ∈ U ∩ W1 . Por U e W1 serem T -invariantes
temos que T (u) ∈ U ∩ Im(T ) e T (u) ∈ W1 . Com isso,
T (u) ∈ U ∩ Im(T ) ∩ W1 = U1 ∩ W1 .
Como
Im(T ) = U1 ⊕ W1
então
−
→
T (u) ∈ U1 ∩ W1 = { 0 }.
−
→
Logo T (u) = 0 .
Como u ∈ U , existem escalares a0 , a1 , · · · , ak−1 ∈ K, tais que
u=
k−1
X
ai T i (v),
i=0
Portanto,
−
→
0 = T (u)
= T
k−1
X
ai T i (v)
i=0
=
k−1
X
!
ai T i+1 (v)
i=0
= a0 T (v) + a1 T 2 (v) + · · · + ak−2 T k−1 (v) + ak−1 T k (v).
−
→
Visto que T k (v) = 0 , nos resta
−
→
a0 T (v) + a1 T 2 (v) + · · · + ak−2 T k−1 (v) = 0 .
Dado que o conjunto {T (v), T 2 (v), . . . , T k−1 } é linearmente independente, então a0 = a1 = · · · = ak−2 = 0 e u = ak−1 T k−1 (v) ∈
−
→
Im(T ). Assim, u ∈ U ∩ Im(T ) = U1 . Logo, u ∈ U1 ∩ W1 = { 0 },
portanto
−
→
U ∩ W1 = { 0 }.
Capítulo 3. A FORMA CANÔNICA DE JORDAN
72
−
→
Conforme a igualdade U ∩ W1 = { 0 }, temos que
−
→
U ∩ W2 ∩ W1 = { 0 }
e como U ∩ W2 e W1 estão contidos em W2 , pois W1 é T -invariante,
segue que existe um subespaço W , tal que
W2 = W ⊕ W1 ⊕ (U ∩ W2 ).
(3.1)
Afirmamos que W = W ⊕ W1 é o subespaço que estamos procurando.
−
→
−
→
De fato, W ⊆ W2 e W ∩ (U ∩ W2 ) = { 0 }, assim U ∩ W = { 0 }.
Utilizando a primeira afirmação, V = U + W2 e o Teorema 1.2, temos
dim(V ) = dim(U + W2 ) = dim(U ) + dim(W2 ) − dim(U ∩ W2 ). (3.2)
Por 3.1, temos
dim(W2 ) − dim(U ) ∩ W2 = dim(W ⊕ W1 ) = dim(W ).
(3.3)
Subtraindo as equações 3.2 e 3.3, temos
dim(V ) − dim(W ) = dim(U )
e assim,
dim(V ) = dim(U ) + dim(W ).
Logo, V = W + U como queríamos. Basta apenas mostrar que
W é um subespaço T -invariante. De fato, como W ⊆ W2 , teremos
T (W ) ⊆ W1 ⊆ W , finalizando a demonstração.
Considere um operador linear T : V → V , onde V possui
dimensão n ≥ 1. Suponhamos que o polinômio característico de T seja
da forma p(x) = (x − λ)n e que o índice de nilpotência do operador
(T − λ) seja n. Pela Proposição 3.2, existe um conjunto
β = {v, (T − λI)(v), (T − λI)2 (v), . . . , (T − λI)(v)n−1 }
3.1. OPERADORES NILPOTENTES
73
que é linearmente independente. Como β possui n vetores e dim(V ) =
n, temos que β é base de V . Em relação a base β, a representação
matricial de (T − λI) é dada por


0 0 ··· 0 0


1 0 · · · 0 0 


0 1 · · · 0 0 
[T − λI ]β = 
.

. . .
.
.
. .
.
.
.
. . .

. .
0 0 ··· 1 0
Assim,

λ

0


[T − λI ]β = [T ]β −  0
.
.
.
0
0
..
.
0
Isto é,

Logo,
λ 0

0 λ


[T ]β =  0 0
. .
. .
. .
0 0
 
0 0
0
 
0  1 0
 

· · · 0 0
 = 0 1
. . 
..
 .. ..
. .. .. 
 . .
0 0
··· 0 λ
0 ··· 0
λ ··· 0
··· 0
··· 0
··· 0
.
..
. ..
··· 0

λ

1


[T ]β =  0
.
.
.
0
 
0
0
 
0  1
 

0
 + 0

.. 
  ..
.  .
λ
0
0
λ
1
..
.
0
···
···
···
..
.
···
0
0
1
..
.
0

··· 0 0

· · · 0 0

· · · 0 0
.
. .
..
. .. .. 

··· 1 0

0

0

· · · 0 0
.
. .
..
. .. .. 

··· 1 0
··· 0
··· 0

0 0

0 0

0 0
.
.. .. 

. .
1 λ
Desta forma, quando o operador T : V −→ V possui polinômio
característico da forma p(x) = (x − λ)n , conseguimos representar este
operador através de uma matriz cuja diagonal principal é formada pelo
74
Capítulo 3. A FORMA CANÔNICA DE JORDAN
autovalor λ e os elementos imediatamente abaixo da diagonal principal
são iguais a 1 e os demais elementos são todos nulos. Baseado nisto,
definiremos um bloco de Jordan.
Definição 3.2. Um bloco de Jordan n × n é uma matriz triangular
inferior dada por:

λ 0

1 λ


J(λ, n) =  0 1
. .
. .
. .
0 0
···
···
···
..
.
···
0
0
0
..
.
1

0

0

0
.
.. 

.
λ
Neste momento, nosso objetivo é encontrar uma base onde
qualquer operador linear T é representado através de uma matriz formada por blocos de Jordan em sua diagonal. Tal matriz será chamada
de Forma Canônica de Jordan.
Teorema 3.2. Se T : V −→ V é um operador linear nilpotente com
índice de nilpotência k ≥ 1, onde V é um espaço vetorial sobre o corpo
K de dimensão finita, então existem números positivos t, k1 , . . . , kt e
vetores v1 , . . . , vt ∈ V tais que:
(a) k = k1 ≥ k2 ≥ k3 ≥ · · · ≥ kt .
(b)O conjunto γ = {v1 , T (v1 ), . . . , T k1 −1 (v1 ), . . . , vt , T (vt ), . . . , T kt −1 (vt )}
é uma base de V.
−
→
(c)T ki (vi ) = 0 para cada i = 1, . . . , t.
Demonstração: Como T é nilpotente de índice k, existe
−
→
v1 ∈ V tal que T k−1 (v1 ) 6= 0 . Utilizando a Proposição 3.2 temos
um conjunto β1 = {v1 , T (v1 ), T 2 (v1 ), . . . , T k−1 (v1 )} linearmente independente, onde v1 ∈ V e ainda, podemos escrever
V = U1 ⊕ W1
onde U1 é gerado por β1 e W1 é subespaço T -invariante.
3.2. AUTOVETORES GENERALIZADOS
75
Seja k = k1 . Fazendo T1 = T |W1 , temos que T1 será nilpotente com o índice que denotaremos k2 , sendo que k2 ≤ k1 . Da mesma
−
→
maneira, existe v2 ∈ W1 tal que T1k2 −1 (v2 ) = T k2 −1 (v2 ) 6= 0 e pela
Proposição 3.2 temos
W1 = U2 ⊕ W2
onde U2 é gerado por β2 = {v2 , T (v2 ), T 2 (v2 ), . . . , T k2 −1 (v2 )} , que é um
conjunto linearmente independente, e W2 é um subespaço T -invariante.
Fazendo T2 = T |W2 teremos um operador nilpotente de índice
k3 , com k3 ≤ k2 . Como a dimensão de V é finita, se repetirmos este
processo, chegaremos que k1 ≥ k2 ≥ k3 ≥ · · · ≥ kt .
Além disso,vemos que γ = β1 ∪ β2 ∪ · · · ∪ βt é uma base de V ,
pois de acordo com a Proposição 3.2 temos V = U1 ⊕ U2 ⊕ · · · ⊕ Ut .
−
→
Por fim, T ki (vi ) = 0 para cada i = 1, · · · , t, pois T |Wi é
sempre nilpotente de índice ki .
O Teorema 3.2 nos garante que existe uma base em que a representação matricial de um operador nilpotente será formada por blocos
de Jordan, porém não especifica quem são os elementos desta base.
Na próxima seção, teremos como objetivo reescrever o Teorema 3.2 em
termos de autovetores generalizados, que nos permitirá explicitar esta
base.
3.2 AUTOVETORES GENERALIZADOS
Sempre que temos um operador linear T : V −→ V diagonalizável, podemos afirmar que existe uma base de V formada por autovetores
de T . Porém, quando T não é diagonalizável, não haverá autovetores
suficientes para compor uma base de V . Neste caso, veremos que existe
uma base constituída pelo que chamaremos de cadeia de Jordan.
Definição 3.3 (Autovetores generalizados). Seja T : V −→ V um
operador linear. Se existirem escalares λ e p, com p positivo, tais que:
−
→
(T − λI)p (v) = 0
Capítulo 3. A FORMA CANÔNICA DE JORDAN
76
e
−
→
(T − λI)p−1 (v) 6= 0
então v é chamado de autovetor generalizado de T .
Observe que se p = 1 então v é um autovetor de T .
Exemplo 3.3. Seja T : R3 → R3 o operador linear dado por


0 0 1


[T ] = 1 1 0 .
1 0 0
O vetor v = (1, 0, 1) é um autovetor generalizado de T associado ao autovalor 1, com p = 2. De fato,
   

0
1
2 0 −2
   

2
(T − I) (v) = −1 0 1  0 = 0
−2 0
2
1
0
porém,

−1 0

(T − I)(v) =  1
1
0
0
   
0
1
   
0  0 = 1 .
0
1
−1
1
Definição 3.4. Seja λ um autovalor do operador linear T : V → V.
Uma cadeia de Jordan é uma sequência de vetores da forma:
v, (T − λI)(v), (T − λI)2 (v), . . . , (T − λI)p−1 (v)
sendo v um autovetor generalizado de T .
Exemplo 3.4. Retomando o exemplo 3.3, temos que a sequência
v = (1, 0, 1), (T − I)(v) = (0, 1, 0)
é uma cadeia de Jordan associado ao autovalor 1.
Teorema 3.3. Uma cadeia de Jordan é formada por vetores linearmente independentes.
3.2. AUTOVETORES GENERALIZADOS
77
Demonstração: Seja T um operador linear tal que a sequência
v, (T − λI)(v), . . . , (T − λI)p−1 (v)
−
→
−
→
é uma cadeia de Jordan, com (T − λI)p (v) = 0 e (T − λI)p−1 (v) 6= 0 .
Suponhamos que
−
→
a0 v + a1 (T − λI)(v) + . . . + ap−1 (T − λI)p−1 (v) = 0 .
(3.4)
Aplicando o operador (T − λI)p−1 em ambos os lados, obtemos
−
→
a0 (T − λI)p−1 (v) + a1 (T − λI)p (v) + . . . + ap−1 (T − λI)2p−2 (v) = 0 .
−
→
Como (T − λI)i (v) = 0 , para todo i ≥ p, então a igualdade anterior
se reduz a
−
→
a0 (T − λI)p−1 (v) = 0 .
−
→
Como (T −λI)p−1 (v) 6= 0 , temos que a0 = 0. Reescrevendo a igualdade
3.4, temos
−
→
a1 (T − λI)(v) + . . . + ap−1 (T − λI)p−1 (v) = 0 .
(3.5)
Aplicando (T − λI)p−2 em ambos os lados, temos
−
→
a1 (T − λI)p−1 (v) + a2 (T − λI)p (v) + . . . + ap−1 (T − λI)2p−3 (v) = 0
que se reduz a
−
→
a1 (T − λI)p−1 = 0
−
→
e portanto a1 = 0, visto que (T − λI)p−1 6= 0 . De modo análogo,
concluímos que a2 = · · · = ap−1 = 0. Logo, a cadeia de Jordan é
linearmente independente.
Podemos generalizar o resultado do Teorema 3.3 para uma
quantidade finita de cadeias de Jordan. Ou seja, a união de cadeias
associadas a autovalores distintos é linearmente independente.
Seja T : V −→ V um operador linear cujo polinômio característico é dado por p(x) = (x − λ)n , considere as seguintes cadeias de
Capítulo 3. A FORMA CANÔNICA DE JORDAN
78
Jordan associadas ao autovalor λ:
v1 , (T − λI)(v1 ), . . .
, (T − λI)k1 −1 (v1 ),
v2 , (T − λI)(v2 ), . . .
..
.
, (T − λI)k2 −1 (v2 ),
vt , (T − λI)(vt ), . . .
, (T − λI)kt −1 (vt ).
−
→
Observe que (T − λI)ki (vi ) = 0 , para cada i = 1, . . . , t, e que o
operador (T − λI) é nilpotente de índice menor ou igual a n, pois
p(T ) = (T − λI)n = 0. Assim, conforme o Teorema 3.2 estas cadeias
formam uma base para V . Logo, existe uma base formada por cadeias
de Jordan tal que a representação de T nesta base está na forma de
Jordan.
3.3 A FORMA CANÔNICA DE JORDAN
Nesta seção, temos como finalidade utilizar os resultados vistos
para construir a chamada forma canônica de Jordan, ou simplesmente,
forma de Jordan de um operador linear qualquer. A existência da forma
de Jordan para um operador qualquer decorre da sua existência para
operadores nilpotentes. Mostraremos isto através do próximo Teorema
que Coelho e Lourenço (2010) enuncia da seguinte forma:
Teorema 3.4. Seja V um espaço vetorial de dimensão finita sobre K.
Se T : V −→ V é um operador linear cujo polinômio característico é
da forma
p(x) = (x − λ1 )m1 · · · (x − λr )mr
com mi > 1 e λi 6= λj , se i 6= j, então
V = W1 ⊕ W2 ⊕ · · · ⊕ Wr
onde, para cada 1 ≤ i ≤ r, tem-se que:
(i) a restrição do operador T − λi I a Wi é nilpotente;
(ii) Wi é T -invariante;
(iii) dim(Wi ) = mi .
3.3. A FORMA CANÔNICA DE JORDAN
79
Demonstração: Considere a transformação (T − λi I) : V →
V . Vamos denotar esta transformação por Ti = (T − λi I), para 1 ≤ i ≤
r.
Pelo Teorema 3.1 existe uma decomposição V = Wi ⊕Ui , sendo
Wi e Ui subespaços Ti -invariantes e as restrições de Ti a Wi e a Ui nilpotente e inversível, respectivamente. Desta forma, provamos o primeiro
item.
Como Wi é T -invariante e Ti = (T − λi I), pela Proposição
1.1, podemos afirmar que Wi e Ui são T -invariantes, provando assim o
segundo item.
Sejam agora T ′ = T |Wi e T ′′ = T |Ui , como V = Wi ⊕ Ui então
pela Proposição 1.2 temos que o polinômio característico de T é escrito
como
p(x) = p′ (x) p′′ (x)
sendo p′ (x) e p′′ (x) os polinômios característico de T ′ e T ′′ , respectivamente.
Conforme a Proposição 3.1, temos que o operador T ′ − λi I
possui apenas o zero como autovalor. Desta forma, para algum w ∈ Wi ,
−
→
com w 6= 0 , temos
(T ′ − λi I)(w) = 0 · w
isto é,
assim,
−
→
(T ′ − λi I)(w) = 0
−
→
T ′ (w) − λi w = 0 ⇒ T ′ (w) = λi w.
Portanto, λi é o único autovalor de T ′ . Como
(T ′′ − λi I) = (T |Ui − λi I) = (T − λi I)|Ui = Ti |Ui
é inversível, temos que λi não é autovalor de T ′′ , em outras palavras
det(T ′′ − λi I) 6= 0.
Capítulo 3. A FORMA CANÔNICA DE JORDAN
80
Assim concluímos que p′ (x) = (x − λi )mi . Como p′ (x) é o polinômio
característico de T ′ : Wi → Wi , então concluímos que dim(Wi ) = mi ,
provando o terceiro item.
Como p(x) = (x − λ1 )m1 · · · (x − λr )mr , temos que
dim(V ) = m1 + m2 + · · · + mr
Pelo item (iii), obtemos
dim(V ) = dim(W1 ) + dim(W2 ) + · · · + dim(Wr ).
−
→
E como Wi ∩ (W1 + · · · + Wi−1 + Wi+1 + · · · + Wr ) = { 0 }, então
dim(V ) = dim(W1 + W2 + · · · + Wr ).
Logo,
V = W1 ⊕ W2 ⊕ · · · ⊕ Wr .
Observe que para um operador T : V −→ V
cujo polinômio
característico é da forma p(x) = (x − λ1 )m1 · · · (x − λr )mr , tem-se que o
polinômio minimal de T será dado por m(x) = (x−λ1 )n1 · · · (x−λr )nr ,
com ni ≤ mi . Assim, pelo Teorema da Decomposição Primária temos
que os subespaços Wi do Teorema 3.4 são os núcleos de (T − λi I)ni .
De acordo com o Teorema 3.4 o espaço vetorial V pode ser
decomposto como uma soma direta de subespaços Wi que satisfazem
os itens (i),(ii) e (iii).
Tomando o operador Ti sendo a restrição de T a Wi , para cada
i = 1, 2, . . . , r, temos que (Ti − λi I) é nilpotente. Observe que os polinômios característico e minimal do operador Ti são, respectivamente
p(x) = (x − λi )mi
e m(x) = (x − λi )ni
3.3. A FORMA CANÔNICA DE JORDAN
Segundo o Teorema 3.2, existe uma

0

1


[Ti − λi I]γi = 0
.
.
.
0
isto é,

[Ti ]γi
λi

1


= 0
.
.
.
0
0
λi
1
..
.
0
81
base γi de Wi tal que

0 ··· 0 0

0 · · · 0 0

1 · · · 0 0

.. . .
.. .. 
. . .
.

0 ··· 1 0

0

0

0

.. 

.
λi m
··· 0
··· 0
··· 0
.
..
. ..
··· 1
i ×mi
Podemos reescrever a matriz acima de tal forma que, para ni =
ni1 ≥ ni2 ≥ · · · ≥ nij , sua diagonal é formada por blocos de Jordan,
desta forma


J(λi , ni1 )
0
0
···


0
J(λi , ni2 ) · · ·
0



[Ti ]γi = 
..
..
..
..


.


.
.
.
0
0
sendo cada bloco dado por

λi

1


J (λi , nij ) =  0
.
.
.
0
···
0
···
0
λi
1
..
.
···
···
..
.
0
0
..
.
0
···
J(λi , nij )
0
mi ×mi


0

0

.. 

.
1 λi n
ij ×nij
para cada i = 1, . . . , r e j = 1, . . . , ti . Segundo o Teorema 1.3, existe
uma base de V que é a união das bases γi de Wi , ou seja,
γ = γ1 ∪ γ2 ∪ · · · ∪ γr .
Capítulo 3. A FORMA CANÔNICA DE JORDAN
82
E finalmente, obtemos

[T1 ]γ1

 0
[T ]γ = 
 ..
 .
0
[T2 ]γ2
..
.
0
0
···
···
..
.
0
0
..
.
· · · [Tr ]γr






que é dita a forma de Jordan de T .
Pode-se demonstrar que a Forma Canônica de Jordan de um
operador linear é única, a menos da posição dos blocos de Jordan ao
longo da diagonal principal, conforme demonstrado por Lima (2009).
Note que o polinômio minimal de T é dado por
m(x) = (x − λ1 )n1 · · · (x − λr )nr
e assim, para cada J(λi , nij ) há ao menos um bloco com ordem ni ,
sendo que os outros são de ordem menor ou igual a ni . Isto decorre do
fato que o operador (Ti − λi I)ni = 0. E ainda, a soma das ordens dos
J(λi , nij ) é mi .
Para identificar quantos blocos J(λi , nij ) a matriz do operador
possui, basta observar a multiplicidade geométrica de λi .
Com base nas informações obtidas, temos condições de encontrar a Forma de Jordan para qualquer operador T : V → V , sendo
V de dimensão finita. Vale salientar que T pode ser posto na Forma
de Jordan quando seus polinômios característico e minimal são escritos
como um produto de fatores lineares, e isto sempre acontece no corpo
dos complexos.
Exemplo 3.5. Seja T : R3 → R3 operador linear dado por
T (x, y, z) = (2x + 6y − 15z, x + y − 5z, x + 2y − 6z).
O operador T possui a representação matricial na base canônica
3.3. A FORMA CANÔNICA DE JORDAN
da forma
83

−15

−5 
−6

2 6

[T ] = 1 1
1 2
portanto, p(x) = (x + 1)3 . As possibilidades para o polinômio minimal
são
m(x) = (x + 1), m(x)(x + 1)2 ou m(x) = (x + 1)3 .
Como (T + I) 6= 0 e (T + I)2 = 0, então o polinômio minimal
de T é dado por m(x) = (x + 1)2 .
Pelo Teorema da Decomposição Primária temos
R3 = N uc(T + I)2 .
−
→
Através do sistema (T + I)(v) = 0 é possível encontrar dois
autovetores associados a λ = −1, assim a multiplicidade geométrica de
λ = −1 é igual a 2, de modo que haverá dois blocos referentes a este
autovalor. Resolvendo o sistema
   

0
x
3 6 −15
   

1 2 −5  y  = 0
1
2
−5
z
0
obtemos os autovetores (−2, 1, 0) e (5, 0, 1).
Precisamos encontrar uma base γ tal que a matriz [T ] esteja
na forma de Jordan. Com isso, conforme o Teorema 3.2, resolvendo o
−
→
sistema (T +I)2 (v) = 0 para obter a cadeia de Jordan, encontramos os
autovetores generalizados (1, 0, 0), (0, 1, 0) e (0, 0, 1). Escolhendo v1 =
(1, 0, 0), temos que o vetor (T + I)(v1 ) = (3, 1, 1) compõe a base γ.
Tomando v2 = (−2, 1, 0), obtemos γ = {(1, 0, 0), (3, 1, 1), (−2, 1, 0)}.
Logo, a matriz [T ]γ é representada por
!


−1 0



1
−1
[T ]γ = 


−1
Capítulo 3. A FORMA CANÔNICA DE JORDAN
84
nos quais os elementos que não estão indicados são todos nulos.
Exemplo 3.6. Seja T : R4 → R4 operador linear dado por
T (x, y, z, t) = (2x − y + t, 3y − z, y + z, −y + 3t).
O operador T possui representação
da forma

2 −1 0

0 3 −1
[T ] = 
0 1
1

0 −1 0
matricial na base canônica

1

0
.
0

3
Conforme o exemplo 1.5, temos que os polinômios característico
e minimal de T são dados por
p(x) = (x − 2)3 (x − 3)
e m(x) = (x − 2)2 (x − 3).
Pelo Teorema da Decomposição Primária, o espaço vetorial R4
pode ser escrito como R4 = N uc(T − 2I)2 ⊕ N uc(T − 3I).
Para λ = 2, encontraremos os vetores que satisfazem a igual−
→
dade (T − 2I)(v) = 0 . Resolvendo o sistema

0

0

0

0
−1
1
1
−1
   
0
x
0 1
   
   
−1 0
 y  = 0
   
−1 0
  z  0
t
0 1
0
encontramos os autovetores (0, 1, 1, 1) e (1, 0, 0, 0).
Como a multiplicidade algébrica de λ = 2 é igual a 3, diferentemente da sua multiplicidade geométrica que é 2, então precisamos
resolver outro sistema para obter um autovetor generalizado, ou seja,
−
→
encontrar os vetores que satisfazem a igualdade (T − 2I)2 (v) = 0 .
3.3. A FORMA CANÔNICA DE JORDAN
Resolvendo o sistema

0

0

0

0
−2
1
0 0
0 0
−2 1
85
   
1
0
x
   
   
0
 y  = 0
   
0
  z  0
t
1
0
encontramos os autovetores generalizados (0, 1, 0, 2), (0, 0, 1, −1) e (1, 0, 0, 0).
Escolhendo o vetor v1 = (0, 0, 1, −1), temos pelo Teorema 3.2
que o vetor (T − 2I)(v1 ) = (−1, −1, −1, −1) compõe a base γ.
Note que teremos dois blocos associados ao autovalor λ = 2,
com isso escolhemos o autovetor v2 = (0, 1, 1, 1).
−
→
Para λ = 3, encontraremos um vetor v tal que (T −3I)(v) = 0 .
Resolvendo o sistema

−1

0

0

0
−1
0
1
−1
   
0
x
1
   
   
−1 0
 y  = 0
   
−2 0
  z  0
0
t
0 0
0
encontramos o autovetor v3 = (1, 0, 0, 1). Como a multiplicidade geométrica do autovalor λ = 3 é igual a 1, então há somente um bloco
referente a este autovalor.
Logo, encontramos uma base
γ = {(0, 0, 1, −1), (−1, −1, −1, −1), (0, 1, 1, 1), (1, 0, 0, 1)}
tal que a representação de T nesta base é dada por
!


2 0



 1 2


[T ]γ = 

2




3
que é a forma de Jordan de T .
Capítulo 3. A FORMA CANÔNICA DE JORDAN
86
Exemplo 3.7. Seja T : R6 → R6 operador linear dado por
T (x, y, z, t, w, p) = (2x, x + 2y, −x + 2z, y + 2t, x + y + z + t + 2w, w − p)
cuja representação na base canônica é

2 0 0

1 2 0

−1 0 2

[T ] = 
0 1 0

1 1 1

0 0 0
0 0
0 0
0 0
2 0
1 2
0 1
0






.


0

−1
0
0
0
Os polinômios característico e minimal de T são
p(x) = (x − 2)5 (x + 1) e m(x) = (x − 2)4 (x + 1)
e segue que R6 = N uc(T − 2I)4 ⊕ N uc(T + I).
Para λ = 2,

0

1

−1


0

1

0
temos o sistema
0
0 0
0
0 0 0 0
0 0 0 0
1 0 0 0
1 1
0 0
1
0
0
1
   
0
x
   
   
0
  y  0
   
0
  z  0
  =  ,
   
0
  t  0
   
0
 w 0
p
−3
0
0
que fornece os autovetores (0, 0, −1, 1, 0, 0) e (0, 0, 0, 0, 3, 1).
−
→
Através do sistema (T − 2I)4 (v) = 0 , obtemos os autovetores generalizados (−6, 10, 0, 0, 0, 0), (−9, 0, 10, 0, 0, 0), (−9, 0, 0, 10, 0, 0),
(27, 0, 0, 0, 10, 0), (−81, 0, 0, 0, 0, 10). Escolhendo v1 = (−6, 10, 0, 0, 0, 0),
temos que os vetores
=
(−6, 10, 0, 0, 0, 0)
(T − 2I)(v1 ) =
(0, −6, 6, 10, 4, 0),
(T − 2I)2 (v1 ) =
(0, 0, 0, −6, 10, 4),
(T − 2I)3 (v1 ) =
(0, 0, 0, 0, −6, −2)
v1
3.3. A FORMA CANÔNICA DE JORDAN
87
formam uma cadeia de Jordan para λ = 2.
Como a multiplicidade geométrica é igual a 2, haverá dois blocos associados a λ = 2. Assim, seja v2 = (0, 0, −1, 1, 0, 0).
Para λ = −1, temos o sistema

3

1

−1


0

1

0
0
3
0 0
0 0
0
0
0 3 0 0
1 0 3 0
1 1 1 3
0 0 0
1
   
0
0
x
   
   
0
  y  0
   
0
  z  0
  =  
   
0
  t  0
   
0
 w 0
0
0
p
que fornece o autovetor v3 = (0, 0, 0, 0, 0, 1).
Logo, γ = {(−6, 10, 0, 0, 0, 0), (0, −6, 6, 10, 4, 0), (0, 0, 0, −6, 10, 4),
(0, 0, 0, 0, −6, −2), (0, 0, −1, 1, 0, 0), (0, 0, 0, 0, 0, 1)} e assim a forma de
Jordan de T é

2 0 0

1 2 0

0 1 2

[T ]γ = 
 0 0 1




0


0

0

2






.




2

1
Exemplo 3.8. Seja T um operador linear cujos polinômios característico e minimal são, respectivamente
p(x) = (x − 5)4 (x − 1)3
e m(x) = (x − 5)2 (x − 1)2 .
Podemos encontrar as possíveis formas de Jordan com as informações dadas.
Se o operador T possui dois autovetores independentes associ-
88
Capítulo 3. A FORMA CANÔNICA DE JORDAN
ados a λ = 5, então sua forma de Jordan é dada por
!


5 0



 1 5


!


5 0




.

1
5


!


1
0






1
1


1
No entanto, se possuir três autovetores independentes associa-
dos a λ = 5 sua forma de Jordan será
!

5 0

 1 5


5



5















.

!

1 0



1 1

1
Uma das aplicações da Foma Canônica de Jordan se encontra
na resolução de sistemas de equações diferenciais lineares. Ao estudar o
caso geral da equação diferencial linear x′ = Ax, onde A é uma matriz
de ordem n × n, temos que a solução geral do problema de valor inicial
(PVI) linear
(
x′ = Ax
x(0) = x0
é dada por x(t) = eAt x0 . Assim, para obtermos a solução do sistema
é necessário calcular a matriz eAt , cuja obtenção é simplificada com o
uso da Forma Canônica de Jordan, como veremos no exemplo abaixo.
Exemplo 3.9. Seja o PVI da forma
(
x′ (t) = Ax(t)
x(0) = x0
3.3. A FORMA CANÔNICA DE JORDAN
89
sendo

3

A = 1
2

0

1
0
4
3

1
 
e x0 =  2 
−1

6
Primeiramente, verificamos que a forma de Jordan de A, que
denotaremos por J e com os polinômios característico e minimal da
forma pA (x) = mA (x) = (x − 3)2 (x − 7), é dada por

3 0

J =
 1 3

!



7
associada a base γ = {(4, 0, −3), (0, 1, −1), (0, 1, 3)}. Assim, a matriz P
de mudança de base, tal que J = P −1 AP , é igual a

4
0
0


1 .
3

P = 0
1
−3 −1
Para determinar a solução x(t) = eAt x0 , precisamos calcular
a matriz eAt . Para isso, conforme Figueiredo e Neves (2008), algumas
propriedades são necessárias:
1) Se P é uma matriz inversível então,
eP
−1
AP
= P −1 eA P.
2) AB = BA se, e somente se e(A+B)t = eAt eBt , para todo t.
3) Usando a propriedade 2 e a expansão em série de MacLaurin
A
e =
∞
X
Ai
i=0
i!
,
Capítulo 3. A FORMA CANÔNICA DE JORDAN
90
temos
eJ(λi ,ni )t
= e(λi I+Ni )t = eλi t eNi t
ni −1
2
N
N
i
= eλi t I + Ni t + i t2 + · · · +
tni −1
2!
(ni − 1)!


1
0
0
0 0


 t
1
0
0 0

 2
t

λi t 
t
1
0
0
(3.6)
= e  2!


 .
.
.
.. ..
 ..
..
.
. .. 


tni −2
tni −1
··· t 1
(ni −1)!
(ni −2)!
ni ×ni
onde Ni é uma matriz nilpotente

0 0

1 0


Ni =  0 1
. .
. .
. .
0 0
do tipo
··· 0
0


· · · 0 0

· · · 0 0

.. .. 
..
. . .

··· 1 0 n
i ×ni
∞ Ai
P
é a soma de infinitos termos, porém se a matriz
i=0 i!
A for nilpotente esta soma se torna finita, pois a partir de uma certa
Note que a série
potência a matriz se anula. Portanto, a exponencial eP
por blocos do tipo 3.6.
−1
Observe que os blocos de Jordan de A são
!
3 0
J(3, 2) =
e J(7, 1) = (7) .
1 3
Conforme as propriedades acima, temos
eJ(3,2)t
3It+N1 t
= e(3I+N1 )t =
= e3t eN1 t
!e
1 0
= e3t
t 1
!
3t
0
e
=
te3t e3t
AP
é formada
3.3. A FORMA CANÔNICA DE JORDAN
91
e
= e(7I+N2 )t = e7It+N2 t = e7t eN2 t
eJ(7,1)t
= e7t (1)
= (e7t ).
Logo,
eJt

e3t

= te3t
0
e3t
0
0

0

0 .
e7t
Com as informações obtidas, temos condições de encontrar a
matriz eAt . Assim,
eAt
= P eJt P −1

4
0

= 0
1
0

e3t

1 te3t
−1 3
0
−3

0
e3t
0
e3t

te3t
3e3t
3e7t
= 
−
+
4
16
16
3e3t
te3t
3e3t
− 4 − 4 + 16 +
9e7t
16
1
4
 3
0  − 16
3
e7t
16
0

3e3t
4
3e3t
− 4
0
+
e7t
4
3e7t
+ 4
0
3
4
1
4
0


− 14 
1
4
0
3t
− e4 +
e3t
4
+

e7t 
4 
7t
3e
4
Logo, a solução geral do sistema de equações diferenciais é dada
por
x(t)

e3t
te3t
4
3e3t
16
0
3e7t
16

= 
− 3e4 −

= 
te3t
25e3t
7e7t  .
4 + 16 + 16 
3t
te3t
21e7t
− 13e
−
+
16
4
16

3t
−
te3t
4
e3t
+
+
3e3t
16
7t
+ 9e16

3e3t
e7t
+
4
4
3e3t
3e7t
− 4 + 4
0

1

3t
7t  

− e4 + e4   2 
e3t
3e7t
−1
4 + 4
93
CONCLUSÃO
O curso de Licenciatura em Matemática permite ao acadêmico
uma visão de várias áreas da matemática. E este trabalho teve como
um dos seus objetivos ampliar os conhecimentos referentes à Álgebra
Linear. A construção da Forma Canônica de Jordan requer o estudo
destes conhecimentos, para atingir tal objetivo se explorou alguns conceitos não abordados na graduação. Dentre eles, o estudo relativo aos
operadores não diagonalizáveis.
A Forma Canônica de Jordan possibilita uma representação
matricial de um operador linear não diagonalizável de maneira mais
simples possível, visto que este operador não possui uma base constituída por autovetores, assim não podendo ser representado por uma
matriz diagonal. No entanto, através de uma base constituída por autovetores generalizados, este operador possui uma representação matricial
formada por blocos de Jordan.
Os operadores nilpotentes são de suma importância para a
forma de Jordan, pois por meio deles a existência da forma de Jordan pode ser estendida para qualquer operador linear, quando este
possui polinômios característico e minimal escritos como um produto
de fatores lineares.
Com isso, a forma de Jordan tem aplicabilidade na resolução
de sistemas de equações diferenciais de primeira ordem. A resolução
se torna simples quando a matriz dos coeficientes deste sistema for
diagonalizável. Porém, quando esta matriz não é diagonalizável, podese reduzir o sistema a outro equivalente, cuja nova matriz esta na Forma
de Jordan.
As pesquisas realizadas neste trabalho despertaram o interesse
em aprofundar ainda mais o conhecimento a respeito da Forma de Jor-
94
dan, de outras formas canônicas existentes e suas aplicações.
Conclusão
95
Referências
BUENO, H. P. Álgebra linear: Um segundo curso. Rio de Janeiro:
IMPA, 2006.
COELHO, F. U.; LOURENÇO, M. L. Um curso de álgebra linear. 2.ed.
São Paulo; EDUSP, 2010.
FIGUEIREDO, D. G.; NEVES, A. F. Equações Diferenciais Aplicadas.
3. Ed. Rio de Janeiro: IMPA, 2009.
HOFFMAN, K; KUNZE, R. Linear Algebra. 2. ed. Rio de Janeiro:
Prentice Hall, 1971.
LANG, S.; JUTUCA, L. P. S. G. Álgebra linear. Rio de Janeiro: Ciência
Moderna, 2003.
LIMA, E. L. Álgebra Linear. 7. ed. Coleção Matemática Universitária.
Rio de Janeiro: IMPA, 2009.
LIPSCHUTZ, S; LIPSON, M. Álgebra Linear. 4.ed. Coleção Schaum.
Porto Alegre: Bookman, 2011.
PELLEGRINI J. C.. Álgebra Linear - notas de aula - versão 114. Disponível em <http://aleph0.info/cursos/al/notas/al.pdf>. Data de acesso:
12 de junho de 2015.
Apêndices
99
APÊNDICE A – PROPRIEDADES
Para a resolução do sistema de equações diferenciais do exemplo 3.9, foram utilizadas algumas propriedades, sendo duas delas demonstradas a seguir.
Propriedade A.1. Se P é uma matriz inversível então,
eP
−1
AP
= P −1 eA P.
Demonstração: Utilizado a expansão em série de MacLaurin
A
e =
∞
X
Ai
i!
i=0
temos que
P −1 AP
e
=
,
∞
X
(P −1 AP )i
i!
i=0
Como (P −1 AP )i = P −1 Ai P , segue que
P −1 AP
e
=
=
∞
X
(P −1 AP )i
i=0
∞
X
i=0
i!
P −1 Ai P
i!
= P −1
= P
∞
X
Ai
i=0
−1 A
i!
e P.
Logo,
eP
−1
AP
= P −1 eA P.
!
P
APÊNDICE A. PROPRIEDADES
100
Propriedade A.2. AB = BA se, e somente se e(A+B)t = eAt eBt , para
todo t.
Demonstração: (⇒) Precisamos mostrar que x1 (t) = eAt eBt
e x2 (t) = e(A+B)t satisfazem o PVI dado por x′ (t) = (A + B)x2 (t), com
x(0) = I. Pela regra do produto, segue que
= AeAt eBt + eAt BeBt .
x′1 (t)
(A.1)
Observe que eAt B = BeAt , pois
At
e B
=
∞
X
(At)i
i=0
i!
B
= I · B + At · B +
A2 t2
An tn
· B + ··· +
· B.
2
n
Como as matrizes A e B comutam, segue que
At
e B
A 2 t2
An tn
= B · I + B · At + B ·
+ ··· + B ·
2
n
∞
X (At)i
= B
i!
i=0
= BeAt .
Retornando para a equação A.1, obtemos
x′1 (t) =
=
AeAt eBt + BeAt eBt
(A + B)eAt eBt .
Pela unicidade de solução de equações diferenciais, temos que
e(A+B)t = eAt eBt .
(⇐) Derivando ambos os lados da igualdade e(A+B)t = eAt eBt , obtemos
(A + B)e(A+B)t = AeAt eBt + eAt BeBt .
Derivando novamente, obtemos
(A + B)2 e(A+B)t = A2 eAt eBt + AeAt BeBt + AeAt BeBt + eAt B 2 eBt .
101
Fazendo t = 0, temos
(A + B)2
= A2 + AB + AB + B 2
(A + B)(A + B) = A2 + 2AB + B 2
A2 + AB + BA + B 2
= A2 + 2AB + B 2
AB + BA =
2AB
BA = AB.
Logo, as matrizes A e B comutam.
Download

jéssica neckel cavalheiro a forma canônica de jordan