Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul
Câmpus Caxias do Sul
CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES
LINEARES DE R2 E R3
Trabalho de Conclusão de Curso
Licenciatura em Matemática
Érick Scopel
Caxias do Sul
2014
ÉRICK SCOPEL
CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES
LINEARES DE R2 E R3
Trabalho de Conclusão de Curso apresentado como requisito parcial para obtenção do grau de Licenciado em Matemática, pelo Instituto Federal de Educação, Ciência e
Tecnologia do Rio Grande do Sul − Câmpus Caxias do
Sul.
Área de concentração: Matemática.
Orientadores:
Me. Nicolau Matiel Lunardi Diehl − IFRS.
Me. Rodrigo Sychocki da Silva − IFRS.
Caxias do Sul,
Novembro de 2014.
Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul, Câmpus
Caxias do Sul.
51
S422c
Scopel, Érick.
Caracterização Geométrica de Operadores Lineares de R2 e R3 / Érick
Scopel; orientadores, Nicolau Matiel Lunardi Diehl, Rodrigo Sychocki da Silva. Caxias do Sul, RS, 2014.
60 p.
Trabalho de Conclusão de Curso (Graduação) - Instituto Federal de
Educação, Ciência e Tecnologia do Rio Grande do Sul, Câmpus Caxias do Sul.
Graduação em Matemática.
Inclui referências.
Inclui lista de figuras.
1. Matemática. 2. Álgebra Linear. 3. Operadores Lineares. 4. Teoria de Jordan.
I. Diehl, Nicolau Matiel Lunardi. II. Silva, Rodrigo Sychocki da. III. Instituto
Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul. Graduação em
Matemática. IV. Tı́tulo.
Ficha catalográfica elaborada pela bibliotecária Jaçanã Pando CRB 10/1936.
ÉRICK SCOPEL
CARACTERIZAÇÃO GEOMÉTRICA DE OPERADORES
LINEARES DE R2 E R3
A banca examinadora, abaixo assinada, aprova o Trabalho de Conclusão de Curso:
Caracterização Geométrica de Operadores Lineares de R2 e R3 elaborado por Érick Scopel
como requisito parcial para obtenção do grau de Licenciado em Matemática, pelo Instituto
Federal de Educação, Ciência e Tecnologia do Rio Grande do Sul − Câmpus Caxias do
Sul.
Prof. Dr. Diego Marcon Farias - UFRGS.
Prof. Esp. Nı́colas Moro Müller - IFRS.
Prof. Dr. Rene Carlos Cardoso Baltazar Junior - FURG.
Caxias do Sul, 25 de Novembro de 2014.
Agradecimentos
Agradeço primeiramente aos meu orientadores Nicolau Matiel Lunardi Diehl e Rodrigo Sychocki da Silva pelos momentos oportunizados para criação deste trabalho onde,
sem dúvida, aprendi muito mais do que essas páginas podem trazer. Além disso, agradeço
pela compreenção e ajuda em todos momentos que tive dificuldades para condução deste
trabalho. Também agradeço a todos os outros professores que, de alguma forma, tiveram
participação deste projeto.
Agradeço ao Instituto Federal de Educação, Ciência e Tecnologia do Rio Grande do
Sul - Câmpus Caxias do Sul pela oportunidade de cursar o curso de Licenciatura em
Matemática onde, sem este, nunca teria feito tal trabalho. Também agradeço ao colega
Lucas Dutra pela parceria e companherismo durante esses quatro anos.
Agradeço a minha famı́lia pelo apoio em todos momentos em que estava estudando ou
escrevendo este trabalho, em especial a minha namorada pela ajuda com a tradução do
resumo e pela paciência e entendimento que este Trabalho de Conclusão de Curso (TCC)
leva dias, domingos, sábados, finais de semana para ser escrito.
Resumo
O trabalho versa sobre uma caracterização geométrica de operadores lineares de R2
e R3 . Com a Teoria de Jordan aplicada a matrizes associadas aos operadores, pode-se
caracterizar as transformações olhando para as matrizes quadradas de ordem dois, quando
o operador for em R2 , e quadradas de ordem três quando for em R3 . É encontrada uma
matriz de Jordan que seja equivalente a matriz associada ao operador e assim é dito
como este operador se comporta em determinadas regiões. Com essa teoria escreve-se os
operadores lineares de formas mais simples e assim os classifica em classes. Além disso,
os operadores tem aplicações relevantes no estudo de Fractais, Deformações, Morfismos
e Computação Gráfica. Na Computação Gráfica, por exemplo, a teoria de operadores é
utilizada na manipulação de imagens que envolvem rotações, cisalhamentos , dilatação
e compressão e alteração de cores, que são exemplos de transformações lineares. É comum encontrar nos livros de álgebra linear transformações dos tipos citados. Mas, a
pergunta natural a se fazer é: “toda a transformação linear é desse tipo?”Este trabalho
visa responder a esta pergunta, uma vez que os livros de álgebra linear descrevem estas
transformações em capı́tulos iniciais e nos finais trazem a teoria de Jordan, porém, não
a utilizam para responder diretamente a tal pergunta. Perceberemos neste trabalho, que
os operadores lineares de R2 e R3 atuam como dilatações, compressões, cisalhamentos e
rotações, quando olhamos para os vetores da base de Jordan.
Palavras-chave: Operadores Lineares. Teoria de Jordan. Classes.
Abstract
The work concerns a geometric characterization of linear operators in R2 and R3 .
With the Jordan’s Theory applied to the matrices associated to the operators, can be
characterize the transformations looking to square matrices of order two when the operator
is in R2 , and square of order three when in R3 . It is found an array of Jordan that
is equivalent to the matrix associated to the operator and so is said like this operator
behaves in certain regions. With this theory we write the linear operators the simpler
forms and thus classify them into kinds. In addition, operators have relevant applications
in the study of Fractals, Deformations, Morphisms and Computer Graphics. In Computer
Graphics, for example, the theory is used in manipulation of image involving rotation,
shearing, expansion and compression, and changing colors, which are examples of linear
transformations. It is common to find in the books of linear algebra transformations of
the types mentioned but the natural question to ask is: “all linear transformation is that?
”This work aims to answer this question, since the books of linear algebra describe these
transformations in initial chapters and final chapters bring the theory of Jordan, but not
use it to directly answer this question. We realize this work, the linear operators R2 and
R3 act as expansion, compression, shear and rotation, when we look at the Jordan basis
vectors.
Keywords: Linear Operations. Jordan’s Theory. Kinds.
Lista de Figuras
1
Dilatação dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2
Dilatação da área delimitada pelos vetores v1 e v2 . . . . . . . . . . . . . . 32
3
Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). . . . . . . . . . . . . . . . 34
4
Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1). . . . . . . . . . . . . . . . 34
5
Compressão dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . 35
6
Compressão da área delimitada pelos vetores v1 e v2 . . . . . . . . . . . . . 36
7
Contração dos vetores v1 = (−1, −1) e v2 = (2, 1). . . . . . . . . . . . . . . 37
8
Área delimitada pela compressão nos vetores v1 = (−1, −1) e v2 = (2, 1). . 37
9
Dilatação do vetor v1 e compressão do vetor v2 . . . . . . . . . . . . . . . . 38
10
Área da dilatação do vetor v1 e compressão do vetor v2 . . . . . . . . . . . . 38
11
Dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3). . . . . 39
12
Área delimitada pela dilatação do vetor v1 = (−1, −1) e compressão do
vetor v2 = (2, 3). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
13
Dilatação de v2 e cisalhamento de v1 . . . . . . . . . . . . . . . . . . . . . . 41
14
Área delimitada pela dilatação de v2 e cisalhamento de v1 . . . . . . . . . . 41
15
Dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 = (1, 1). . . . . . 43
16
Área delimitada pelo dilatação no v2 = (3, −6) e cisalhamento do vetor
v1 = (1, 1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
17
Cisalhamento na direção v1 e contração na direção v2 . . . . . . . . . . . . . 45
18
Área delimitada pelo cisalhamento na direção v1 e contração na direção v2 .
19
Cisalhamento na direção v1 = (1, 1) e uma contração na direção v2 =
( 10 5 )
− 3 , − 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
20
Área delimitada pelo cisalhamento na direção v1 = (1, 1) e uma contração
(
)
na direção v2 = − 10
, − 95 . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3
21
Rotação dos vetores v1 e v2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
22
Área delimitada pela rotação dos vetores v1 e v2 .
23
Rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ . . . . . . . . . . 49
24
Área delimitada pela rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em
α = 45◦ .
45
. . . . . . . . . . . . . . 48
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
25
Dilatação da área limitada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
26
Compressão da área limitada. . . . . . . . . . . . . . . . . . . . . . . . . . 51
Sumário
1 Introdução
9
2 Metodologia
11
3 Embasamento Histórico
13
4 Teoria preliminar
4.1 Espaço Vetorial e Subespaço Vetorial
4.2 Bases . . . . . . . . . . . . . . . . . .
4.3 Soma Direta . . . . . . . . . . . . . .
4.4 Transformações Lineares . . . . . . .
4.5 Matriz de uma Transformação Linear
4.6 Sistema Linear . . . . . . . . . . . .
4.7 Autovetor e autovalor . . . . . . . . .
4.8 Diagonalização . . . . . . . . . . . .
4.9 Matriz de Jordan . . . . . . . . . . .
15
15
16
18
19
20
23
23
24
25
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5 Caracterização Geométrica via Teoria de Jordan
30
5.1 Operadores de R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
5.2 Operadores de R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6 Conclusão
59
9
1
Introdução
Neste trabalho estudamos os Operadores Lineares de R2 e R3 que são Transformações
Lineares do tipo A : V −→ V , onde V é um espaço vetorial.
Objetivamos com esse trabalho responder o seguinte problema norteador: como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ? Por exemplo, um
dado operador faz uma homotetia em alguma direção? Em particular, queremos saber a
imagem de um paralelogramo por um operador linear de R2 ou de um paralelepı́pedo por
um operador linear de R3 .
Com a Teoria de Jordan aplicada a matrizes associadas aos operadores, podemos
caracterizar as transformações olhando para as matrizes quadradas de ordem dois, quando
o operador for em R2 , e quadradas de ordem três quando for em R3 . Podemos encontrar
uma matriz de Jordan que seja equivalente a matriz associada ao operador e assim, dizer
como este operador se comporta geometricamente.
Podemos ver em Lima (2012) que se quisermos definir uma transformação linear A :
n
R −→ Rn basta escolher, para cada 1 ≤ j ≤ n, um vetor vj = (a1j , a2j , · · · , anj ) e
dizer que vj = Aej é a imagem da base canônica pela transformação linear A. De fato,
basta definir a transformação para uma base qualquer. Estudaremos esses operadores
entendendo como eles atuam em uma base determinada pela matriz de Jordan, chamada
base de Jordan.
Com essa teoria podemos escrever os operadores lineares de formas mais simples e
assim, classificá-los em classes. Veremos que, todos estes operadores lineares se baseiam
em dilatações, compressões, rotações e cisalhamentos, observando a matriz de Jordan dos
operadores.
Além disso, os operadores tem aplicações relevantes no estudo de Deformações e Morfismos1 , Fractais2 e Computação Gráfica. Na Computação Gráfica3 , por exemplo, a teoria
de operadores é utilizada na manipulação de imagens que envolvem rotações, cisalhamentos, dilatação e compressão e alteração de cores, que são exemplos de transformações
lineares.
O trabalho possui seis capı́tulos, sendo esta introdução o primeiro. Abordamos a
metodologia no capı́tulo 2, onde descrevemos as etapas de realização deste trabalho e
como foi feita a pesquisa, partindo de um problema norteador e, através de teorias já
criadas, passamos a resolve-lô. Utilizamos uma pesquisa bibliográfica para conduzir nosso
trabalho, pois pensamos que esta seria eficiente em responder a pergunta levantada por
este trabalho.
1
O trabalho “Transformações no Plano: Uma Aplicação do Estudo de Matrizes com o Uso de Planilhas
Eletrônicas.”aborda morfismos e deformações.[2]
2
O trabalho “Estudando matrizes a partir de transformações geométricas”, apresenta casos com fractais. [9]
3
O trabalho “A Importância das Matrizes e Transformações Lineares na Computação Gráfica”traz a
importância de trnsformações lineares na computação gráfica.[6]
10
Uma breve contextualização histórica sobre álgebra linear é feita no capı́tulo 3. Nela
percebemos uma evolução no pensamento álgebrico até chegarmos aos descobrimentos de
Peano, que consolidaram a álgebra linear.
A teoria premilinar encontra-se no capı́tulo 4 que traz conceitos e definições, como:
espaço vetorial, subespaço vetorial, base, transformação linear, matriz de uma transformação linear, sistema linear, polinômio caracterı́stico, autovetor, autovalor, diagonalização e teoria de Jordan.
O capı́tulo 5 traz as aplicações da teoria de Jordan aos operadores lineares de R2 e
R3 . Trazemos os operadores lineares divididos em classes, segundo a Teoria de Jordan.
Também trazemos a caracterização geométrica dessas classes, exemplos e figuras que
proporcionam um olhar geométrico para os operadores lineares.
A conclusão do trabalho se encontra no capı́tulo 6, onde concluı́mos que respondemos
nossa pergunta inicial e que, os operadores lineares de R2 e R3 , se baseiam em transformações lineares conhecidas, como dilatações, compressões, rotações e cisalhamentos.
11
2
Metodologia
Para conduzir nosso trabalho, inicialmente fizemos uma pesquisa bibliográfica. Pensamos que essa metodologia seria a mais adequada para propiciar a resposta da pergunta
inicial “como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ?”pois
a teoria base para o corpo do trabalho já encontra-se consolidada em livros, teses, artigos,
dissertações.
Segundo Gil (2010) uma pesquisa bibliográfica segue as seguintes etapas:
i) escolha do tema;
ii) levantamento bibliográfico preliminar;
iii) formulação do problemas;
iv) elaboração do plano provisório de assunto;
v) busca das fontes;
vi) leitura do material;
vii) fichamento;
viii) organização lógica do assunto;
ix) redação do texto.(GIL, 2010, pg.45)
Estas etapas citadas serviram de referência durante a elaboração do trabalho. O tema
álgebra linear se faz necessário para propiciar uma tentativa de responder a questão central
deste trabalho. Após um levantamento premiliar da teoria matemática, formulamos a
problematização do trabalho a fim de nortear as ações seguintes. Esse levantamento foi
feito em caráter exploratório, analisando a teoria acerca do problema. Isso acarretou em
uma clareza maior para a compreensão do problema. Com o problema definido, podemos
conduzir o trabalho com mais precisão e foco, estabelecendo objetivos claros.
Foram analisados trabalhos e fontes que constavam tanto a parte matemática (álgebra
linear) quanto suas aplicações voltadas a solução da problematização esperada. Com isso,
foi possı́vel fazer um fichamento dos assuntos bases para o entendimento do trabalho. Os
assuntos selecionados são: Espaço Vetorial, Subespaço Vetorial, Bases, Transformações
Lineares, Matriz Associada a Transformação Linear, Sistema Linear, Autovalor, Autovetor, Polinômio Caracterı́stico, Determinante, Diagonalização e Teoria de Jordan. É
importante salientar que livros considerados de excelência estão sendo usados para as
escritas dos assuntos anteriores, entre eles [1] e [8].
A organização dos assuntos em capı́tulos se justifica quando pensamos em uma estrutura lógica, isto é, para chegar no objetivo do trabalho, temos que construir definições e
resultados que possibilitam a compreensão do restante do texto. Assim, temos o embasamento suficiente para o restante do desenvolvimento do trabalho.
Para conduzir a caracterização por classes, utilizaremos matrizes de Jordan que são
equivalentes as matrizes associadas aos operadores lineares. Assim, através da Teoria de
Jordan, classificaremos em casos (classes) todos possı́veis operadores lineares de R2 e do
12
R3 . É importante salientar que a utilização da Teoria de Jordan para a caracterização
geométrica de operadores lineares não foi encontrado em outros textos já produzidos.
13
3
Embasamento Histórico
A álgebra linear é um campo recente dentro da matemática, começou a ser pensado
como o conhecemos hoje por Leonhard Euler4 , por volta de 1750, quando discutiu o
paradoxo de Cramer e revolucionou o pensamento da época sobre sistemas lineares.
Segundo Katz (2010),
este paradoxo baseava-se em duas proposições: (1) Uma curva algébrica
de ordem n é univocamente determinada por
n(n+3)
2
dos seus pontos. (2)
Duas curvas algébricas de ordens n e m instersectavam-se em nm pontos.
(KATZ, 2010; pg.788)
Uma curva algébrica plana é o lugar dos pontos cujas coordenadas cartesianas satisfazem a uma equação do tipo
f (X, Y ) = 0,
onde f é um polinômio não constante.5
Euler discute a primeira proposição e conclui que esta era baseada em uma afirmação
nem sempre verdadeira. Esta afirmação era que n equações com n incognitas sempre
tem uma única solução, como se acreditava. Euler percebe que esta afirmação não é
sempre válida. Mesmo não escrevendo nenhum teorema sobre esse assunto em sua obra
“Introdução à Álgebra”, Euler traz exemplos do tipo:
{
3x − 2y = 5
−6x + 4y = −10
onde notou que essas equações não determinavam únicos valores para as incógnitas x e y.
Segundo Katz (2010), Euler acabou concluindo que para que n incógnitas sejam determinadas por n equações, é necessário acrescentar a condição de que essas equações
sejam todas diferentes e também não estejam “compreendidas” nas demais. Apesar de
não ter definido “compreendida” de forma explı́cita, parece que Euler tinha conhecimento
do conceito de caracterı́stica de uma sistema linear. Mesmo Euler resolvendo o paradoxo,
foi preciso mais um século para que os sistemas indeterminados, também chamados de
inconsistentes, fossem compreendidos.
Em 1843, Hamilton6 criou a primeira álgebra não-comutativa, a álgebra dos quatérnios7 .
Esse fato, ligado a todo seu estudo, fez abrir as portas da álgebra moderna, como conhecemos hoje.
4
Matemático suiço nascido na Basiléia (1707-1783). Segundo [3] Euler foi um escritor prolı́fero, tendo
seu nome em praticamente todos os ramos da matemática.
5
Veja mais em sobre curvas algébricas em [10].
6
Willian Rowan Hamilton (1805-1865) foi um fı́sico e matemático irlandês. É conhecido por criar a
teoria dos quatérnios, segundo [7]
7
Os quartérnios são considerados um anel de divisão, ou um corpo não comutativo, conforme [5]
14
Segundo Eves (2004):
[...] a grande importância dos quatérnios na história da matemática reside
no fato de que sua criação por Hamilton em 1843 libertou a álgebra de suas
amarras com a aritmética dos números reais, abrindo assim as comportas
da álgebra abstrata. (EVES, 2004; pg. 555)
Cayley8 uniu a ideia de Matriz (anteriormente conhecida) com o sistema linear. Ele
provou, em 1858, o teorema conhecido como Teorema de Cayley-Hamilton, mostrando
que para a matriz Mf associada ao operador M
[
Mf =
a b
c d
]
é solução do polinômio caracterı́stico do operador linear M : V −→ V , ou seja, se p for o
polinômio caracterı́stico de M : V −→ V , para V espaço vetorial complexo de dimensão
finita, então p(Mf ) = 0.
Cayley, juntamente com Sylvester9 , fizeram importantes contribuições na área da
álgebra, como teoria das transformações, formas canônicas, teoria dos números, matrizes, entre outros. Outros nomes da matemática foram fundamentais para a evolução
da álgebra como Hermann Günter Grassmann, Augustus de Morgan, Charles Hermite e
Josiah Willard Gibbs.
Foi do trabalho desses matemáticos que surgiu a Álgebra Vetorial. Segundo Eves
(2004), deve-se esse trabalho especialmente a Josiah Willard Gibbs (1839-1903), em 1881,
que definiu a soma de vetores, o produto vetorial e a ideia de sentido, direção e comprimento dos vetores.
Anos mais tarde, Peano10 definiu noções para a álgebra linear. Segundo Katz (2010)
as noções básicas de álgebra linear, incluindo as de independência linear
de combinações lineares, foram usadas em diversos ramos da matemática
durante o século dezenove, mas foi apenas em finais do século que uma definição abstrata de espaço vetorial foi formulada. O primeiro matemático
a dar tal definição foi Giuseppe Peano no seu Calcolo geometrico de 1888.
(KATZ, 2010; pg.1027)
Peano também definiu sistema linear e sua dimensão, utilizando a ideia da independência linear. Dizemos então, que a álgebra linear como conhecemos hoje, começa
a ser estruturada em 1888, sendo assim uma área nova dentro da matemática.
8
Arthur Cayley (1821-1895), matemático inglês, é conhecido pelo desenvolvimento da álgebra das
matrizes, de acordo com [3]
9
James Joseph Sylvester (1814-1897) matemático inglês que, estimulado por Cayley, escreveu vários
artigos que contribuiram para à álgebra, como teoria das transformações, conforme [3]
10
Giuseppe Peano (1858-1932), matemático italiano conhecido pelos axiomas de espaço vetorial, segundo [7]
15
4
Teoria preliminar
Esse capı́tulo apresenta a fundamentação teórica necessária para o restante do trabalho.
Escrevemos este com uma sequência lógica com o objetivo de construir o conhecimento
prévio necessário para compreendermos como se desenvolverão as ideias ao longo do trabalho. Em sua maioria, as definições, lemas e teoremas apresentados no corpo do texto
foram adaptadas de [1] e [8].
4.1
Espaço Vetorial e Subespaço Vetorial
Nesta seção, apresentaremos uma noção da região onde a álgebra linear se desenvolve,
os Espaços Vetoriais.
Definição 4.1. Seja V um conjunto de elemento (chamados vetores), munido da operação
soma (+) e multiplicação (.) por um escalar de R (corpo) definidas de modo que valham
as seguintes propriedades:
Para todo v1 , v2 , v3 ∈ V e α, β ∈ R
i) v1 + v2 ∈ V e αv1 ∈ V (fechamento)
ii) (v1 + v2 ) + v3 = v1 + (v2 + v3 ) e (αβ)v1 = α(βv1 ) (associatividade)
iii) v1 + v2 = v2 + v1 (comutatividade)
iv) existe 0 ∈ V tal que v1 + (−v1 ) = 0 (elemento neutro)
v) α(v1 + v2 ) = αv1 + αv2 (distributividade para os vetores)
vi) (α + β)v1 = αv1 + βv1 (distributividade para os escalares)
vii) existe 1 ∈ R tal que v1 1 = v1 (estabilidade)
Neste caso, dizemos que V (+, .) é um espaço vetorial sobre R, denotamos simplesmente
por V este espaço vetorial.
Nota: seja V um espaço vetorial em R. Se temos v ∈ V e 0 ∈ R , notamos que 0v = 0.
De fato,
0v = (α + (−α))v = αv − αv = 0
Definição 4.2. Seja W um subconjunto de V espaço vetorial. Se W tem a estrutura de
espaço vetorial com as operações de V , então W é subespaço vetorial.
Lema 4.3. Seja W ̸= ∅; W ⊂ V é um subespaço vetorial de V se ∀w1 , w2 ∈ W onde,
para α ∈ R, temos:
i) αw1 ∈ W
ii) w1 + w2 ∈ W
16
Note que, os subespaços vetoriais têm que conter a origem e também, todo subespaço
é um espaço vetorial em si mesmo.
4.2
Bases
Esse tópico é de suma importância para a continuação do trabalho, pois temos por
objetivo caracterizar um operador linear de R2 e R3 analisando o que acontece em uma
certa base (base de Jordan).
Conforme vemos em Lima (2012),
uma vez fixada uma base num espaço vetorial de dimensão n, seus elementos são meramente combinações lineares dos n vetores básicos, com
coeficientes univocamente determinados. (Lima 2012, pg. 25)
Definição 4.4. Sejam W = {w1 , w2 , · · · , wn } ⊂ V e α1 , α2 , · · · , αn ∈ R definimos a
combinação dos elementos de W por uma soma finita da forma
α1 w1 + α2 w2 + · · · + αn wn .
Definição 4.5. Seja W = {w1 , w2 , · · · , wn } um subconjunto de um espaço vetorial V.
O conjunto W é linearmente dependente se existirem escalares α1 , α2 , · · · , αn ∈ R , não
todos nulos, tais que
α1 w1 + α2 w2 + · · · + αn wn = 0.
Definição 4.6. Seja W um subconjunto de V espaço vetorial. Dizemos que o conjunto
W é linearmente independente quando não é linearmente dependente.
Definição 4.7. Seja W um subconjunto de um espaço vetorial V. Dizemos que o conjunto
W gera o espaço V se para todo v ∈ V existem α1 , α2 , · · · , αn ∈ R e w1 , w2 , · · · , wn ∈ W
tais que α1 w1 + α2 w2 + · · · + αn wn = v. Dizemos então, que W é um subespaço gerador
de V.
Definição 4.8. Seja V um espaço vetorial. Dizemos que um conjunto ordenado B é base
de V quando:
i) B é um conjunto linearmente independente.
ii) o subespaço gerado por B é igual a V.
Lema 4.9. Todo espaço vetorial V ̸= {0} gerado por um subconjunto S = {v1 , v2 , · · · , vn }
possui uma base.
Demonstração. Primeiramente tiramos os elementos (se existir) de S que são linearmente
dependentes com os elementos restantes. Retirando os elementos, os elementos restantes
de S ainda geram V. Assim, teremos um conjunto linearmente independente S que gera
V.
17
Nota: o espaço vetorial 0 não possui base.
O próximo teorema serve de subsı́dio para o corolário 4.11 que é importante para o
desenvolvimento do texto.
Teorema 4.10. Seja o conjunto S = {v1 , v2 , · · · , vn } gerador do espaço vetorial V . Se
W = {w1 , w2 , · · · , wj } com W ⊆ V é linearmente independente, então j ≤ n.
Demonstração. Suponhamos que j > n. Como S gera V , temos que
w 1 = λ 1 v1 + λ 2 v2 + · · · + λ n vn
sendo, ao menos, um dos escalares λ1 , · · · , λn diferente de zero. Podemos supor que
λ1 ̸= 0. Temos assim que {v2 , · · · , vn , w1 } gera V. De fato, se v ∈ V , existem escalares
α1 , · · · , αn tais que v = α1 v1 + α2 v2 + · · · + αn vn . Mas então,
[
v = α1
]
1
(w1 − λ2 v2 − · · · − λn vn ) + α2 v2 + · · · + αn vn
λ1
mostrando o afirmado.
De maneira análoga, w2 = β2 v2 + β3 v3 + · · · + βn vn + β1 w1 , com ao menos um dos
escalares β2 , · · · , βn diferente de zero. Supondo β2 , verificamos então que o conjunto
{v3 , v4 , · · · , w1 , w2 } gera o espaço V. Repetindo o procedimento, observamos que
{w1 , w2 , · · · , wn }
gera o espaço V . Em particular,
wn+1 = γ1 wn + · · · + γn wn .
Mas então,
−γ1 w1 − · · · − γn wn + 1wn+1 + 0wn+2 + · · · + 0wj = 0
o que contradiz {w1 , w2 , · · · , wj } ser um conjunto linearmente independente.
Corolário 4.11. Se os vetores v1 , v2 , · · · , vm geram o espaço vetorial V e os vetores
w1 , w2 , · · · , wn são linearmente dependentes, então m ≥ n.
Este corolário é uma mera reformulação do Teorema 4.10.
Definição 4.12. Se B = {b1 , b2 , b3 , · · · , bn } for uma base do espaço vetorial V , dizemos
que V tem dimensão n e escrevemos dimV = n.
Teorema 4.13. Todo subconjunto linearmente independente de um espaço vetorial V de
dimensão finita pode ser completado para formar uma base de V.
18
Demonstração. Se S = v1 , v2 , · · · , vj não gerar V , então existe um vetor vj+1 ∈ V que é
LI com o conjunto S. O conjunto E = v1 , v2 , · · · , vj , vj+1 é LI. Se E não for base de V ,
repetimos o procedimento, um número finito de vezes, até obter a base de V.
Note que o Teorema 4.2 nos diz que existem várias bases para o espaço V .
Definição 4.14. Sejam V um espaço vetorial e B = {b1 , b2 , b3 , · · · , bn } uma base de V . Se
v ∈ V , então existem escalares α1 , α2 , · · · , αn ∈ R tais que v = α1 b1 +α2 b2 +· · · +αn bn . O
vetor (α1 , α2 , · · · , αn ) é a representação de v na base B e α1 , α2 , · · · , αn são as coordenadas
de v na base B.
Teorema 4.15. Seja v ∈ V e B = {b1 , b2 , b3 , · · · , bn } base de V espaço vetorial. A
representação de v na base B é única.
Demonstração. Podemos escrever v ∈ V como v = α1 b1 + α2 b2 + · · · + αn bn , sendo
B = {b1 , b2 , · · · , bn } base de V . Supomos que o mesmo vetor v seja escrito da forma v =
β1 b1 +β2 b2 +· · ·+βn bn , então temos que v = α1 b1 +α2 b2 +· · ·+αn bn = β1 b1 +β2 b2 +· · ·+βn bn .
Daı́ (α1 − β1 )b1 + (α2 − β2 )b2 + (α3 − β3 )b3 + · · · + (αn − βn )bn = 0. Como B é base então
α1 = β1 , α2 = β2 , · · · , αn = βn .
Portanto, as coordenadas de um certo vetor v ∈ V em uma base arbitrária é única.
Definição 4.16. Seja ei ∈ Rn , com 1 ≤ i ≤ n, o vetor cuja i-ésima coordenada é igual a
1 e as outras nulas. O conjunto B = (e1 , e2 , · · · , en ) é denominado de base canônica do
espaço Rn .
4.3
Soma Direta
Nesta seção, veremos como um espaço vetorial pode ser decomposto como uma soma
de subespaços vetoriais independentes.
Definição 4.17. Sejam X, W subconjuntos de um espaço vetorial V . Denotamos por
X + W o conjunto de todos os vetores x + w, com x ∈ X e w ∈ W .
Proposição 4.18. Sejam X, W subespaços de V . Então X + W é subespeço de V . O
subespaço X + W é chamado soma dos subespaços X e W .
Demonstração. Se v1 = x1 + w1 e v2 = x2 + w2 forem elementos de X + W e λ seja uma
contante, então temos que λv1 + v2 ∈ X + W . Logo, segue do lema 4.8.
Definição 4.19. Sejam X, W subespaços de V . O subespaço V = X + W é a soma direta
dos subespaços X e W se cada elemento de v ∈ V puder ser escrito de maneira única
como
v = x + w.
Nesse caso denotamos V por V = X ⊕ W .
19
Proposição 4.20. O subespaço V = X + W é uma soma direta dos subespaços X, W se,
e somente se, X ∩ W = {0}.
Demonstração. ⇒ Supomos que V = X ⊕ W . Se z ∈ X ∩ W , então v = w + x também
pode ser escrito como v = (w + z) + (x − z). Como a decomposição de v é única, temos
que x = x + z e w = w − z e assim, temos z = 0.
⇐ Suponhamos que x1 + w1 e x2 + w2 sejam decomposições de v ∈ V . Então x1 − x2 =
w2 −w1 pentencem a X ∩W . Logo temos x1 −x2 = 0 = w2 −w1 , o que garante o unicidade
de decomposição.
Teorema 4.21. Seja V um espaço vetorial de dimensão finita. Então vale:
i) todo subespaço W de V possui dimensão finita.
ii) todo subespaço W possui um complemento X ⊂ V , isto é, existe um subespaço X
de V tal que
V = X ⊕ W.
Demonstração. Segundo o lema 4.9, temos uma base {w1 , w2 , · · · , wj } de W . Aplicando
o teorema 4.13 temos uma base {w1 , w2 , · · · , wj , v1 , v2 , · · · , vn−j } para V . Defina X como
o espaço de todas as combinações lineares dos elementos v1 , v2 , · · · , vn−j . Claramente Xé
um subespaço de V e X ⊂ V = {0}. Pela proposição 4.20, temos V = X ⊕ W .
4.4
Transformações Lineares
A compreensão desta seção é fundamental para alcançarmos o objetivo geral do trabalho, visto que a teoria das transformações lineares será essencial para o desenvolvimento
do restante do texto.
Definição 4.22. Sejam V e W espaços vetoriais com as operações soma (+) e multiplicação (.). Uma transformação linear A : V −→ W é uma relação que associa a cada
elemento v ∈ V um elemento Av = w ∈ W de modo que para quaisquer v1 , v2 ∈ V e α ∈ R
, valem:
A(v1 + v2 ) = A(v1 ) + A(v2 ) = Av1 + Av2
A(αv1 ) = αA(v1 )
Chamamos Av = w ∈ W de imagem de v pela transformação A.
Definição 4.23. Dado A : V −→ W e B : V −→ W transformações lineares, definimos
a soma de duas transformações como A + B : V −→ W onde (A + B)v = Av + Bv para
todo v ∈ V .
20
Definição 4.24. Dado A : V −→ W transformação linear, definimos o produto de uma
transformação linear por um escalar α ∈ R sendo αA : V −→ W onde (αA)(v) = αA(v)
para todo v ∈ V .
Definição 4.25. Seja A : V −→ V uma transformação linear do espaço vetorial V em si
próprio. Chamaremos esse tipo de transformação linear de operador linear em V .
Definição 4.26. Seja a transformação linear A : V −→ R ,com valores numéricos, uma
transformação linear do espaço V em R. Chamaremos esse tipo de transformação linear
de funcional linear em V .
Definição 4.27. Um operador linear A chama-se nilpotente quando, para algum n ∈ N,
tem-se An = 0.
Definição 4.28. Um operador linear A nilpotente tal que An = 0 e An−1 ̸= 0 . Chamamos
n de ı́ndice de nilpotência.
Definição 4.29. Um operador linear A : V −→ V é chamado idempotente se A2 = A.
Teorema 4.30. Sejam V e W espaços vetoriais e B = {b1 , b2 , b3 , · · · , bn } uma base de
V . Podemos estabelecer A : V −→ W transformação linear. A todo b ∈ B, façamos
corresponder um elemento arbitrário w ∈ W . Então existe uma única transformação tal
que Ab = w para cada b ∈ B .
Demonstração em [8] página 40.
4.5
Matriz de uma Transformação Linear
Uma das formas de trabalhar com álgebra linear é através das Matrizes. Essas podem
ser associadas a uma Transformação Linear em determinada base. Ao observar a matriz
associada a transformação linear, é possı́vel caracterizar a transformação, ou melhor, dizer
o que esta faz em uma determinada base.
Segundo o Teorema 4.30 temos que uma transformação linear fica determinada através
de uma matriz [aij ] ∈ M(m×n) sendo seus vetores-coluna imagens da transformação dos
vetores da base canônica de Rn .
A partir de agora, abordaremos transformações lineares com espaços de mesma dimensão, ou seja, utilizaremos essencialmente operadores lineares.
Teorema 4.31. Seja um operador linear A : Rn −→ Rn . Toda aplicação linear A é da
n
∑
forma yi =
[aij ]xj , onde x = (x1 , x2 , x3 , ..., xn ) ∈ Rn e y = (y1 , y2 , y3 , ..., yn ) ∈ Rn e
j=1
y = Ax.
21
Demonstração. Consideramos a base canônica {e1 , e2 , e3 , ..., en } do Rn . Então, temos que
x = (x1 , x2 , x3 , · · · , xn ) ∈ Rn é escrito da forma x = x1 e1 + x2 e2 + x3 e3 + ... + xn en =
n
∑
xj ej . Como A é linear,
(
j=1
y = Ax = A
n
∑
)
xj ej
j=1
=
n
∑
xj Aej
j=1
Denotamos a i-ésima coordenada do vetor A(ej ) por aij , isto é aij = (A(ej ))i . Assim,
a i-ésima coordenada de y é
n
∑
yi =
xi aij
j=1
Note que, no Teorema 4.31 foi utilizado de modo explı́cito a base canônica do Rn por
{e1 , e2 , e3 , ..., en }.
Os coeficientes [aij ] formam um arranjo quadrado, da seguinte forma:



Af = 


a11 a12 · · · a1n
a21 a22 · · · a2n
..
..
..
..
.
.
.
.
an1 an2 · · · ann






denominamos tal arranjo de matriz associada a A, que é uma matriz Af (n×n) onde n é
o número de linhas e de colunas. O elemento aij é a entrada correspondente a linha i
e a coluna j. Como temos a quantidade de linhas igual a de colunas, dizemos que Af
é quadrada. Chamamos de submatriz de Af uma matriz obtida de Af sendo omitida
algumas linhas e/ou colunas.
Lema 4.32. Sejam A, B : Rn −→ Rn . Então (A + B)ij = Aij + Bij e (λA)ij = λAij .
Demonstração. Temos, por definição, que bij é a i-ésima coordenada do vetor Bej e aij é a
i-ésima coordenada do vetor Aej . Assim, se somarmos as coordenadas, obtemos bij + aij .
Por outro lado, temos Bej + Aej = (A + B)ej de modo que a i-ésima componente do vetor
(A + B)ej é bij + aij .
Da mesma forma, a i-ésima componente do vetor (λA)(eij ) é λ multiplicado pela
i-ésima componente do vetor Aej .
Definição 4.33. Denotaremos por Mn×n , o espaço das matrizes n × n de coeficientes
reais.
Definição 4.34. Seja A ∈ Mn×n , dizemos que A é invertı́vel se existir uma matriz B tal
que
AB = BA = I,
22
em que I denota a matriz identidade n × n. Denotamos, portanto, B = A−1 e chamamos
A−1 de inversa da matriz A.
Podemos ver as transformações lineares com o uso de matrizes. Em uma transformação
A : Rn −→ Rn , consideramos a matriz associada a A em uma determinada base, ou seja,
Af = [aij ] ∈ Mn×n em vez da transformação linear A.
Teorema 4.35. Sejam B = {b1 , b2 , b3 , · · · , bn } e B ′ = {b′1 , b′2 , b′3 , · · · , b′n } duas bases de
Rn espaço vetorial. Seja A : Rn −→ Rn um operador linear onde Af é a matriz associada
a A na base B e A′f é a matriz associada a A na base B ′ . Então existe C invertı́vel tal
que
A′f = CAf C −1
Demonstração. Seja v ∈ Rn , B e B ′ bases de Rn nas condições do teorema e Af é a matriz
associada a A na base B e A′f é a matriz associada a A na base B ′ . Note que C é a matriz
de mudança de base de B para B ′ , e C −1 é a inversa de C e é a matriz de mudança de
base de B ′ para B.
Denotando Af (v) = Af vB e A′f (v) = A′f vB ′ .
Como
vB = C −1 vB ′
temos
Af (v) = C −1 A′f (v) ⇐⇒ Af C −1 vB ′ = C −1 A′f (v)
Multiplicando esta última igualdade por C à esquerda, obtemos
A′f = CAf C −1 .
Note que C é uma matriz de mudança de base de B para B ′ , e C ′ é uma matriz de
mudança de base de B ′ para B.
Definição 4.36. Sejam B e B ′ bases do espaço vetorial Rn , temos que existe uma matriz
de troca de base de B e B ′ , que chamaremos de C.
v = Cw
onde v é o vetor das coordenadas na base B ′ e w é o vetor das coordenadas na base B.
Definição 4.37. Seja A : Rn −→ Rn um operador linear onde C é a matriz de troca da
base B para B ′ tal que A′f = CAf C −1 . Se ∃C ∈ Mn×n tal que A′ = CAC −1 , então A é
semelhante a A′ .
23
4.6
Sistema Linear
Vamos enunciar um resultado nessa seção que será útil para um melhor entendimento
da próxima seção.
Teorema 4.38. Seja A ∈ Mn×n . O conjunto S das n-uplas X de Rn que são soluções do
sistema homogêneo AX = 0 é um subespaço vetorial de Rn .
Demonstração. O vetor nulo pertence a S pois temos A0 = 0.
Se X, Y ∈ S, então X + Y ∈ S, pois
A(X + Y ) = AX + AY = 0
Se X pertence a S e α ∈ Rn , então αX ∈ S, pois
A(αX) = αAX = α0 = 0
4.7
Autovetor e autovalor
Esta seção é importante para entender o conceito de matriz de Jordan associada a um
operador.
Definição 4.39. Sejam A ∈ Mn×n , v ∈ Rn , v ̸= 0 e λ ∈ R. Se Av = λv para algum
λ ∈ R, dizemos que v é autovetor de A e que λ é o autovalor associado a este autovetor.
Note que
Av = λv ⇐⇒ Av − λv = 0 ⇐⇒ (A − λI)(v) = 0
onde I é matriz identidade de grau n, é um sistema linear homogêneo.
Para os tópicos seguintes, necessitamos saber calcular o determinante de uma matriz
quadrada de ordem dois e três.
Definição 4.40. Seja A uma matriz quadrada de ordem dois. Definimos o determinante
de A por
a
11 a12
detA = a21 a22
= a11 a22 − a12 a21
Definição 4.41. Seja A uma matriz quadrada de ordem três. Definimos o determinante
de A por
24
a
22 a23
detA = a32 a33
a
21 a23
a11 − a31 a33
a
21 a22
a12 + a31 a32
a13
Nota: existem outros métodos para o cálculo de determinantes como, por exemplo, o
método de Sarrus.
Definição 4.42. Sejam A ∈ Mn×n , v ∈ Rn e λ ∈ R, tais que (A − λI)(v) = 0. Dizemos
que o conjunto solução de (A − λI)(v) = 0 é um autoespaço associado ao autovalor λ.
Teorema 4.43. Seja A ∈ Mn×n e v ∈ Rn , v ̸= 0 . (A − λI)(v) = 0 tem solução não
trivial se, e somente se, det(A − λI) = 0
Demonstração. Seja v ̸= 0 e (A − λI)(v) = 0. O sistema tem uma solução não trivial se,
somente se, as colunas da matriz (A − λI) são linearmente depententes, isto ocorre se, e
somente se, det(A − λI)(v) = 0
Definição 4.44. Seja A ∈ Mn×n . Dizemos que det(A − λI) é o polinômio caracterı́stico.
Nota: o polinômio caracterı́stico de uma matriz A de dimensão n, tem grau n e é um
polinômio na indeterminada λ.
Definição 4.45. Definimos como multiplicidade algébrica de λi o número de vezes que o
λi é raiz do polinômio caracterı́stico.
4.8
Diagonalização
Diagonalização é o processo de transformar uma matriz não diagonal em uma matriz
que é equivalente a uma matriz diagonal. Esse processo é utilizado, em especial, para
cálculos de potências de matrizes.
Definição 4.46. Seja V espaço vetorial e A : V −→ V um operador linear. Um subespaço
S ⊆ V é chamado invariante do operador A se:
A(S) ⊆ S
Definição 4.47. Seja V espaço vetorial e A : V −→ V um operador linear. Se S ⊆ V é
subsespaço invariente pelo operador A de dim(S) = 1, então S é dito subespaço próprio.
Teorema 4.48. Seja V espaço vetorial de dimenão n e A : V −→ V um operador linear.
Supomos que S e T são subespaços invariantes de dimnesão k e n − k respectivamente,
tais que:
V = S ⊕ T.
Então existe uma representação matricial de A na forma:
25
[
Af =
D′ 0
0 D
]
onde D′ é uma matriz k × k e D uma matriz (n − k) × (n − k).
Demonstração. Seja {e1 , e2 , · · · , ek } base de S e {ek+1 , ek+2 , · · · , en } base de T . Como V
é soma direta de S e T , temos que {e1 , e2 , · · · , ek , ek+1 , · · · , en } é base de V (vide teorema
4.13).
Podemos escrever então:
A(ei ) =
k
∑
Cij ej
+
j=1
A(eα ) =
k
∑
j=1
n
∑
Eiβ eβ , i = 1, 2, · · · , k
β=k+1
Fαj ej
n
∑
+
Dαβ eβ , α = 1, 2, · · · , n
β=k+1
Mas por hipótese temos que A(S) ⊆ S e A(T ) ⊆ T , portanto temos Eiβ = Fαj = 0
para ∀i, j, α, β e, portanto, a representação de A na base indicada é:
[
Af =
C 0
0 D
]
Definição 4.49. Seja A : V −→ V um operador linear. Dizemos que A é diagonalizável
se qualquer uma das seguintes condições equivalentes se verifica:
i) Existe uma base de V , relativamente à qual a matriz Af é diagonal;
ii) V decompõe-se numa soma direta de subespaços próprios de A.
4.9
Matriz de Jordan
Nem todas matrizes são diagonalizáveis portanto, nesta seção, veremos que dada qualquer uma matriz A associada a um operador linear, existe uma mudança de coordenadas
(ver 4.51) que deixa a matriz Af mais simples. Ou seja, queremos encontrar uma representação matricial mais diagonal possı́vel, e isto é dado pela forma canônica de Jordan.
Dada uma matriz A então procuramos C e C −1 tais que J = CAC −1 .
Definição 4.50. Sejam λ1 , λ2 , ..., λj os autovalores distintos de uma matriz J ∈ Mn×n .
26
A matriz J está na forma canônica de Jordan, se






J =





e para cada i
···
···
J1 0
0 J2
0
0
0
..
.
0
..
.
J3 · · ·
.. . .
.
.
0
0
0
0
0
0






Ji = 





···
···
0
0
..
.
..
.
Jk−1
0
λi 1 0
0 λi 1
0 0 λi
.. .. ..
. . .
0 0 0
0 0 0
0
0
..
.
..
.
0
Jk
···
···
···
..
.
0
0
0
..
.
···
···
λi
0





 onde 1 ≤ i ≤ k,





0
0
0
..
.










1 
λi k ×k
i
i
O bloco Ji é um bloco de Jordan associado ao autovalor λi .
Note que o polinômio caracterı́stico da matriz J é da forma
p(z) = (z − λ1 )k1 · · · (z − λj )kj .
Assim, a quantidade de vezes que um autovalor λi aparece na diagonal é justamente
a sua multiplicidade algébrica, ou seja, é a multiplicidade como raiz do polinômio caracterı́stico.
Teorema 4.51. Seja A : Rn −→ Rn um operador linear. Então existe uma base C de Rn
na qual A é representado por uma matriz J, diagonal em blocos, cujos blocos diagonais,
além daqueles associados a autovetores reais e que são como na definição da forma de
Jordan, também podem ter a forma

Jα,β





=




Dα,β I2
0
0
Dα,β I2
0
0
Dα,β
..
..
..
.
.
.
0
0
0
0
0
0
···
···
···
...
···
···
0
0
0
..
.
0
0
0
..
.
Dα,β I2
0
Dα,β




[
]

α −β

.
 onde Dα,β =

β α



sendo α + iβ um autovalor complexo e I2 a matriz identidade 2 × 2.
27
Demonstração em [1] página 137.
Proposição 4.52. Seja A : V −→ V um operador linear. Seja {v1 , v2 , · · · , vk } o conjunto
de autovetores de A e seja {λ1 , λ2 , · · · , λk } os autovalores associados aos vi autovetores.
A base de Jordan de A é
{
}
Aj = b11 , · · · , b1d1 , b21 , · · · , b2d2 , · · · , bk1 , · · · , bkdk
com bij onde i = 1, · · · , k e j = 1, · · · , di .
i) Os vetores bidi são autovetores de A, onde A(bidi ) = λi bidi ;
ii) Para j ∈ {1, · · · , di−1 } vamos ter A(bij ) = λi bij + bij+1 ;
iii) Aj é base de V .
Definição 4.53. Se j ∈ {1, · · · , di−1 } dizemos que os bij da proposição anterior são quase
autovetores.
Como comentado na introdução, neste trabalho caracterizaremos geometricamente os
operadores lineares de R2 e R3 . Sabemos que as matrizes associadas a esses operadores
são quadradas de ordem 2 ou quadradas de ordem 3, respectivamente. A pergunta que
fazemos é: “sabemos como são essas matrizes?”Ou melhor, “quais são as possı́veis matrizes
de Jordan que são equivalentes as matrizes dos operadores?”
Começamos com o caso as matrizes quadradas de ordem 2. Para responder a pergunta,
devemos ver qual a multiplicidade algébrica que o(s) autovalor(es) assumem. Percebemos
que o polinômio caracterı́stico de um operador linear de R2 é, no máximo, de grau dois,
ou seja, temos que um autovalor real de um operador linear de R2 pode ter multiplicidade
1 ou 2. Temos também o caso do autovalor ser complexo, assim sabemos que ele vem aos
pares, ou seja, se λ1 = a + bi é raiz do polinômio, então λ1 = a − bi também é.
Se temos dois autovalores reais distintos com multiplicidade um, a matriz de Jordan
necessariamente é
[
J=
λ1 0
0 λ2
]
ou seja, é diagonal.De fato, basta observarmos que a dimensão do núcleo associado a cada
λi , com i = 1, 2, é 1, ou seja, temos um autovetor para cada autovalor, sendo a matriz C
de base de Jordan formada pelos autovetores.
Se tivermos um autovalor real com multiplicidade algébrica 2, temos duas opções para
a matriz de Jordan, que são:
[
J=
λ1 0
0 λ1
ou
]
28
[
J=
λ1 1
0 λ1
]
.
Na primeira matriz, a dimensão do autoespaço associado a λ1 é 2, ou seja, (Af −λ1 I)v = 0
têm duas soluções linearmente independentes, que são autovetores e formam a matriz C.
Além disso, a dimensão do núcleo ser dois nos diz que temos dois blocos na matriz de
Jordan que são, necessariamente, de tamanho 1.
Na segunda matriz, temos que a dimensão do núcleo associado a λ1 é 1 e, além disso,
o núcleo é nilpotente de ı́ndice dois, ou seja, (Af − λ1 I)2 = 0. A base de Jordan contará
com um autovetor e um quase autovetor. Além do mais, a dimensão do núcleo 1 nos diz
que temos somente um bloco.
Se os autovalores são complexos, então a matriz é
[
J=
α −β
β α
]
como percebemos no Teorema4.51.
Para o caso de operadores de R3 , o pensamento é análogo. Podemos ter 3 autovalores
distintos, com multiplicidade algébrica 1 e com isso, o núcleo associado a cada autovalor
tem dimensão um, ou seja, (A − λi I)1 v = 0 não têm duas soluções linearmente independentes para cada i = 1, 2, 3. Assim, a matriz de Jordan é diagonal, como a seguinte


λ1 0 0


J =  0 λ2 0  .
0 0 λ3
Quando temos um autovalor real λ1 com multiplicidade algébrica 2 e autovalor real
λ2 com multiplicidade algébrica 1, temos duas opções:


λ1 0 0


J =  0 λ1 0 
0 0 λ2
ou

λ1 1 0


J =  0 λ1 0  .
0 0 λ2

Com o autovalor λ2 , o núcleo tem dimensão 1 e o bloco é de tamanho um, contendo
somente o próprio autovalor. Agora, como o λ1 tem multiplicidade algébrica 2, temos um
bloco ou dois blocos, como anteriormente no caso R2 .
Notamos também que quando temos dois autovalores complexos, então temos um
terceiro autovalor real de tamanho 1, necessariamente, como vemos na matriz a seguir:
29


α −β 0


J =  β α 0 .
0 0 λ2
Agora, quando temos um único autovalor real λ1 com multiplicidade algébrica 3, temos
três opções:

λ1 0 0


J =  0 λ1 0 
0 0 λ1


ou

λ1 1 0


J =  0 λ1 0 
0 0 λ1

ou

λ1 1 0


J =  0 λ1 1  .
0 0 λ1
A primeira matriz corresponde ao caso onde a dimensão do núcleo associado ao autovalor real é igual a 3, ou seja, temos 3 blocos na diagonal, cada uma com um único
elemento λ3 . Além disso (A − λ1 I)v = 0 tem como solução três vetores linearmente independentes, daı́ temos que (A − λ1 I)v = 0, ∀v ∈ R3 e assim A − λ1 I = 0 ⇔ A = λ1 I. Ou
seja, A é matriz diagonal.
O segundo caso, temos que a dimensão do núcleo associado a λ1 é igual a 2, ou seja,
temos dois blocos na diagonal. Esses blocos devem ser[ um com]tamanho um por um,
λ1 1
com o λ1 como único elemento e, o outro bloco será
pois senão, cairemos
0 λ1
no caso anterior. Além disso, o ı́ndice de nilpotência do núcleo associado a λ1 é 2 e o
número de autovetores linearmente independentes da matriz C é dois, não podendo A ser
diagonalizável.
Quando a dimensão do núcleo associado ao autovalor é 1, temos um único bloco
sobrando a terceira matriz como opção. Observamos que, o ı́ndice de nilpotência é 3 e
temos dois quase autovetores na base de Jordan.
30
5
Caracterização Geométrica via Teoria de Jordan
Este capı́tulo trata da aplicação da Teoria de Jordan aos operadores lineares que
atuam nos espaços vetoriais de R2 e R3 . Veremos os possı́veis casos de matrizes de Jordan
e faremos uma caracterização geométrica destes casos. Assim, caracterizaremos todos os
operadores lineares, uma vez que conseguimos associar uma matriz de Jordan equivalente
a uma matriz associada ao operador.
5.1
Operadores de R2
O Teorema 4.51 nos diz que um operador A : R2 −→ R2 pode ser representado por
uma matriz J, quando temos uma matriz C invertı́vel e a seguinte igualdade é satisfeita
Af = CJC −1
ou
J = C −1 Af C
Vamos olhar para a matriz J, que é uma matriz equivalente a Af , atuando sobre a
matriz C, para caracterizar geometricamente os operadores lineares. Segundo a Teoria de
Jordan, a matriz J ∈ M2×2 pode ser de uma das seguintes formas:
[
(i) J =
λ1 0
0 λ2
[
(ii) J =
[
(iii) J =
[
(iv) J =
]
λ1 1
0 λ1
α −β
β α
λ1 0
0 λ1
onde λ1 e λ2 são autovalores distintos.
]
onde λ1 é autovalor com multiplicidade algébrica 2.
]
onde λ1 = α + βi e λ2 = α − βi são autovalores.
]
onde λ1 é autovalor de multiplicidade algébrica 2.
Caso (i)
Nesse caso, podemos subdividı́-lo em outros três casos: quando |λ1 | > 1 e |λ2 | > 1,
|λ1 | > 1 e 0 < |λ2 | < 1 e 0 < |λ1 | < 1 e 0 < |λ2 | < 1.
31
Vamos considerar v1 = (a, c) e v2 = (b, d) os autovetores associados aos autovalores λ1
e λ2 respectivamente. Neste caso, temos a matriz C da seguinte forma:
[
C=
a b
c d
]
Nossa transformação linear A : R2 −→ R2 age sobre os autovetores fazendo uma
dilatação ou compressão dependendo de |λi |, ou seja, temos A(vi ) = λi vi onde i ∈ {1, 2},
onde ocorre ou uma dilação, se |λ1 | > 1, ou compressão, se 0 < |λ1 | < 1.
Note que, caso |λi | = 0, a imagem o vetor associado ao |λi | será o vetor nulo.
A transformação age como I (matriz identidade) em vi se λi = 1 e como −I se λi = −1.
Com efeito,temos I(vi ) = 1vi = A(vi ) para λi = 1 e −I(vi ) = −1vi = A(vi ) para λi = −1.
Observamos que se λi < 0 temos que, além da dilatação e compressão, a transformação
inverte o sentido do vetor.
Quando temos |λ1 | > 1 e |λ2 | > 1, ocorre uma dilatação nos vetores v1 = (a, c) e
v2 = (b, d) da forma λ1 v1 = (λ1 a, λ1 c) e λ2 v2 = (λ2 b, λ2 d).
A figura 1 abaixo mostra a os vetores v1 e v2 e suas transformações, ou seja, A(v1 ) =
λ1 (v1 ) = (λ1 a, λ1 c) e A(v2 ) = λ2 (v2 ) = (λ2 b, λ2 d).
Figura 1: Dilatação dos vetores v1 e v2
Fonte: Autor.
Na próxima figura 2, podemos perceber como fica a região delimitada pelos vetores v1
e v2 e suas respectivas transformações.
32
Figura 2: Dilatação da área delimitada pelos vetores v1 e v2
Fonte: Autor.
Exemplo 1
Seja A : R2 −→ R2 cuja matriz associada é
[
Af =
3 1
0 2
]
.
Para caracterizar geometricamente esse operador, temos que encontrar uma matriz de
Jordan que seja equivalente a Af . Para isso, vamos calcular os autovalores e os autovetores
associados ao operador linear.
O cálculo do polinômio caracterı́stico é o seguinte:
pA (λ) = det(Af − λI)
assim, temos que pA (λ) = (3 − λ)(2 − λ), sendo suas raı́zes λ1 = 3 e λ2 = 2. Portanto, os
autovalores de Af são 3 e 2.
Sabemos que os autovetores são os vetores que satisfazem (A − λI)v = 0. Tomando
primeiramente λ1 , temos o seguinte sistema:
(A − 3I)v = 0
ou seja,
33
[
][ ]
x
0 1
=0
0 −1
y
que gera o seguinte sistema
{
y=0
−y = 0
cuja uma das soluções é o v1 = (1, 0), autovetor que escolheremos.
Tomando agora λ2 , temos o seguinte sistema:
(A − 2I)v = 0
ou seja,
[
1 1
0 0
][ ]
x
=0
y
que gera o seguinte sistema
{
x + y = 0.
Uma solução é v2 = (1, −1).
Assim, temos a matriz C cujas colunas são os autovetores v1 e v2 , respectivamente.
Com a matriz C, temos a seguinte igualdade:
[
] [
][
][
]
3 0
1 1
3 1
1 −1
=
.
0 2
0 1
0 2
0 1
| {z } | {z } | {z } | {z }
J
C −1
Af
C
portanto, J é equivalente a Af .
A figura 3 abaixo mostra como ficaria o operador aplicado aos vetores v1 = (1, 0) e
v2 = (−1, 1).
Na próxima figura 4, podemos perceber como fica a região delimitada pelos vetores
v1 = (1, 0) e v2 = (−1, 1) e suas transformações.
34
Figura 3: Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1).
Fonte: Autor.
Figura 4: Dilatação dos vetores v1 = (1, 0) e v2 = (−1, 1).
Fonte: Autor.
Passamos para o próximo caso: 0 < |λ1 | < 1 e 0 < |λ2 | < 1, temos uma contração da
35
[
]
a
b
região de R2 . Aplicando a transformação na matriz C =
teremos uma contração
c d
nos vetores v1 = (a, c) e v2 = (b, d) da forma λ1 v1 = (λ1 a, λ1 c) e λ2 v2 = (λ2 b, λ2 d).
A figura 5 representa os vetores v1 e v2 e a atuação da transformação linear, comprimindo os vetores em um fator 0 < |λ1 | < 1.
Figura 5: Compressão dos vetores v1 e v2 .
Fonte: Autor.
A figura 6 representa a área delimitada pelos vetores v1 e v2 e sua transformação.
36
Figura 6: Compressão da área delimitada pelos vetores v1 e v2 .
Fonte: Autor.
Exemplo 2
Seja o operador linear A : R2 −→ R2 como a matriz associada:
[
Af =
2
3
1
6
−1
3
1
6
]
.
Calculando seus autovetores, como no exemplo anterior, encontramos o autovetor
v1 = (−1, −1), associado ao autovalor 13 e o autovetor v2 = (2, 1), associado ao autovalor
1
. Assim, temos a seguinte igualdade:
2
[
1
3
0
0 21
| {z
J
]
][
1 −2
=
1 −1
} | {z } |
[
C −1
2
3
1
6
{z
]
−1 2
.
−1 1
} | {z }
Af
C
−1
3
1
6
][
Assim, encontramos uma matriz J diagonal que faz uma contração de 13 no sentido
do vetor v1 = (−1, −1) e uma contração de 12 no sentido do vetor v2 = (2, 1). A figura 7
abaixo mostra a transformação dos vetores referidos:
A figura 8 mostra a área delimitada pela compressão nos vetores v1 e v2 .
37
Figura 7: Contração dos vetores v1 = (−1, −1) e v2 = (2, 1).
Fonte: Autor.
Figura 8: Área delimitada pela compressão nos vetores v1 = (−1, −1) e v2 = (2, 1).
Fonte: Autor.
Caso tenhamos |λ1 | > 1 e 0 < |λ2 | < 1, temos uma dilação no sentido do vetor v1 e
uma compressão v2 .
[
]
a b
Aplicando a transformação na matriz C =
teremos uma dilatação no vetor
c d
v1 = (a, c) da forma λ1 v1 = (λ1 a, λ1 c) e uma contração da forma λ2 v2 = (λ2 b, λ2 d).
38
A figura 9 abaixo mostra a dilatação do vetor v1 em um fator 0 < |λ1 | < 1, e a
compressão do vetor v2 , por um fator 0 < |λ2 | < 1 e a figura 10 mostra a área da
dilatação do vetores v1 e compressão do vetor v2 .
Figura 9: Dilatação do vetor v1 e compressão do vetor v2 .
Fonte: Autor.
Figura 10: Área da dilatação do vetor v1 e compressão do vetor v2 .
Fonte: Autor.
39
Exemplo 3
Tomamos a matriz associada ao operador linear A : R2 −→ R2 da seguinte forma:
[
Af =
37
5
33
5
− 22
5
− 18
5
]
.
Assim, temos que seus autovalores são 3 e 54 , tendo seus respectivos autovetores v1 =
(−1, −1) e v2 = (2, 3). Assim, temos a seguinte igualdade:
] [
][
3 0
−3 2
=
0 45
−1 1
| {z } | {z } |
[
J
C −1
37
5
33
5
][
{z
]
−1 2
.
−1 3
} | {z }
Af
C
−22
5
−18
5
Portanto, a matriz J é equivalente a matriz Af . A atuação de J sobre a base de Jordan
C fica evidenciada na figura 11 abaixo:
Figura 11: Dilatação do vetor v1 = (−1, −1) e compressão do vetor v2 = (2, 3).
Fonte: Autor.
A área delimitada pelos vetores, ressalta a ideia de dilação na direção v1 e compressão
na direção v2 , conforme a figura 12 abaixo.
40
Figura 12: Área delimitada pela dilatação do vetor v1 = (−1, −1) e compressão do vetor
v2 = (2, 3).
Fonte: Autor.
Note que, caso tenhamos 0 < |λ1 | < 1 e |λ2 | > 1, temos um caso análogo ao anterior,
que não cabe mostramos aqui. Também não abordamos o caso em que |λ1 | = |λ2 | = 0.
Caso (ii)
Vamos considerar o operador A : R2 −→ R2 cuja matriz associada Af seja equivalente
a uma matriz J de Jordan da seguinte forma:
[
J=
λ1 1
0 λ1
]
.
Como Af e J são equivalentes, temos a seguinte igualdade:
[
Af = CJC −1
]
a b
onde C =
é uma matriz invertı́vel formada por um autovetor v2 = (b, d) associc d
ado ao autovalor λ1 e um quase autovetor v1 = (a, c), conforme proposição 4.52.
Este caso, nossa transformação age fazendo uma dilatação ou compressão na direção
do vetor v2 = (b, d) e causa um cisalhamento em relação ao vetor v1 = (a, c). Analizaremos
o caso quando |λ1 | > 1 e quando 0 < |λ1 | < 1.
41
Para |λ1 | > 1, temos a transformação A que age fazendo uma dilatação sobre o vetor
v2 da seguinte forma: A(v2 ) = (λ1 b, λ1 d). Sobre o vetor v1 temos um cisalhamento.
A figura 13 abaixo mostra a atuação da transformação sobre os vetores v1 e v2 e a
figura 14 representa a área delimitada pelos vetores v1 e v2 .
Figura 13: Dilatação de v2 e cisalhamento de v1 .
Fonte: Autor.
Figura 14: Área delimitada pela dilatação de v2 e cisalhamento de v1 .
Fonte: Autor.
42
Exemplo 4
Seja o operador linear A : R2 −→ R2 cuja matriz associada Af é:
[
Af =
5 1
−4 1
]
.
Temos que, para uma matriz C invertı́vel, a matriz Af é equivalente a uma matriz de
Jordan J da seguinte forma:
][
] [
][
3 1
5 1
3 1
=
0 3
−4 1
−6 1
| {z } | {z } | {z } |
[
Af
C
1
9
2
3
J
− 19
{z
1
3
C −1
]
.
}
É importante salientar o cálculo da matriz C. Primeiramente, calculamos o polinômio
caracterı́stico da matriz Af , obtendo:
p(λ) = λ2 − 6λ + 9
Calculamos então a raiz do polinômio e obtemos uma raiz dupla λ = 3.
Para calcularmos os autovetores de Af associados ao autovetor 3, precisamos calcular
o vetor no núcleo de Af − 3I, onde I é uma matriz identidade da mesma ordem de Af .
Temos o seguinte calculo:
[
(Af − 3I)v = 0
]( ) ( )
2
1
x
0
=
−4 −2
y
0
A igualdade acima se resume do seguinte sistema:
{
2x + y = 0
−4x − 2y = 0
Portanto, temos que o sistema gera um vetor v2 = (3, −6).
Para gerarmos mais um vetor para a matriz C, base de Jordan, temos que fazer a
seguinte conta:
(Af − 3I)v1 = v2
onde v2 = (3, −6).
Assim, temos v1 = (1, 1) que, juntamente com v2 , foram a matriz C (dispostos em
coluna).
Perceba que a matriz C é uma matriz formada por um autovetor v2 = (3, −6) e por
43
um quase autovetor v2 = (1, 1). Então, podemos ver a ação do operador linear A olhando
para o que acontece com v1 e v2 transformados pela matriz J.
A figura 15 mostra uma dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 =
(1, 1).
Figura 15: Dilatação no v2 = (3, −6) e um cisalhamento do vetor v1 = (1, 1).
Fonte: Autor.
A área delimitada pelos vetores v2 = (3, −6) e v1 = (1, 1) e suas respectivas transformações estão representados pela figura 16.
44
Figura 16: Área delimitada pelo dilatação no v2 = (3, −6) e cisalhamento do vetor v1 =
(1, 1).
Fonte: Autor.
Para 0 < |λ1 | < 1., temos a transformação A nos vetores v1 e v2 de forma que o
vetor v2 contrai λ1 e o vetor v1 tem um cisalhamento. A figura 17 mostra como fica esta
transformação.
A figura 18, representa a área delimitada pela contração a direção v2 e um cisalhamento
na direção v1 .
45
Figura 17: Cisalhamento na direção v1 e contração na direção v2 .
Fonte: Autor.
Figura 18: Área delimitada pelo cisalhamento na direção v1 e contração na direção v2 .
Fonte: Autor.
Exemplo 5
Tomamos um operador linear A : R2 −→ R2 cuja matriz associada Af é:
46
[
Af =
]
1 −4
1
− 13
9
.
Conforme feito no exemplo 4, calculamos a matriz C formada por um autovetor v2 =
)
5
− 10
,
−
e um quase autovetor v1 = (1, 1). Assim, temos a matriz C (invertı́vel) tal que
3
9
Af é equivalente a uma matriz J:
(
] [
][
][
1
9
− 25
1 −4
− 10
1
1
3
3
=
1
− 31
− 59 1
0 13
− 51
9
| {z } |
{z
} | {z } |
{z
[
Af
C
J
C −1
9
25
6
5
]
.
}
Observamos que, a atuação da matriz J sobre os vetores v1 e v2 ocasiona um cisalhamento na direção v1 e uma contração na direção v2 , conforme a figura 19.
Figura
( 10 19:
) Cisalhamento na direção v1 = (1, 1) e uma contração na direção v2 =
5
− 3 , −9 .
Fonte: Autor.
A figura 20, representa a área delimitada pelo cisalhamento na direção v1 = (1, 1) e
(
)
5
uma contração na direção v2 = − 10
,
−
.
3
9
47
Figura 20: Área
pelo cisalhamento na direção v1 = (1, 1) e uma contração na
( 10delimitada
)
5
direção v2 = − 3 , − 9 .
Fonte: Autor.
Caso (iii)
Neste caso, o operador linear A : R2 −→ R2 , com a matriz associada Af , tem o
polinômio caracterı́tico com raı́zes complexas, ou seja, os autovalores são λ1 = α + βi
e λ2 = α − βi. Supondo que existe uma matriz C invertı́vel tal que a matriz J seja
equivalente a matriz Af , temos a seguinte forma para a matriz J:
[
J=
α −β
β α
]
onde essa matriz é uma matriz de rotação. Portanto nossa matriz de J atua fazendo
uma rotação nos vetores da matriz C, ou seja, temos Af matriz de rotação equivalente a
J onde Af (v1 ) = Af (a, c) = (a′ , c′ ) para
a′ = acosα − csenα
c′ = asenα + ccosα
sendo α o ângulo de rotação em torno da origem. A figura 21 mostra a rotação dos vetores
v1 e v2 para um certo ângulo α.
A figura 22 representa a área delimitada pelos vetores v1 e v2 e sua rotação para α.
48
Figura 21: Rotação dos vetores v1 e v2 .
Fonte: Autor.
Figura 22: Área delimitada pela rotação dos vetores v1 e v2 .
Fonte: Autor.
Exemplo 6
Seja o operador linear A : R2 −→ R2 cuja matriz associada Af é
49
[
Af =
√
2
√2
2
2
−
√
2
√2
2
2
]
.
Tomamos os vetores v1 = (1, 1) e v2 = (1, −1). Assim, temos a matriz C (invertı́vel)
tal que Af é equivalente a uma matriz J:
[
|
√
2
√2
2
2
−
{z
Af
√
2
√2
2
2
][ √
2
1 1
2√
=
1 −1
− 22
} | {z } |
{z
]
[
C
J
√
2
√2
2
2
][
}|
1
2
1
2
1
2
]
− 12
{z }
.
C −1
Esta matriz causa uma rotação nos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ em
relação a origem. A figura 23 clarifica o exemplo.
Figura 23: Rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ .
Fonte: Autor.
A figura 24 representa a área delimitada pelos vetores v1 = (1, 1) e v2 = (1, −1) em
α = 45◦ .
50
Figura 24: Área delimitada pela rotação dos vetores v1 = (1, 1) e v2 = (1, −1) em α = 45◦ .
Fonte: Autor.
Caso (iv)
Note que, neste caso, temos (Af − λ1 I)v = 0, ou seja, temos duas soluções linearmente
independentes, logo (Af − λ1 )v = 0 para ∀v e, neste caso, Af = λ1 I, ou seja, a matriz é
uma homotetia, sem precisarmos da mudança de base.
Neste caso não fizemos exemplo pois a matriz é diagonal e teremos uma dilatação da
área no caso de |λ1 | > 1 e uma compressão se 0 < |λ1 | < 1. As próximas figuras 25 e 26
ilustram os dois casos com a área do quadrado e sua transformação.
51
Figura 25: Dilatação da área limitada.
Fonte: Autor.
Figura 26: Compressão da área limitada.
Fonte: Autor.
5.2
Operadores de R3
Supomos para esta seção, um operador linear A : R3 −→ R3 cuja matriz associada Af
é equivalente a uma matriz J de Jordan. Segundo a Teoria de Jordan, a matriz J(3×3)
52
pode ser de uma das seguintes formas:


λ1 0 0


(i) J =  0 λ2 0  onde λ1 , λ2 e λ3 são autovalores, não necessariamente distintos.
0 0 λ3

λ1 1 0


(ii) J =  0 λ1 0  onde λ1 é autovalor com, no mı́nimo, multiplicidade algébrica
0 0 λ2
2 e λ2 é outro autovalor. Note que λ1 pode ser igual a λ2 .



λ1 1 0


(iii) J =  0 λ1 1  onde λ1 é autovalor com multiplicidade algébrica 3.
0 0 λ1


α β 0


(iv) J =  −β α 0  onde λ1 = α − β, λ2 = α + β e λ3 são autovalores distintos.
0 0 λ3
Perceba que os tamanhos dos blocos dependem das multiplicidades dos autovalores
e do ı́ndice de nilpotência do núcleo de (Af − λi I). Por exemplo, as seguintes matrizes
estão na forma de Jordan e tem o 3 como autovalor de multiplicidade algébrica 3:


3 0 0


A= 0 3 0 
0 0 3


3 1 0


B= 0 3 0 
0 0 3


3 1 0


C =  0 3 1 .
0 0 3
Note que, mesmo tendo o autovalor 3 com multiplicidade algébrica 3, as matrizes acima
são diferentes. Isso porque, o ı́ndice de nilpotência do núcleo de cada uma é diferente,
ou seja, para a matriz A temos (A − 3I) = 0, para a matriz B temos (B − 3I)2 = 0 e
(B − 3I)1 ̸= 0 e para a matriz C temos (C − 3I)3 = 0 e (C − 3I)k = 0 para k = 1, 2.
53
Além disso, notamos que a matriz A terá uma base de Jordan só com autovetores. A
matriz B terá dois autovetores em sua base, e um quase autovetor. Já a matriz C, terá
uma autovetor e os demais, quase autovetores em sua base de Jordan.
Note que o número de autovetores é igual ao número de colunas onde a matriz é
idêntica a matriz diagonal.
A forma de Jordan de um operador é única, a menos de permutação de blocos, assim não abordaremos as permutações de cada caso, visto que cada permutação segue o
pensamento análogo ao que será abordado a seguir para cada caso.
Caso (i)
Percebemos que a matriz de Jordan é uma matriz diagonal, ou seja, temos três
autovalores reais e distintos ou temos uma matriz diagonal com todos valores iguais.
Assim, para uma matriz C invertı́vel, temos que a matriz Af , de uma operador linear
A : R3 −→ R3 , é equivalente a uma matriz J diagonal, conforme a igualdade abaixo:
Af = CJC −1 .
Essa matriz C é formada pelos autovetores associados aos autovalores de Af ordenadamente. Esses autovalores atuam sobre os autovetores dilatando ou comprimindo cada
autovetor, como já vimos no caso (i) do R2 . Portanto, os autovetores se comportam
analogamente ao caso (i) do R2 , ou seja, as opções de dilatação e compressão de cada
autovetor do R3 , nada mais é que uma dilatação ou compressão do autovetor visto no
plano (subespaço) onde o vetor está contido.
Para exemplificar, faremos o próximo exemplo:
Exemplo 7
Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é


1 − 13 0


Af =  0 2 0  .
0 0 3
Calculamos os autovalores λ1 , λ2 e λ3 da matriz descobrindo quem são as raı́zes do
polinômio caracterı́stico. Percebemos que os autovalores são distintos, portanto basta
calcularmos (A − λi I)v = 0, com 1 ≤ i ≤ 3, para descobrir os autovetores que formam a
matriz C. Temos assim a seguinte igualdade:
54

 


1 1 0
1 − 31 0
1 0 0
1 − 13 0

 



 0 2 0  =  0 3 0   0 2 0   0 13 0  .
0 0 3
0 0 2
0 0 3
0 0 12
|
{z
} |
{z
}|
{z
}|
{z
}

Af
C
J
C −1
Com isso, podemos perceber que o vetor v1 = (1, 0, 0) se conserva, pois tem como
autovalor o λ1 = 1. Também podemos ver como uma dilatação/compreessão de λ1 = 1.
Já o vetor v2 = (1, 3, 0) tem uma dilatação de λ2 = 2, pois λ2 é o autovalor associado ao
autovetor v2 . O vetor v3 = (0, 0, 2) tem uma dilatação de λ3 = 3, pois λ3 é o autovalor
associado ao autovetor v3 . Note que o que ocorre nesse exemplo é análogo ao que vimos
no caso (i) do R2 .
Note que a forma de Jordan neste caso pode ser uma matriz diagonal com autovalores
todos iguais. Assim, temos que o núcleo do operador é nilpotente de ı́ndice 1, portanto a
matriz de base de Jordan é composta só por autovetores.
Exemplo 8
Percebemos que quando temos um operador linear cuja matriz Af associada é diagonal
e com os elementos da diagonal todos iguais, a matriz J também é diagonal e é igual a
Af . Note que, quando temos qualquer matriz diagonal com elemento iguais na diagonal,
temos:



 

λ 0 0
1 0 0
1 0 0



 

Af =  0 λ 0  = λ  0 1 0  =  0 1 0  λ.
0 0 λ
0 0 1
0 0 1
Assim temos o seguinte, para uma matriz Af diagonal com elementos iguais equivalente
a uma J matriz de Jordan, vale:
J = C −1 Af C = C −1 λIC = λIC −1 C = λI = Af .
Caso (ii)
Neste caso, temos uma matriz associada, cujo polinômio caracterı́stico têm três
raı́zes, sendo uma de multiplicidade 2 e outra de multiplidade 1 ou um autovalor com
multiplicidade 3.
Para o caso do polinômio caracterı́stico ter três raı́zes sendo uma de multiplicidade 2 e
outra de multiplidade 1, observamos que a matriz tem dois blocos na diagonal, um bloco
55
de 2 × 2, onde temos o autovalor λ1 na diagonal, e um bloco de 1 × 1, com o autovalor
λ2 . O primeiro bloco faz um cisalhamento e uma dilatação/compressão em dois vetores
da matriz C, como no caso (ii) do R2 . Já o bloco de tamanho 1 × 1, com o autovalor λ2 ,
faz uma dilatação/compressão em um vetor da matriz C.
É importante dizer que, no caso de termos dois autovalores iguais, teremos um quase
autovetor na matriz C, sendo este calculado de maneira análoga ao exemplo 4.
Note que a matriz C que nos referimos tem uma ordenação, que depende da ordenação
dos blocos da matriz de Jordan.
Exemplo 9
Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é


2 0 0


Af =  1 2 −1  .
0 0 4
Calculamos as raı́zes do polinômio caracterı́stico p(λ) = −λ3 + 5λ2 − 12λ + 18. Encontramos duas raı́zes λ1 = λ2 = 2 e uma raı́z λ3 = 4. Assim, para encontrar os autovetores
associados, calculamos o núcleo do operador, ou seja, (Af − λi I)vi = 0.
Para o λ3 encontramos o vetor v3 = (0, − 12 , 1), que é autovetor associado a λ3 . Já
para λ1 e λ2 , calculamos (Af − λ1 I)v1 = 0, onde encontramos o vetor v1 = (0, 1, 0), que
é autovetor. Calculamos o núcleo ao quadrado e encontramos v1 e v2 = (1, 0, 0), onde v2
não é autovetor associado a 2, pois Av ̸= 2v (veja!).
Assim, analogamente ao exercı́cio 4, calculamos v1 = (A − λI)v2 . Encontramos v2 =
(1, 0, 0), o quase autovetor. Então temos a equivalência a seguir:
 
2 0 0
0 1 0

 
 1 2 −1  =  1 0 − 12
0 0 4
0 0 1
|
{z
} |
{z

Af
C



2 1 0
0 1 12



 0 2 0  1 0 0 .
0 0 4
0 0 1
}|
{z
}|
{z
}
J
C −1
Como visto anteriormente, a matriz pode ter 3 raı́zes todas iguais, ou seja, a multiplicidade algébrica 3 do autovalor λi , porém o núcleo do operador tem ı́ndice de nilpotência
2. Assim, sua base de Jordan terá dois autovetores e um quase autovetor.
56
Exemplo 10
Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é


2 1 0


Af =  0 2 0  .
0 −1 2
Temos que (Af − 2I)2 = 0, portanto já sabemos que a forma de Jordan do operador é


2 1 0


J =  0 2 0 .
0 0 2
Para calcular a matriz C de base de Jordan, calculamos (Af −2I)v = 0, e encontramos
v1 = (1, 0, 0) e v2 = (0, 0, 1). Sabemos que (Af − 2I)2 = 0, portanto seus vetores solução
geram o espaço R3 . Pegamos o vetor que está no núcleo ao quadrado e não está no núcleo,
este vetor é v3 = (0, 1, 0).
Calculamos v4 = (Af − 2I)v3 = (1, 0, −1). Basta notarmos que o vetor v1 é autovetor
do operador e então, a igualdade abaixo se estabelece:
 
0 0 −1
2 1 0

 
 0 2 0 = 0 1 0
1 0 1
0 0 2
{z
} |
{z
|

J
C −1



1 0 1
2 1 0



 0 2 0  0 1 0 .
−1 0 0
0 −1 2
}|
{z
}|
{z
}
Af
C
Caso (iii)
Neste caso engloba as matrizes cujos polinômios caracterı́sticos têm 3 raı́zes iguais
e o núcleo do operador tem ı́ndice de nilpotência 3. Assim, para montar a base de Jordan,
teremos que calcular dois quase autovetores e um autovetor, de forma análoga a anterior.
Perceba que teremos uma dilatação/compressão na direção do autovetor da matriz C,
e um cisalhamento na direção dos quase autovetores. Assim, temos um caso análogo ao
caso (ii) do R2 .
Exemplo 11
Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é
57


0 1 2


Af =  0 0 1  .
0 0 0
O polinômio caracterı́stico têm três raı́zes 0, ou seja, a multiplicidade algébrica do
autovalor 0 é 3. Assim, calculamos o núcleo do operador, e encontramos o vetor v1 =
(1, 0, 0). Após, calculamos o núcleo ao quadrado os vetores v1 = (1, 0, 0) e w = (0, 1, 0) e,
no núcleo ao cubo encontramos os vetores canônicos e1 , e2 e e3 .
Para formamos a base de Jordan temos que notar que v1 é autovetor, e será o primeiro
da matriz C. Com ele calculamos (A − λI)v2 = v1 , onde v2 = (0, 1, 0) será outro vetor da
matriz C. Pelo mesmo processo, agora utilizando o v2 , descobrimos v3 = (0, −2, 1).
Assim, a seguinte igualdade se satisfaz:



 
1 0 0
0 1 0
1 0 0
0 1 2




 
 0 0 1  =  0 1 −2   0 0 1   0 1 2  .
0 0 1
0 0 0
0 0 1
0 0 0
{z
} |
{z
}|
{z
}|
{z
}
|

Af
C
J
C −1
Caso (iv)
Note que nesse caso temos dois blocos, um com uma rotação e outro com uma
dilatação/compressão. Assim, os vetores v1 e v2 da matriz C terão uma rotação, como
vimos no caso (iii) do R2 , e o vetor v3 da base de Jordan sofrerá uma dilatação ou
compressão de acordo com o λ3 , caso análogo ao caso (i) do R2 .
Note que podemos mudar a ordem dos blocos na matriz de Jordan, o que muda a
ordem dos vetores na matriz C, mas não muda o pensamento anterior.
Exemplo 12
Seja o operador linear A : R3 −→ R3 cuja matriz associada Af é


Af = 
√
3
2
1
2
0

− 12 0
√

3
0 .
2
0 1
Calculando os autovetores associados aos autovalores, temos a seguinte igualdade:
58



|
√
3
2
1
2
0
  19
 
 1 1

2 −1 0
− 12 0
− 15 0
0
25
2
2
√

 


3
24
0  =  3 1 0   13
0   − 35 25 0  .
2
10
25
0 1
0 0 1
0 0 1
0 0 12
{z
} |
{z
}|
{z
}|
{z
}
Af
C
J
C −1
Note que a matriz J é de rotação para o subespaço determinado pelos vetores v1 =
(2, 3, 0) e v2 = (−1, 1, 0). Já na direção do v3 = (0, 0, 1) permanece igual, pois seu
autovalor é 1.
59
6
Conclusão
Ao final deste trabalho, acredita-se que obtivemos uma resposta para a pergunta:
como caracterizar geometricamente os Operadores Lineares do R2 e do R3 ? Percebemos
que, segundo a Teoria de Jordan, as matrizes dos operadores lineares são equivalentes
a matrizes de Jordan. Essas matrizes de Jordan foram caracterizadas no decorrer do
trabalho, ou seja, mostramos como são genericamente essas matrizes. Através dessa
caracterização, classificamos as matrizes dos operadores em classes, determinados pelas
matrizes de Jordan equivalentes.
No espaço vetorial R2 , percebemos que há quatro classes que atuam como dilatações,
compressões, cisalhamentos e rotações, quando olhamos para os vetores da base de Jordan.
Exemplificamos as transformações caso a caso e mostramos como ficam no plano R2 ,
ilustrando como atua o operador em cada caso.
No R3 abordamos os quatro casos determinados pelas quatro diferentes formas de
Jordan para as matrizes 3 × 3. Percebemos que no R3 acontece os pensamentos análogos
ao R2 assim, exemplificamos os casos e percebemos, novamente, que os operadores se
baseiam em dilatações, compressões, cisalhamentos e rotações.
Sugere-se com este trabalho, um novo olhar para a caracterização dos operadores lineares abordados na disciplina de álgebra linear. Procuramos mostrar que os conhecimentos
da álgebra linear são historicamente recentes e possuem um grande número de aplicações.
Com isso, ao relacionar as operadores lineares com a teoria de Jordan, através de suas
matrizes associadas, pode-se entender mais profundamente como tais funcionais atuam
sobre os espaços vetoriais.
60
Referências
[1] BUENO, Hamilton P. Álgebra Linear: um segundo curso. Rio de Janeiro: SBM,
2006.
[2] CONCEIÇAO, Marcos R. F. Transformações no Plano: Uma Aplicação
do Estudo de Matrizes com o Uso de PlanilhasEletrônicas. Rio
Grande:
PROFMAT/FURG, 2013. Diponı́vel em:
http://bit.profmatsbm.org.br/xmlui/handle/123456789/237, acessado em 28/11/2014.
[3] EVES, Howard. Introdução à história da matemática. Campinas, SP: Editora
da UNICAMP, 2004.
[4] GIL, Antonio C. Como Elaborar Projetos de Pesquisa. 5a ed. São Paulo: Atlas,
2010.
[5] GONCALVES, Adilson. Introdução à algebra. 5a ed. Rio de Janeiro: IMPA, 2009.
[6] GONÇALVES, Haniel S. A Importância das Matrizes e Transformações Lineares na Computação Gráfica. Profmat: 2013. Disponı́vel em http://bit.profmatsbm.org.br/xmlui/handle/123456789/524, acessado em 10/11/2014.
[7] KATZ, Victor J. História da matemática. 2a . ed. Lisboa: Fundação Calouste
Gulbenkian, 2010.
[8] LIMA, Elon L. Álgebra Linear. 8a ed. Rio de Janeiro: IMPA, 2012. Coleção Matemática Universitária.
[9] STORMOWSKI, Vandoir. Estudando matrizes a partir de transformações
geométricas. Porto Alegre: PPG-ENSIMAT da UFRGS, 2008. Diponı́vel em:
http://hdl.handle.net/10183/14965, acessado em 28/11/2014.
[10] VAINSENCHER, Israel. Introdução às Curvas Algébricas Planas. Rio de janeiro, Instituto de Matemática Pura e Aplicada, CNPQ, 1996. Coleção Matemática
Universitária.
Download

Instituto Federal de Educaç˜ao, Ciência e Tecnologia do Rio