Introdução
À
Álgebra Linear
Cristian Patricio Novoa Bustos
Departamento de Matemática e Fı́sica
Pontifı́cia Universidade Católica de Goiás
Goiânia-2012
Sumário
Prefácio
1 Vetores
1.1 Vetores . . . . . .
1.2 Álgebra Vetorial .
1.2.1 Exercı́cios
1.3 Produto Escalar e
1.3.1 Exercı́cios
1
. . . . .
. . . . .
. . . . .
Vetorial
. . . . .
2 Matrizes
2.1 Matrizes . . . . . . . . . .
2.1.1 Exercı́cios . . . . .
2.2 Adição de Matrizes . . . .
2.3 Multiplicação por Escalar
2.3.1 Exercı́cios . . . . .
2.4 Multiplicação de Matrizes
2.4.1 Exercı́cios . . . . .
2.5 Inversão de Matrizes . . .
2.5.1 Exercı́cios . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Sistemas de Equações e Inversão
3.1 Forma Reduzida de Matrizes . .
3.1.1 Exercı́cios . . . . . . . .
3.2 Inversão de Matrizes . . . . . .
3.2.1 Exercı́cios . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
de
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
12
12
14
14
17
18
19
27
29
35
Matrizes
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
37
37
45
46
52
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
54
54
57
57
61
63
65
66
.
.
.
.
.
.
.
.
.
4 Espaços Vetoriais
4.1 Espaços Vetoriais . . . . . . . . . . .
4.1.1 Exercı́cios . . . . . . . . . . .
4.2 Subespaços Vetoriais . . . . . . . . .
4.2.1 Exercı́cios . . . . . . . . . . .
4.3 Dependência e Independência Linear
4.3.1 Exercı́cios . . . . . . . . . . .
4.4 Base e Dimensão . . . . . . . . . . .
i
.
.
.
.
.
3
3
4
9
9
11
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4.4.1
Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5 Transformações Lineares e Cônicas
5.1 Transformações Lineares . . . . . . . . . . . .
5.1.1 Exercı́cios . . . . . . . . . . . . . . . .
5.2 Núcleo e Imagem de Transformações Lineares
5.2.1 Exercı́cios . . . . . . . . . . . . . . . .
5.3 Representação de Transformações Lineares por
5.3.1 Ecercı́cios . . . . . . . . . . . . . . . .
5.4 Autovalor, Autovetor e Diagonalização . . . .
5.4.1 Exercı́cios . . . . . . . . . . . . . . . .
5.5 Reconhecimento de Cônicas . . . . . . . . . .
5.5.1 Exercı́cios . . . . . . . . . . . . . . . .
A Introdução à Estruturas Algébricas
A.1 Conjuntos . . . . . . . . . . . . . .
A.1.1 Exercı́cios . . . . . . . . . .
A.2 Naturais, Inteiros e Racionais . . .
A.2.1 Exercı́cios . . . . . . . . . .
A.3 Reais e Complexos . . . . . . . . .
A.3.1 Exercı́cios . . . . . . . . . .
Referências Bibliográficas
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . .
. . . . . .
. . . . . .
. . . . . .
Matrizes .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
75
75
77
79
84
86
88
89
96
97
102
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
103
. 103
. 109
. 110
. 115
. 116
. 118
119
ii
Prefácio
Caros leitores, gostaria de enfatizar que este texto não tem a intenção de substituir
outros textos de Álgebra Linear, ao contrário, visto que este trabalho vem a contribuir e
complementar alguns textos já existentes.
Na verdade, o desenvolvimento de este texto é o fruto do trabalho desenvolvido junto
das turmas de Engenharia da Pontifı́cia Universidade Católica de Goiás, na disciplina de
Álgebra Linear, onde foi detectada a necessidade de ter um texto não muito extenso, mas
que desse um bom suporte para esta disciplina de quatro créditos, por isto é que o nosso
enfoque é meramente introdutório, deixando alguns conteúdos de lado, como conceitos
de espaços com produto interno e determinantes entre outros. Também procuramos de
colocar listas de exercı́cios muito extensas, mas sem deixar de abranger todo o conteúdo,
procurando sempre introduzir novos conceitos com a intenção de desenvolver um raciocı́nio
lógico abstrato.
Uma das grandes dificuldades observadas no decorrer do tempo ministrando esta disciplina é o desconhecimento de algumas estruturas algébricas por parte dos alunos, e como
elas aparecem, como por exemplo a construção dos Corpos Numéricos, em particular os
Reais e Complexos. Existem muitas construções destas estruturas algébricas, mas usamos
a teoria de Conjuntos e relações de equivalência para fazer isto. Estas idéias são dadas no
nosso primeiro capı́tulo, que pode ser omitido dependendo do grau de familiaridade que
o nosso leitor pode ter com os conceitos básicos de estruturas algébricas.
Já no segundo Capı́tulo, trabalhamos o conceito de matriz e exploramos suas propriedades operatórias, com a finalidade de caracterizar a inversão de matrizes. Como uma
aplicação, vemos no capı́tulo três como trabalhar a inversão de matrizes via operações
elementares.
Agora, no Capı́tulo quatro trabalhamos o conceito de Espaço Vetorial e enfocamos o
nosso trabalho para Espaços Vetoriais de dimensão finita, tentando mostrar alguns exemplos conhecidos pelo aluno a partir dos cursos de Cálculo e, em particular o Espaço Vetorial
formado pelas matrizes, estudado no Capı́tulo dois. Particularmente, são explorados os
conceitos de base e dimensão e a relação entre estes conceitos.
No capı́tulo cinco, fazemos uma analogia com funções dos cursos de Cálculo e introduzimos o conceito de Transformação Linear entre Espaços Vetoriais. Um dos objetivos
fundamentais deste Capı́tulo é dado pelo fato de que, se consideramos transformações
Lineares entre Espaços Vetoriais de dimensão finita, então existe uma correspôndencia
biunı́voca com matrizes, isto é, Matrizes e transformações Lineares entre espaços Vetoriais
de dimensão finita ”são a mesma coisa”. Desta forma, todo o trabalho feito com matrizes
1
2
nos Capı́tulos dois e três pode ser transportado para Transformações Lineares. Como,
no capı́tulo dois estabelecemos uma partição no conjunto das Matrizes, via a relação de
semelhança, esta relação é melhorada neste Capı́tulo via o Cálculo de autovalores e de
diagonalização de matrizes. Para fechar este Capı́tulo e trabalho, damos uma pequena
aplicação de Diagonalização de matrizes no reconhecimento de Cônicas tão conhecidas e
estudadas no curso de Geometria Analı́tica.
Gostaria de deixar registrado o meu agradecimento aos vários alunos dos nossos cursos
de Engenharia da Pontifı́cia Universidade Católica de Goiás, que leram versões preliminares deste texto e me apontaram as falhas, para desta forma contribuir com a melhoria
deste. Em particular, gostaria de agradecer a professora, Elisangela Silva Dias, do Instituto de Informática da Universidade Federal de Goiás pela paciência nas correções.
Crı́ticas, sugestões e informações sobre eventuais erros ou enganos, serão muito bem
recebidos.
Cristian Patricio Novoa Bustos
[email protected]
Capı́tulo 1
Vetores
Este capı́tulo tem por finalidade recordar alguns conceitos vistos em outras disciplinas, como geometria analı́tica, cálculo etc., então não aprofundaremos muito os conceitos
com enunciados e demostrações de propriedades destas estruturas, mas queremos reforçar
algumas propriedades mais importantes para o futuro desenvolvimento dos conteúdos
deste texto.
1.1
Vetores
O conceito de vetor tem sido a base para estudar fı́sica e geometria, entre outras
disciplinas, no segundo grau. Em particular, na disciplina de geometria analı́tica, este
conceito esta associado a um sistema de coordenadas, mas para trabalhar este conceito,
na verdade não é necessário, como veremos a seguir.
Definição 1.1.1 Chamaremos de Vetor a magnitude que é determinada pelo seu módulo,
direção e sentido.
Esta noção é tão familiar, que basta olhar ao redor que vemos muitos exemplos de
vetores, como é o deslocamento, a velocidade, aceleração ou a força aplicada em um
determinado corpo, etc. Geometricamente, podemos representar um vetor pelo segmento
orientado OP , e o tamanho do vetor OP é dito o módulo do vetor, e a direção do segmento
denota a direção do vetor OP . O ponto O é dito a origem do vetor OP ou ponto de
aplicação, e P é o extremo do vetor OP .
P
OP
O
Como notação, representaremos um vetor com uma letra minúscula com uma seta
→
acima. No exemplo anterior então temos OP = −
v , e o seu módulo que o denotaremos
−
→
−→
←
−
por | v |. Também podemos usar a notação OP para o vetor, e para o seu módulo | OP |.
3
4
CAPÍTULO 1. VETORES
Exemplo 1.1.1 Representemos geometricamente as seguintes situações:
1. Uma força de 10 newtons na direção Leste 30o Norte, como na figura (a) abaixo.
N
N
15N
10N
30o
⌢
)30o
O
S
L
O
L
Fig. (a)
S
Fig. (b)
2. Uma força de 15 newtons na direção Norte 30o Leste, como na figura acima.
Chamaremos de escalar a magnitude que é determinada pelo seu valor numérico, que
é a quantidade com relação a uma unidade de medida do mesmo tipo. Como exemplos de
magnitudes escalares podemos citar, comprimento, massa, tempo, temperatura, trabalho
etc., e qualquer número Racional Q, Real R, ou Complexo C. De agora em diante,
denotaremos por K o conjunto dos escalares.
1.2
Álgebra Vetorial
Nesta seção mostraremos a estrutura algébrica que possui o conjunto de vetores, definido na seção anterior, definindo uma operação interna, que chamaremos de soma e uma
operação externa que chamaremos de produto por escalar, tentando estender as operações
realizadas para o conjunto dos escalares K.
→
→
−
−
Definição 1.2.1 Sejam −
u e−
v dois vetores. Diremos que os vetores →
u e→
v são equipolentes se eles tem o mesmo módulo, a mesma direção e sentido.
Geometricamente temos:
P
−
→
u
Q
−
→
v
O
R
−
→
→
−
Se dois vetores u e v são equipolentes com a mesma origem, então diremos que os
→
→
→
→
vetores −
u e−
v são iguais, que denotaremos por −
u =−
v.
5
CAPÍTULO 1. VETORES
→
→
Definição 1.2.2 Seja −
u um vetor. Chamaremos de vetor oposto ao vetor −
u , que deno→
−
taremos por − u , o vetor que tem o mesmo módulo e direção, mas sentido oposto.
Geometricamente, temos a seguinte figura:
P
P
→
−−
u
−
→
u
0
O
Agora estamos em condições de definir formalmente uma lei de eperação interna entre
vetores, da seguinte forma.
→
→
→
Definição 1.2.3 Sejam −
u e −
v dois vetores. Chamaremos de soma dos vetores −
u e
→
−
→
−
→
−
v , ao vetor w que se obtem trasladando a origem do vetor v ao extremo do vetor
→
−
→
→
u e juntando a origem do vetor −
u com o extremo do vetor −
v , que denotaremos por
→
−
→
−
→
−
w = u + v.
→
→
Veja que trasladando os dois vetores −
u e −
v a um origem comum, o vetor soma
corresponde à diagonal do paralelograma com origem comum (veja a figura abaixo).
−
→
u
−
→
v
−
→
u
−
→
v
−
→
→
u +−
v
→
→
→
Para, a soma de −
u +−
v +−
w , primeiro fazemos a soma de dois vetores, e o vetor
resultante soma com o terceiro vetor, desta forma podemos estender para qualquer soma
→
→.
finita de vetores −
u1 + ... + −
u
n
Exemplo 1.2.1 Vamos usar a soma de vetores e as suas propriedades para provar um
resultado conhecido de geometria plana. Seja um triâgulo ABC e sejam M e N os pontos
médios dos segmentos AC e BC, respectivamente. Vamos provar que o segmento MN é
paralelo ao segmento AB e tem comprimento igual a metade do comprimento do segmento
AB. Então devemos provar que :
−−→
1 −→
|MN | = |AB|
2
:
6
CAPÍTULO 1. VETORES
C
M
N
A
B
Agora, a partir da figura acima temos que
−−→ −−→ −−→
MN = MC + CN
Agora, como M é o ponto médio do segmento AC e N é o ponto médio do segmento BC,
então
−−→ 1 −→
MC = AC
2
e
−−→ 1 −−→
CN = CB
2
Logo,
−−→ 1 −→ 1 −−→ 1 −→ −−→
1 −→
MN = AC + CB = (AC + CB) = AB
2
2
2
2
−
−
Definição 1.2.4 Chamaremos de diferença dos vetores →
u e →
v , que denotaremos por
→
−
→
−
→
−
→
−
−
→
→
−
u − v , o vetor w tal que w + v = u .
→
→
−
→
No caso em que os vetores sejam iguais −
u =−
v , o vetor diferença →
u −−
v é chamado
→
−
de vetor nulo, que representaremos por 0 .
→
Definição 1.2.5 Sejam −
u um vetor e λ um escalar. Chamaremos de produto por
→
−
→
→
escalar λ do vetor u ao vetor −
w = λ−
u , que tem a mesma direção, e | λ | vezes o
→
→
módulo do vetor −
u com sentido igual ou oposto ao do vetor −
u , dependendo do valor de
→
−
→
−
| λ | ser negativo ou positivo, e se λ = 0 então temos que λ u = 0 é o vetor nulo.
As propriedades que enunciaremos a seguir podem ser encontradas em qualquer curso
de cálculo, onde estes vetores podem ser vistos como pares ordenados, ou triplas ordenadas
ou em forma de n-uplas ordenadas em geral.
7
CAPÍTULO 1. VETORES
−
→
−
Proposição 1.2.1 Sejam →
u,−
v e→
w vetores e α, β escalares. Então são válidas:
−
→
→
→
• →
u +−
v =−
v +−
u
−
→
→
→
→
→
• →
u + (−
v +−
w ) = (−
u +−
v)+−
w
→
→
• α−
u =−
uα
→
→
• α(β −
u ) = (αβ)−
u
→
→
→
• (α + β)−
u = α−
u + β−
u
→
→
→
→
• α(−
u +−
v ) = α−
u + α−
v
Um dos objetivos deste texto é estudar, entender e nos familiarizar um pouco
mais com os conjuntos que admitem as propriedades da proposição anterior,
como veremos nos capı́tulos 4 e 5.
→
−
Definição 1.2.6 Seja −
v um vetor. Diremos que o vetor →
v é unitário se o seu módulo
→
−
| v | é uma unidade escalar.
−
→
→
v
Veja que se | −
v |6= 0, então o vetor |−
é um vetor unitário no mesmo sentido e direção
→
v|
→
−
que o vetor v . Um sistema muito importante e conhecido, é o sistema dado pelos vetores
unitários associados aos eixos coordenados do sistema cartesiano do espaço, por exemplo,
cujos eixos são geralmente identificados com X, Y e Z, com sentidos positivos destes eixos,
→
→ −
−
→ −
e são denotados por i , j e k , respectivamente, como mostra a figura abaixo.
Z
−
→
k
−
→
j
Y
−
→
i
X
Fig. (a)
→
→
Todo vetor −
v pode ser representado pelo produto de um vetor unitário −
u na direção e
−
→
→
−
→
−
→
v −
3
sentido do vetor v , isto é, v = |−
| v |. Todo vetor do espaço R pode ser representado
→
v|
com a sua origem a origem do espaço R3 . Sejam (x, y, z) as coordenadas cartesianas do
→
→ −
−
→ −
→
ponto extremo do vetor −
v cuja origem é 0. Os vetores x i , y j , z k são conhecidas como
8
CAPÍTULO 1. VETORES
→
as componentes retangulares do vetor −
v nas direções x, y, z, respectivamente. Veja que
→
−
→
−
→
−
→
a soma dos três vetores, x i + y j + z k é novamente o vetor original −
v isto é,
→
−
→
−
→
−
−
→
v =x i +y j +zk
onde o módulo é dado por:
→
|−
v|=
p
x2 + y 2 + z 2
Se a cada ponto (x, y, z) de uma determinada região R do espaço R3 associamos
um escalar dado pela função f (x, y, z), temos definido o que se conhece como campo
escalar, onde a função f (x, y, z) tambem é conhecida como função escalar de posição.
Vejamos os seguintes exemplos.
Exemplo 1.2.2
1. Para cada posição de um carro, hoje em dia usamos o famoso
GPS para fazer isto, podemos associar a temperatura do motor em um determinado
instante. Então esta função de associar a temperatura pode ser vista como um campo
escalar.
2. A função f (x, y, z) = x2 + y 2 + z 2 determina um campo escalar.
Um outro campo muito conhecido é o campo vetorial, onde em cada ponto (x, y, z)
de uma determinada região R do espaço R3 associamos um vetor dado pela função
→
−
→
f (x, y, z) = −
v , esta função tambem é conhecida como função vetorial ou de posição
vetorial.
Exemplo 1.2.3
1. Para cada carro, determinamos a sua posição, hoje em dia usamos
o famoso GPS para fazer isto, que é vetorial, e podemos associar a sua velocidade
em um determinado instante, que tambem é vetorial. Então esta função de associar
a velocidade a cada carro pode ser vista como um campo vetorial.
→
−
→
−
→
−
→
−
2. A função f (x, y, z) = x2 y i + y 2 z 2 j + xz k determina um campo vetorial.
9
CAPÍTULO 1. VETORES
1.2.1
Exercı́cios
1. Das grandezas a seguir, indique quais são escalar e quais são vetoriais.
(a)P eso (c)Densidade (e)Energia (g)velocidade
(b)Calor
(d)Impetu
(f )P otencia (h)distância
2. Um automóvel percorre 3Km na direção Norte e logo 5Km na direção Nordeste.
Represente geometricamente o deslocamento e calcule o vetor resultante.
3. Considere os seguintes deslocamentos:
−
• →
u = 10m na direção Nordeste.
→
• −
v = 20m , na direção Leste.
→
• −
w = 35m na direção Sul.
→
→
−
→
−
→
→
Então calcule −
u +−
v ;→
u −−
w ;→
v +−
v −−
w e faça a sua representação geométrica.
−
→
−
→
→
→
4. Sejam →
u ,−
v vetores. Mostre que →
u +−
v =−
v +−
u.
→
−
−
5. Calcule o vetor unitário com direção e sentido da resultante dos vetores →
u =2i −
→ →
−
→
−
→
−
→
−
→
−
5 j + 9 k ;−
v =6 i +2j −7k
→
→
→
6. Sobre um solido atuam três forças −
u,−
v e−
w que, em função das suas componentes,
→ →
−
→
−
→
−
→
−
→
−
→
−
→
−
estão dadas pelas equações vetoriais u = u1 i +u2 j +u3 k ; −
v = v1 i +v2 j +v3 k
→
−
→
−
→
−
→
e−
w = w1 i + w2 j + w3 k . Calcule o módulo da força resultante.
→
−
→
−
→
−
→
7. Determine os angulos α, β e γ que o vetor −
v = x i + y j + z k forma com os eixos
positivos do sistema de coordenadas de R3 . e mostre que
cos2 α + cos2 β + cos2 γ = 1
8. Considere o campo escalar dado por f (x, y, z) = 3x2 z − xy + z 2 , calcule o valor do
campo escalr f nos pontos (2, −3, 6); (−2, 4, 9); (6, −9, −3).
→
−
−
→
→
−
9. Represente Geometricamente o campo vetorial dado por f (x, y, z) = x i − y j +
→
−
zk.
1.3
Produto Escalar e Vetorial
Na seção anterior mostramos como podemos obter novos vetores a partir de vetores, e como podemos gerar outros vetores a partir da multiplicação por escalar. Então
agora mostraremos como a partir de dois vetores podemos associar um escalar, mostrando
algumas propriedades.
10
CAPÍTULO 1. VETORES
→
→
Definição 1.3.1 Seja −
u e −
v dois vetores. Chamaremos de produto escalar ou in→
−
→
−
terno dos vetores u e v , ao seguinte escalar:
→
→
0,
se −
u ou −
v é o vetor nulo;
→
−
→
−
u · v =
→
−
→
−
| u | · | v | cos θ, Caso contrário.
onde θ é o ângulo formado pelos dois vetores.
Quando os vetores são dados em termos das suas componentes não sabemos diretamente o ângulo entre eles. Por isso, precisamos de uma forma de calcular o produto
escalar que não necessite do ângulo entre os vetores.
→
→
Sejam −
u e−
v dois vetores não nulos e θ o ângulo entre eles, então pela lei dos cossenos,
temos a seguinte expressão:
→
→
→
→
→
→
|−
u −−
v |2 = |−
u |2 + |−
v |2 − 2|−
u ||−
v |cosθ
Assim,
1 − 2
→
→
→
−
→
→
→
→
u | + |−
v |2 − |−
u −−
v |2 )
u ·−
v = |−
u ||−
v |cosθ = (|→
2
Já temos então uma fórmula para calcular o produto escalar que não depende diretamente do ângulo entre eles. Substituindo-se as coordenadas dos vetores na identidade
acima, temos uma expressão mais simples para o cálculo do produto interno. Por exem→
→
plo, se−
u = (u1 , u2 , u3) e −
v = (v1 , v2 , v3 ) são vetores no espaço, então substituindo-se
→
−
→
−
→
→
2
2
2
2
2
| u | = u1 + u2 + u3 , | v | = v12 + v22 + v32 e |−
u −−
v |2 = (u1 − v1 )2 + (u2 − v2 )2 + (u3 − v3 )2
2
2
na igualdade anterior, os termos ui e vi são cancelados e obtemos a seguinte expressão
−
→
→
u ·−
v = u1 v1 + u2 v2 + u3 v3
Vejamos algumas propriedades na seguinte proposição.
−
→
−
Proposição 1.3.1 Sejam →
u,−
v e→
w vetores e α um escalar. Então são válidas:
−
→
→
→
1. →
u ·−
v =−
v ·−
u
−
→
→
→
→
→
→
2. →
u · (−
v +−
w) = −
u ·−
v +−
u ·−
w
→
→
→
→
3. α(−
u ·−
v ) = (α−
u)·−
v
−
→
→
u e−
v dois vetores. Chamaremos de produto vetorial, ou pro→
−
−
→
→
→
→
u e v ao vetor −
c =−
u ×−
v dado por:
 −
→  −
→ → −
→ −
→ −
→ −
i j k
i
j
k →
−
→
→
c =−
u ×−
v = det  u1 u2 u3  = u1 u2 u3 v v v v1 v2 v3
1
2
3
Definição 1.3.2 Sejam
duto externo dos vetores
Algumas propriedades do produto vetorial são dadas na seguinte proposição.
CAPÍTULO 1. VETORES
11
−
→
−
Proposição 1.3.2 Sejam →
u,−
v e→
w vetores e α um escalar. Então são válidas:
−
→
→
→
1. →
u ×−
v = −−
v ×−
u
−
→
→
→
→
→
→
2. →
u × (−
v +−
w) = −
u ×−
v +−
u ×−
w
→
→
→
→
→
→
→
→
3. α(−
u ×−
v ) = (α−
u)×−
v =−
u × (α−
v ) = (−
u ×−
v )α
→ −
→
→ →
→ −
− −
→ −
−
→ −
→ −
→ −
− −
→
→ −
− −
→ →
→ −
→
4. i × i = j × j = k × k = 0, i × j = k , j × k = i , k × i = i
−
→
−
→
5. O módulo do vetor →
u ×−
v representa a área do paralelogramo de lados →
u e−
v.
→
→
6. Se −
u ×−
v = 0 onde nenhum dos vetores é nulo, então os dois vetores tem a mesma
direção.
1.3.1
Exercı́cios
→ →
→
−
→
−
→ −
−
→
−
→
−
−
1. Ache o ângulo formado pelos vetores →
u =2 i +3j − k e −
v =6 i +3j +2k.
→ →
→
→
−
→ −
−
→ −
−
→ −
→
2. Ache o valor de α de forma que os vetores −
u = 2 i +α j + k e −
v = 4 i −2 j − k
sejam ortogonais.
→ →
→
−
→
−
→ −
−
→
−
→
−
→
3. Mostre que os seguinte vetores −
u = 3i −2j + k ; −
v = i − 3j + 5k e
→
−
→ −
−
→
→
−
w = 2 i + j − 4 k formam um triângulo.
4. Mostre a proposição 1.3.2.
→ −
→
−
→
−
→ −
−
→
−
→
−
→
5. Sejam −
u =2 i −3j − k e →
v = 1 i + 3 j + 6 k calcule
−
→
a →
u ×−
v
→
→
b −
v ×−
u
−
→
→
→
c (→
u +−
v ) × (−
u −−
v)
6. Calcule a área do triângulo de vértices P (1, 3, 2), Q(2, −1, 1), R(1, 2, 3).
→
−
7. Calcule o momento de uma força F com relação a um ponto P .
Capı́tulo 2
Matrizes
2.1
Matrizes
A partir de agora, e no decorrer do texto, usaremos a letra K, para denotar o corpo
dos escalares, que pode ser Q (Racionais), R (Reais) ou C (Complexos). Neste capı́tulo,
introduziremos o conceito de Matriz, que é um dos conceitos matemáticos mais usados
por parte da área de economia e administração entre outros como um recurso na agrupação
de um grande número de informações, e claro, é uma das ferramentas básicas na pesquisa
operacional.
Definição 2.1.1 Chamaremos de Matriz1 de ordem n×m à ordenação de n vezes m
escalares em n linhas e m colunas, que denotaremos da seguinte forma:


a11 a12 · · · a1m
 a21 a22 · · · a2m 

A=
 · · · · · · · · · · · ·  = (aij )n,m
an1 an2 · · · anm
onde aij denota o escalar na linha i e coluna j para i = 1, . . . , n , j = 1, . . . , m
Se todas as entradas da matriz A = (aij )n,m são nulas, a matriz A é dita de matriz
nula ou matriz zero, que denotaremos por 0n,m . Se o número de linhas é igual ao número
de colunas da matriz A = (aij )n,m , ou n = m, então diremos que a matriz A é uma matriz
quadrada e a denotaremos por A = (aij )n . Chamaremos de diagonal principal da matriz
quadrada A = (aij )n , os escalares da forma aii onde i = 1, . . . , n. Diremos que a matriz
quadrada A = (aij )n é diagonal, se todos os elementos acima e abaixo da diagonal principal
são zero. Chamaremos de matriz identidade, que denotaremos por In , a matriz diagonal
de ordem n onde todos os elementos da diagonal principal são iguais a 1, então In pode
ser vista da seguinte forma:
1 se i = j
In = (cij ) =
0 se i 6= j
1
O matemático Ingles Arthur Cayley(1821-1895), foi o primeiro a introduzir o conceito de matriz e
mostrar as suas propriedades algébricas, ele publicou mais de 300 artigos de investigação
12
13
CAPÍTULO 2. MATRIZES
Denotaremos por Mn,m o conjunto de todas as matrizes de n linhas e m colunas,
simbolicamente temos:
Mn,m (K) = Mn,m = {A = (ai,j )n,m /ai,j ∈ K, ∀i = 1, · · · , n; j = 1, · · · , m}
Exemplo 2.1.1 Vejamos agora alguns exemplos da definição anterior.
1. Um dos exemplos mais simples de ordenação matricial, é observar a ordenação das
cadeiras na sala de aula, ou das poltronas em um cinema, que sempre são dados em
linhas e colunas.
2. Os escalares de forma geral podem ser vistos como matrizes de ordem 1 × 1.
3. Uma linha de uma matriz A = (aij )n,m , digamos Ai = (ai1 · · · aij · · · aim ) pode ser
considerada como uma matriz de ordem 1×m, de maneira análoga podemosdefinira
a1j
 .. 
matriz coluna dada por uma coluna da matriz A = (aij )n como sendo Aj =  . .
anj
4. Consideremos o seguinte diagrama:
1
3
2
4
A forma matricial deste diagrama é

0
 1
A=
 0
1
dado por :

1 0 1
0 1 1 
 = (aij )n,m
1 0 0 
1 0 0
Onde aij = 1 se o ponto i está ligado ao ponto j, e aij = 0, se o ponto i não está
ligado ao ponto j. Esta matriz é conhecida como matriz de incidência.
5. Considere o plano projetivo de Fano, de ordem dois e construa a sua matriz de
incidência.
Definição 2.1.2 Diremos que duas matrizes da mesma ordem A = (aij )m,n
(bij )m,n são iguais se aij = bij ∀i, j.
e
B =
14
CAPÍTULO 2. MATRIZES
2.1.1
Exercı́cios
1. Escreva a matriz A = (aij )2,3 tal que aij = ij + 2i − j.
2. (a) Escreva a matriz A = (aij )4,4 , tal que :
aij = −1 se i > j
A=
aij = 1
se i ≤ j
(b) Escreva a matriz A = (aij )3,3 tal que aij = −aji
3. Ache os possı́veis valores de x e de y, tais que :
(a)
(b)
2 2
0 x2 − 2
=
y x
0 0
1 0
x y
=
0 1
x2 y 2
P
4. Seja A = (aij )n e definamos tr(A) = ni=1 aii que é conhecida como traço da matriz
A, então mostre que tr(tr(A)) = tr(A).
5. Suponha que existe uma relação de dominância entre quatro terminais, dada pelo
seguinte diagrama:
1
3
2
4
onde cada seta indica a dominância do ponto i sobre o ponto j. Passe para linguagem
matricial este diagrama (supondo que nenhum ponto domine ele mesmo).
2.2
Adição de Matrizes
Recordemos que tanto a adição como a subtração entre os números é uma função, ou
também conhecida como operação binária ou interna, onde são relacionados dois elementos
do mesmo conjunto e, após esta relação ou mistura entre eles, obtemos um novo elemento
do mesmo conjunto. Será que o relacionamento entre animais da mesma espécie satisfaz
esta condição?. Será que com as matrizes isto é válido?. Então vejamos a seguinte
definição.
CAPÍTULO 2. MATRIZES
15
Definição 2.2.1 Sejam A, B ∈ Mn,m. Então a operação binária ou interna
+ : Mn,m × Mn,m −→ Mn,m dada por :
A + B = (aij )n,m + (bij )n,m = (aij + bij )n,m
será chamada de soma de matrizes.
Veja que se as matrizes forem de 1 × 1, a definição anterior nos da à definição usual de
soma de escalares, ou se forem matrizes de 1 × n a definição anterior nos da à definição
usual de soma de n-uplas ou soma vetorial componente a componente. Vejamos agora
alguns exemplos.
Exemplo 2.2.1 Consideremos os seguintes exemplos dos conceitos anteriores.
1. Considere as seguintes matrizes:
√
−3 π
2 −6
−1
8
−5
√
A=
, B=
eC=
5 −6
−2 2π 9
2
3
Observe que A + B está bem definida, mas A + C não, pois a matriz A tem ordem
2 × 2 e a matriz C tem ordem 2 × 3, isto é, a matrı́z A,e a matrı́z B não tem a
mesma ordem.
2. A matriz nula 0n,m tem a propriedade de que se A ∈ Mn,m então é fácil verificar, a
partir da definição que, A + 0n,m = 0n,m + A = A
3. Uma certa empresa de Computação produz um software X. Agora, para produzir este
software foram necessários seis técnicos, três (um digitador, um programador e um
analista de sistemas) de uma localidade A e os outros três (digitador, programador
e analista) de uma localidade B. As despesas feitas pela empresa na manutenção e
transporte dos técnicos pode ser vista matricialmente por :


Manut. T rans. Cargo
 100
150
Dig. 

A=
 800
400
P rog. 
900
850
Anal.


Manut. T rans. Cargo
 80
50
Dig. 

B=
 600
400
P rog. 
1000
650
Anal.
A matriz que representa a despesa total com alimentação e transporte de cada um
dos técnicos vindo de ambas localidades é dada por :


Manut. T rans. Cargo
 180
200
Dig. 

A+B =
 1400
800
P rog. 
1900
1500
Anal.
16
CAPÍTULO 2. MATRIZES
Exemplo 2.2.2 Uma Universidade, pretende utilizar o perı́odo de recesso das férias para
fazer a instalação de ar condicionado central nos blocos D, EeF do centreo de Ciências
Exatas. Então, faz uma licitação para a realização desta obra, e pede que seja discriminado o custo por bloco, pois pode pegar a obra por bloco, e seleciona três propostas,
que denotaremos por Emp.1, Emp.2 e Emp.3, como discriminada abaixo(os valores são
relativos a R$1.000, 00 reais) :
Bl D
Emp.1
53
Emp.2
47
Emp.3
60
Bl E
96
87
92
Bl F
37
41
36
Então, a Universidade está interessada na proposta de menor custo e cada empressa
só pode pegar um bloco para fazer. Como calcular a melhor proposta. Na verdade temos
3! = 3 × 2 × 1 possibilidades. Então as propostas podem ser vistas de maneira matricial
como segue :


53 96 37
 47 87 41 
60 92 36
Então estas

53
|{z}
 47
(a) 
60

53
 47
(d)  |{z}
60
seis propostas são dadas por :





53
96
37
53
96
37
96
37
|{z}
|{z}

 47

 47
87
41
41 
87
41
(b)
(c)



 |{z} 87
|{z} 
|{z}
60
92 |{z}
36
60 |{z}
92
36
92 |{z}
36





96 |{z}
37
53 |{z}
96
37
53
96 |{z}
37


87 |{z}
41 
87
41 
87
41 
 (e)  47
 (f)  47 |{z}

92
36
60
92
36
60
92
36
|{z}
|{z}
|{z}
Onde a proposta (a) = 53 + 87 + 36 = 176 a proposta (b) = 53 + 92 + 41 = 186
a proposta (c) = 47 + 96 + 36 = 179 a proposta (d) = 47 + 92 + 37 = 176 a proposta
(e) = 60+96+41 = 197 e finalmente a proposta (f) = 60+87 = 37 = 184. Mostrando que
a proposta (a) e (d) são as melhores. Claramente o método anterior é muito ”primitivo”e,
em programação Linear poderão estudar métodos mais eficientes.
Proposição 2.2.1 Sejam A, B e C ∈ Mn,m , então é válido que :
i) Associatividade (A + B) + C = A + (B + C)
ii) Neutro ∃0n,m ∈ Mn,m tal que A + 0n,m = 0n,m + A = A
iii) Inverso ∀A ∈ Mn,m existe a matriz −A ∈ Mn,m tal que A + (−A) = 0n,m
iv) Comutatividade A + B = B + A
17
CAPÍTULO 2. MATRIZES
2.3
Multiplicação por Escalar
Anteriormente, definimos uma relação binária, como sendo uma função que relacionava dois elementos do mesmo conjunto, e obtinhamos como resultado um novo elemento
do mesmo conjunto, como faz a adição de matrizes. Agora, estamos interessados em relacionar o corpo K, com o conjunto das matrizes de ordem n × m por exemplo, e obter
desta relação uma nova matriz de ordem n×m. Como fazer isto é o que mostra a seguinte
definição.
Definição 2.3.1 Chamaremos de produto por escalar, a operação externa · : K×Mn,m −→Mn,m
dada da seguinte forma: Sejam α ∈ K e A ∈ Mn,m então
α · A = (αaij )n,m
Veja que a operação externa produto por escalar nada mais é multiplicar cada uma
das entradas da matriz A ∈ Mn,m pelo escalar α ∈ K. Vejamos agora alguns exemplos.
Exemplo 2.3.1 Sejam
2√
3
−5
5 −2 6
, α1 = 2, e α2 = π. Então calculemos
α1 · A − α2 · A
Exemplo 2.3.2 Seja A ∈ Mn e λ ∈ K, então calculemos λ · In − A.
Proposição 2.3.1 Sejam A, B ∈ Mn,m e α, α1 , α2 ∈ K, então são válidas:
1. (α1 + α2 ) · A = α1 · A + α2 · A
2. α · (A + B) = α · A + α · B
3. α1 (α2 · A) = (α1 α2 ) · A
4. 1 · A = A, −1 · A = −A, 0 · A = 0n,m
De agora em diante consideraremos α · A = αA.
Exemplo 2.3.3 Seja X ∈ M3 . Então
a seguinte igualdade:

2√ 3

5 √
−2
−4(X +
3
0
procuremos o valor da matriz X tal que satisfaz



−5
1 0 4
6 ) = 5X +  5 0 3 
1 1 0
1
18
CAPÍTULO 2. MATRIZES
2.3.1
Exercı́cios
1. Uma Universidade está querendo pintar quatro dos seus carros, com as cores e os
sı́mbolos da universidade. Então, a Universidade faz uma licitação para executar
este serviço, onde cada empressa só pode pintar um carro. Dentro das propostas ela
seleciona quatro delas, cujos valores são dados segundo tabela abaixo.
Of.1
Of.2
Of.3
Of.4
Então, encontre a melhor

1√ −3
2. Sejam A =  7 √
0
−3
6
1√ −3 4
,
D=
7 0
−7
carro A carro B carro C carro D
3
6
7
5
7
7
4
3
6
2
6
5
5
3
4
7
proposta para a Universidade.



10 √
13 9
4
2
0
9
,C =
√
7 −3
,
−7  , B =  0
√
3 8
2
18
1 4
11


1
4


0
−7
e E=
√
5 18
Então veja se é possı́vel calcular e, se fôr possivel, então calcule:
(a) 2A + B
(b) E − 2C
(c) −4A + 5B − 3C + D
(d) D + I2 − E
3. Sejam α ∈ K
e r ∈ R e A ∈ Mn,m então mostre que:
(a) α(rA) = (αr)A
(b) (α + r)A = αA + rA
4. Mostre que se r ∈ R, e A, B ∈ Mn,m então, r(A + B) = rA + rB.
5. Determine o valor da matriz X

0√ 9
 2 10
√
5
6
da seguinte igualdade:



8
0 3 19

6  + 3X =  10 7 −13
√
11 6
11
9
19
CAPÍTULO 2. MATRIZES


10
−3
4
6. Sejam A =  7 √
0
−7  , B =  0
6
−3 18
1
Justifique cada um dos seus passos para achar
igualdades:
√
(a) 2(2X + B) = 35 X + C − 2A

1√


13
9
√
7 √
−3  , C = 
4
11
o valor da matriz X,

2 0√ 9
3 8 .
2
2 −4 7
das seguintes
(b) −3A + 5X = πC − 72 B
√
√
(c) 7(3X + 2A) + −2(A − 5C) = 23 B
7. Mostre as propriedades da soma de matrizes e do produto por escalar.
8. Sejam A1 , ..., Ar ∈ Mn e sejam λ1 , ..., λr ∈ K. Usando a definição de traço de uma
matriz mostre que : tr(λ1 A1 + · · · + λr Ar ) = λ1 tr(A1 ) + · · · + λr tr(Ar ).
2.4
Multiplicação de Matrizes
Até agora temos definido a soma de matrizes e a multiplicação por escalar, agora nos
resta trabalhar em uma definição de multiplicação de matrizes. Começaremos primeiro
considerando uma situação particular com matrizes de ordem 1 × n e de ordem n × 1,
como será dado na seguinte definição.


y1
 y2 


Definição 2.4.1 O produto da matriz X = x1 x2 · · · xn pela matriz Y =  .. 
 . 
yn
é a matriz de ordem 1 × 1 dada por :


y1


 y2 
X · Y = x1 x2 · · · xn ·  ..  = (x1 y1 + x2 y2 + · · · + xn yn )
 . 
yn
Ilustremos esta definição com o seguinte exemplo.
 
4

Exemplo 2.4.1 Sejam X = 3 2 −6 e Y =
9 , a partir da definição segue que
7
 
4
X · Y = 3 2 −6  9  = (3 · 4 + 2 · 9 + −6 · 7) = (−12)1,1 .
7
Veja que, a partir da definição anterior o número de colunas da matriz X deve ser
igual ao número de linhas da matriz Y , se isso acontece, diremos que as matrizes X e Y
são compatı́veis para a multiplicação.
20
CAPÍTULO 2. MATRIZES
Definição 2.4.2 Sejam A ∈ Mn,p e B ∈ Mp,m. O produto das matrizes A e B, que
denotaremos por C = AB, é a matriz cujo elemento genérico cij , é o produto da i-ésima
linha Ai da matriz A pela j-ésima coluna Bj da matriz B, isto é,
cij = Ai Bj = ai1 b1j + · · · + aip bpj
onde 1 ≤ i ≤ n e 1 ≤ j ≤ m.
Vejamos como esta definição funciona no seguinte exemplo.
2 6 7
1 5
, então
eB=
Exemplo 2.4.2 Sejam A =
8 5 −3
3 2
1 · 2 + 5 · 8 1 · 6 + 5 · 5 1 · 7 + 5 · −3
AB =
=
3 · 2 + 2 · 8 3 · 6 + 2 · 5 3 · 7 + 2 · −3
42 31 −8
2 + 40 6 + 25 7 − 15
=
22 28 15
6 + 16 18 + 10 21 − 6
Veja que o exemplo anterior mostra que o produto de matrizes pode não ser comutativo, visto que existe o produto AB, mas não existe o produto BA.
Exemplo 2.4.3 A notação matricial foi introduzida pelo matemático Inglês Artur Cayley
em 1958. Ele usou-a para abreviar a notação para expressar um sistema de equações
lineares. Isto é, o sistema


a11 x1 + a12 x2 + · · · +a1m xm = b1


 a21 x1 + a22 x2 + · · · +a2m xm = b2
..
..
..
..
..

.
.
.
.
.


 a x + a x + · · · +a x
= b
n1 1
n2 2
nm m
n
pode ser representado matricialmente pela seguinte equação :
AX = B

a11
 ..
onde A =  .
an1
a12 · · ·
..
.
an2 · · ·


a1n



..
 e a matriz X = 
.

anm
x1
x2
..
.






 e B = 


b1
b2
..
.



 onde o

xm
bn
anterior se verifica facilmente usando as definições de produto de matrizes.

x1
 x2 


Este problema consiste em determinar um conjunto S de n-uplas x =  ..  cujas
 . 
xn
coordenadas satifazem simultaneamente a cada uma das equações do sistema dado por
21
CAPÍTULO 2. MATRIZES
AX = B. O conjunto S é chamado de conjunto solução do sistema de equações
lineares. O sistema de equações lineares anterior é dito Homogêneo se a matriz coluna
 


0
b1
 0 
 b2 
 


B =  ..  = 0 =  .. 
 . 
 . 
0
bm
fôr nula. Uma matriz que será estudada no próximo capı́tulo é a matriz aumentada,
que denotaremos por (A : B), associada ao sistema de equações lineares anterior, observe
que (A : B) ∈ Mn,m+1 .
Vejamos uma pequena aplicação do exemplo anterior:
Exemplo 2.4.4 Sabemos que dados dois pontos no plano R2 , só pode passar uma única
reta, que a partir de geometria analitica é dada pela equação
ax + by + c = 0
Onde a, b, c ∈ R. Então, encontremos a equação da reta que passa pelos pontos (1, 2), (2, 3).
Veja que os pontos anteriores devem satisfazer a equação ax + by + c = 0, ou seja que
temos a seguinte situação :
a1+ b2+ = −c
a2+ b3+ = −c
Veja que não é dificı́l, usando alguns conhecimentos de segundo grau, mostrar que
a = −3c e b = c, ou seja, a equação da reta procurada é dada por
−3cx + cy = −c
ou
y = 3x − 1
onde c 6= 0.
Se A ∈ Mn pode-se verificar facilmente que AIn = In A = A.
CAPÍTULO 2. MATRIZES
22
Exemplo
2.4.5
: as seguintes
matrizes
Consideremos
4 0
0 0
0 0
1
0
1 3
;
;E=
;D=
;C=
;B=
A=
2 1
1 0
1
4 7 −1 2 0 4 0
1 0
−1 0
1 0
F =
;I=
;J=
;K=
;
6
7
0
1
0
1
0 −1
−1 0
e L=
.
0
−1
−2 3
1 3
1. AB =
6=
= BA, o que mostra que o produto de matrizes não
−3 7
3 4
é comutativo.
0 0
, onde tanto a matriz C como a matriz D são diferente da matriz
2. CD =
0 0
nula.
0 0
3. Veja que DE =
= DF , mas a matriz E 6= F , isto mostra que não existe
8 0
uma lei de cancelamento entre matrizes.
4. Temos que I 2 = I, J 2 = I, K 2 = I, L2 = I, isto mostra que a matriz I tem pelo
menos quatro raı́zes quadradas, sendo que com escalares só poderia ter no máximo
duas raı́zes.
Por outro lado, a seguinte proposição mostra as propriedades válidas com o produto
de matrizes.
Proposição 2.4.1 Sejam A, B, C ∈ Mn . Então são válidas :
i) Associatividade : A(BC) = (AB)C.
ii) Neutro : Existe In ∈ Mn tal que In A = AIn = A.
iii) Lei Distributiva Esquerda : A(B + C) = AB + AC.
iv) Lei Distributiva Direita : (A + B)C = AC + BC.
Se considerarmos matrizes quadradas, digamos de n × n, podemos ter o conceito de
potência de uma matriz, ou seja que se A ∈ Mn segue que A0 = In ; A1 = A; AA =
A2 , · · · , An+1 = AAn . Fazendo uso de indução finita, como visto no capı́tulo 1, podemos mostrar que An+m = An Am . A partir do anterior, podemos trabalhar expressões
polinômiais como p(x) = an xn + an−1 xn−1 + · · · + a0 ∈ K[x], isto é, podemos calcular
p(A) = an An + an−1 An−1 + · · · + a0 In ∈ Mn , vejamos o anterior no seguinte exemplo.
23
CAPÍTULO 2. MATRIZES
Exemplo 2.4.6 Seja A =
1 4
3 8
então
∈ M2 e consideremos o polinômio p(x) = x3 +x−2,
3 1 0
1 4
1 4
−2
+
p(A) = A + A − 2I2 =
0 1
3 8
3 8
120 344
121 + 1 − 2 340 + 4 + 0
−2 0
1 4
121 340
=
=
+
+
=
258 722
255 + 3 + 0 716 + 8 − 2
0
−2
3 8
255 716
3
Exemplo 2.4.7 Consideremos o seguinte sistema de comunicação (esses centros de comunicação podem representar pessoas, nações, computadores etc.) dado pelo seguinte
diagrama.
1
3
2
4
onde a seta indica que o terminal i se comunica
deste diagrama é dado pela matriz.

0 1 1
 1 0 1
A=
 0 0 0
1 1 1
com o terminal j. A forma matricial

1
1 

0 
0
onde aij = 1 se existe comunicação entre o terminal i e o terminal j e aij = 0, caso
contrário. Estamos considerando que os terminais não se comunicam com si próprios.
Então temos:


2 1 2 1
 1 2 2 1 

B = AA = A2 = 
 0 0 0 0  = (aij )n,m
1 1 2 2
Aqui b11 = a11 a11 + a12 a21 + a13 a31 + a14 a41 = 2, veja que esses produtos a1j aj1 é um, se, e
somente se a1j e aj1 são um, isto diz que o terminal 1 está comunicado com o terminal j
e o terminal j está comunicado com o terminal 1, logo como b11 = 2, diz que temos duas
chances de isto acontecer, o terminal 1 via outro terminal se comunicar com o terminal 1
novamente. Assim A + A2 diz sobre o número total de chances de comunicação que estão
abertas entre vários terminais usando nenhum terminal ou um terminal intermediário.
Uma das grandes ferramentas na área de transportes hoje em dia, é dada pela teoria de
grafos, que claramente não é o nosso objeto de estudo, mas daremos a definição de grafo
dirigido para ilustrar uma outra aplicação destes conceitos matriciais vistos até aqui.
24
CAPÍTULO 2. MATRIZES
Definição 2.4.3 Chamaremos de Grafo Dirigido á quádrupla G = (G0 , G1 , o, t), onde
G0 é o conjunto de vértices, e G1 é o conjunto de flechas, e para qualquer flecha α ∈ G1
temos a função o : G1 −→G0 tal que o(α) é o vértice origem da flecha α, e a função
t : G1 −→G0 é o vértice final ou término da flecha α.
Ilustremos a definição anterior com o seguinte exemplo.
Exemplo 2.4.8 Consideremos uma famı́lia, com a Mãe, Pai, uma filha e dois filhos.
Cada um dos membros desta famı́lia tem influência sobre os outros membros da famı́lia
da seguinte forma : A Mãe tem influência sobre a sua filha e sobre o filho mais velho;
e o Paı́ tem influência sobre os dois filhos; e a filha pode influenciar sobre o Pai; e o
filho mais velho pode influenciar o irmão mais novo, e finalmente o filho mais novo pode
influenciar a Mãe. Então, usando grafos podemos modelar esta familia da seguinte forma :
G0 = {Mãe, Pai, Filha, Filho mais velho, Filho mais novo} = {M, P, F, Fv , Fn } e G1 =
{Inflbeuncia na familia} = {α1 , α2 , α3 , α4 , α5 , α6 , α7 }
•1
Fv
α2
α2
α1
α1
α3
α3
α4
M
α5
F
Fn
α5
α6
α7
P
α4
•2
•4
(a)
•3
α6
α7
•5
(b)
Em um grafo dirigido com n vértices, podemos associar uma matriz M = (nij ) ∈ Mn ,
chamada de matriz de incidência do grafo dirigido. As entradas da matriz de incidência
são dados da seguinte forma :
1 se Pi −→Pj
nij =
0
outra
para i, j = 1, 2, ..., n. Agora, a matriz de incidência
pela seguinte matriz :

1 2 3 4
 1 0 1 0 0

 2 0 0 1 0
M =
 3 1 0 0 0

 4 0 1 0 0
5 0 0 0 1
associado ao exemplo 2.4.8 é dado
5
1
0
1
0
0








25
CAPÍTULO 2. MATRIZES
Exemplo 2.4.9 Consideremos a seguinte situação de migração entre a região Nordeste
do Brasil e a região de Rio- São Paulo da seguinte forma. cada ano, 50% da População
do Nordeste migra para a região de Rio-São Paulo, não entanto 25% da População de
Rio-São Paulo migra para a região Nordeste.
0.5
0.5
RSp
ND
0.75
0.25
Se esta migração tende a continuar, nos parâmetros anteriores, será que acabará a
população no Nordeste, ou a futuro esto se estabilizará?.
Então, vamos supor que sejam nk e sk as proporções das populações no Nordeste e no
Rio-São Paulo respectivamente, em um determinado ano k, e então temos que nk +sk = 1.
Logo, estas diretrizes determinam que no ano seguinte, isto é, no ano k + 1 as proporções
de populações será dado por
nk+1 = nk 0.5 + sk 0.25
sk+1 = nk 0.5 + sk 0.75
Se pTk = (nk , sk ) e pTk+1 = (nk+1 , sk+1 ) representam as populações no final do ano k e
no ano k + 1 respectivamente, então temos a matriz
0.5 0.5
T =
0.25 0.75
Sendo a matriz de transição, de onde temos que pTk+1 = pTk T . Logo, temos a seguinte
sequência
pT1 = pT0 T ; pT2 = pT1 T = pT0 T 2 ; pT3 = pT2 T = pT0 T 3 ; . . . ; pTk = pT0 T k
Calculando as potências da matriz T temos
0.333 0.667
0.375 0.625
7
2
··· T =
T =
0.333 0.667
0.312 0.687
Não é difı́cil de ver que esta sequência tende a matriz
1 2 ∞
k
3
3
T = lim T =
1
2
k −→∞
3
3
Portanto, a migração a futuro estará estabilizada, onde
deste, e 32 da população ficará no Rio-São Paulo.
1
3
da população ficará no Nor-
Vejamos agora uma aplicação entre matrizes que será de muita utilidade na parte final
deste texto.
Definição 2.4.4 Seja A = (aij ) ∈ Mn,m . A transposta da matriz A, que indicaremos
por At , é a matriz obtida da matriz A trocando as linhas por colunas, isto é,
At = (aji ) ∈ Mm,n
26
CAPÍTULO 2. MATRIZES
Veja que transposta pode ser vista como uma transformação ()t :
tremos esta definição com o seguinte exemplo.



24
24 2 6 8

2
Exemplo 2.4.10 Seja A =  12 3 10 1  então At = 
 6
11 0 1 7
8
Mn,m −→Mm,n . Ilus12
3
10
1

11
0 

1 
7
Na seguinte proposição, damos as propriedades satisfeitas pela transposta de matrizes.
Proposição 2.4.2 Sejam A ∈ Mn,p , B ∈ Mp,m e c ∈ K. Então são válidas :
i) (At )t = A.
ii) (A + B)t = At + B t .
iii) (cA)t = cAt .
iv) (AB)t = B t At .
Definição 2.4.5 Seja A ∈ Mn . Então diremos que a matriz A é simétrica se At = A,
e diremos que a matriz A é anti-simétrica se At = −A.
Um dos fatos importantes sobre simetria e anti-simetria de matrizes é dada na seguinte
proposição.
Proposição 2.4.3 Seja A ∈ Mn . Então a matriz A se decompõe como a soma de
uma matriz simétrica, que denotaremos por As , mais uma matriz anti-simétrica, que
denotaremos por Aa , isto é,
A = As + Aa
Dem. Seja A uma matriz como no enunciado, então consideremos as seguintes matrizes
As =
A + At
2
e Aa =
A − At
2
Claramente As + Aa = A, então só resta mostrar que a matriz As é simétrica e que a
matriz Aa é anti-simétrica. Mas pelas propriedades da transposta temos:
(As )t = (
A + At
A + At t At + (At )t
) =
=
= As
2
2
2
portanto As é simétrica. De forma análoga temos que (Aa )t = −Aa logo é anti-simétrica,
como querı́amos.
27
CAPÍTULO 2. MATRIZES
2.4.1
Exercı́cios
1. Ache a equação da reta que passa pelos pontos (−2, 1); (3, 8).
2. Construa a matriz de incidência dos seguintes grafos orientados.
•1
•1
α2
α2
α1
α1
•2
α5
•3
α3
α8
α3
α5
(a)
α6
•4
α4
•2
α5
•4
•3
α6
α9
•5
α7
(b)
3. Ache o grafo orientado, associado as seguintes matrizes :



0


0 1 0 0 1 0
 0
0
1
0
0
1

 0 0 1 0 1 0 
  1 0 1 0 1   1

 
 1 0 0 1 0 1  
 
 

 0 1 0 0 1 1   0 0 0 1 0   0
  1 1 1 0 1   1


 1 1 1 1 0 0 
 0
1 1 1 0 0
1 1 1 1 0 0
1
(a)
(b)
1
0
0
1
1
1
1
0
1
0
0
1
0
1
0
0
1
0
0
1
0
(c)
1
1
0
0
0
1
1
0
0
1
1
1
0
1
1
0
1
0
1
0
0










4. Expresse o seguinte sistema linear, como uma equação matricial da forma AX = B,
identificando cada uma das matrizes, A; X e B.

+6x2 −x3 = 6
 3x1
−4x1 +2x2
= 9

3x2
+5x3 = 5
5. Mostre que

2 
3 
4
− 1 − 1 − 1
0
1
0
0
1
0

0
1
0  = − 1 − 1 − 1  =
0
0
1  = I3
0
0
1
0
0
1
− 1 − 1 − 1
6. Sejam A, B ∈ M2 , tais que AB = BA. Então mostre que
(A + B)2 = A2 + 2AB + B 2
Se as matrizes A, B ∈ Mn são quaisquer, a igualdade é sempre verdadeira?.
Mostre um contraexemplo se não fôr verdadeiro.
CAPÍTULO 2. MATRIZES
28
7. Seja A ∈ Mn e p(x) = an xn + an−1 xn−1 + · · · + a0 ∈ K[x], então mostre que
Ap(A) = p(A)A.
8. Consideremos a seguinte situação de migração entre Rio e São Paulo da seguinte
forma: cada ano, 30% da população do Rio migra para a região de São Paulo, no
entanto 20% da população de São Paulo migra para o Rio. Será que esta migração
se estabiliza?
9. Uma matriz A de ordem n é dita idempotente se A2 = A.


2 − 2 − 4
3
4  é idempotente ou não.
a) Verifique se a matriz  − 1
1 − 2
3
b) Mostre que se AB = A e BA = B, então A e B são idempotentes.
c) Se a matriz A é idempotente, mostre que a matriz B = I − A é idempotente e
AB = BA = 0.
10. Sejam A, B ∈ M2 , mostre que:
a) tr(A ± B) = tr(A) ± tr(B).
b) tr(αA) = αtr(A), onde α ∈ K.
c) tr(AB − BA) = 0.
onde tr(A) denota o traço da matriz A, ou seja a soma da diagonal principal da
matriz A.
11. Mostre as propriedades da transposta.
12. Mostre que se A ∈ Mn então a matriz AAt é uma matriz simétrica.
13. Diga se é verdadeiro ou falso, e justifique a sua resposta :
a) Se as matrizes A e B são simétricas, então A + B e A − B são simétricas.
b) Se as matrizes A e B são anti-simétricas então A+B e A−B são anti-simétricas.


3
1
8
2  como soma de uma matriz simétrica e
14. Expresse a matriz  − 4 − 9
6 − 5
1
outra anti-simétrica.
CAPÍTULO 2. MATRIZES
2.5
29
Inversão de Matrizes
Temos visto, nas seções anteriores, que podemos somar e multiplicar matrizes no
conjunto Mn , onde as matrizes com a soma, tem estrutura de grupo abeliano, e com
o produto é só um grupoide com unidade I. Então, é natural se perguntar: dada uma
matriz A ∈ Mn quando é possı́vel achar uma outra matriz B ∈ Mn tal que o produto
AB = I seja a matriz identidade?. Este conceito é dado na seguinte definição.
Definição 2.5.1 Seja A ∈ Mn . Diremos que a matriz A é invertı́vel pela esquerda
(direita) se existe uma matriz C ∈ Mn (B ∈ Mn ) tal que AC = In (BA = In ).
A definição anterior diz, que uma matriz quadrada A de ordem n pode ter inversa
só pela direita ou só inversa pela esquerda, mas se tiver inversa pelos dois lados temos a
seguinte proposição.
Proposição 2.5.1 Seja A ∈ Mn . Se A tem inversa pela direita B e pela esquerda C,
então temos que B = C.
Dem. A partir da definição de inversa temos que BA = In e AC = In . Então,
B = BIn = B(AC) = (BA)C = In C = C
Desta forma, se a matriz A tem inversa pela direita e pela esquerda, então a partir da
proposição anterior a matriz A tem uma única inversa, que denotaremos por A−1 , e neste
caso diremos que a matriz A é invertı́vel (ou não singular), e A−1 A = AA−1 = In ,
caso contrário diremos que a matriz A não é invertı́vel (ou singular).
3
−5
7 5
Exemplo 2.5.1 Sejam A =
eB=
, então
4 3
−4 7
3
−5
7 5
1 0
7 5
−1
AB =
·
=
= BA. Portanto A =
.
−4 7
4 3
0 1
4 3
Observe que, nem toda matriz admite inversa, como veremos no seguinte exemplo.
3 6
Exemplo 2.5.2 Seja A =
, então achar a inversa da matriz A significa achar
4 8
x y
3 6
x y
1 0
uma matriz X =
, tal que AX =
·
=
, de onde
z w
4 8
z w
0 1
pode-se obter o seguinte sistema de equações.

3x +6z = 1



3y +6w = 0
4x +8z = 0



4y +8w = 1
O cálculo anterior mostra que o sistema é inconsistente, logo não é possı́vel achar x, y, z
nem w, tal que AX = I2 . Portanto a matriz A não é invertı́vel.
30
CAPÍTULO 2. MATRIZES
Proposição 2.5.2 Sejam A, B ∈ Mn inversı́veis. Então é válido que:
i) (A−1 )−1 = A
ii) (AB)−1 = B −1 A−1
Dem. A primeira afirmação decorre diretamente da definição. Então vejamos a segunda,
na qual basta verificar que: (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AIn A−1 = AA−1 = In e
de maneira análoga verifica-se (B −1 A−1 )(AB) = In .
Corolário 1 Sejam A1 , A2 , . . . , An ∈ Mn , matrizes inversı́veis, então (A1 A2 · · · An )−1 =
−1 −1
A−1
n · · · A2 A1
Assim como tı́nhamos definido potências na multiplicação de matrizes, temos que se
A é uma matriz quadrada de ordem n e inversı́vel, então por indução segue que A−n =
(A−1 )n , onde n ∈ N.
Proposição 2.5.3 Sejam A, B ∈ Mn . Se AB = 0, então a matriz A = 0 ou a matriz
B = 0 ou ambas A e B não são inversı́veis.
Dem. Claramente se a matriz A ou a matriz B é zero, o anterior é claro, logo só resta
assumir que as matrizes A e B são diferentes da matriz nula. Então vamos supor que a
matriz A ou a matriz B é invertı́vel, e obtenhamos uma contradição. Consideremos
a matriz A invertı́vel, logo como
AB = 0 ⇒ A−1 (AB) = A−1 0 ⇒ In B = 0
Ou seja, que a matriz B é nula, o que é uma contradição pois ela é inversı́vel. De
forma análoga, segue que B não pode ser invertı́vel, portanto as matrizes A e B não são
inversı́veis.
0 0
3 0
0 5
0 0
, segue que AB = BA =
e B =
Exemplo 2.5.3 Sejam A =
0 0
, onde tanto a matriz A como a matriz B são diferentes da matriz nula, logo
0 0
pela proposição anterior podemos concluir que, as matrizes A e B não são inversı́veis.
Proposição 2.5.4 Seja A ∈ Mn . Se a matriz A tem inversa pela esquerda (ou direita),
então a matriz A é inversı́vel.
A demonstração desta proposição será deixada para depois, mas esta proposição diz
que para uma matriz A quadrada de ordem n ser invertı́vel, basta ter somente inversa ou
pela direita ou pela esquerda.
31
CAPÍTULO 2. MATRIZES
Recordemos que um sistema de equações da


a11 x1 + a12 x2 + · · ·


 a21 x1 + a22 x2 + · · ·
..
..
.
 ..
.
.


 a x + a x + ···
n1 1
n2 2
forma:
+a1n xn = b1
+a2n xn = b2
..
..
.
.
+ann xn = bn
Pode ser representado matricialmente pela seguinte equação matricial
AX = B

a11
 ..
onde A =  .
an1
a12 · · ·
..
.
an2 · · ·


a1n



..
 e a matriz X = 
.

ann
x1
x2
..
.






eB=


b1
b2
..
.





bn
xn
Se consideramos a matriz anterior A inversı́vel, a equação matricial AX = B tem uma
única solução, a saber dada por:
X = A−1 B
Que é solução, isto é claro, pois é só substituir na equação matricial X = A−1 B em
AX = B, então mostremos agora, que esta solução é única. Para isto, vamos supor que
não, isto é, que existe uma outra solução Y tal que AY = B, então segue que :
X = A−1 B = A−1 (AY ) = (A−1 A)Y = Y
Portanto a solução X = A−1 B é única. Vejamos uma aplicação desta proposição, no
seguinte exemplo prático.
Exemplo 2.5.4 Uma empresa de componentes eletrônicos, usa dois tipos de maquinas P
e Q para produzir dois tipos de componentes eletrônicos A e B. As máquinas P e Q podem
operar 80 e 60 horas por semana, respectivamente. A máquina P requer duas horas para
produzir o componente eletrônico A e quatro horas para produzir o componente eletrônico
B. A máquina Q requer três horas para produzir o componente eletrônico A, e duas horas
para produzir o componente eletrônico B. Estamos interessados em determinar o número
de unidades de cada componente eletrônico produzidos pelas máquinas P e Q, semanais.
Solução. Seja x o número de unidades do componente eletrônico A e y o número de
componentes eletrônicos B produzidos por semana. Logo, a máquina P gasta 2x horas
para produzir o componente A e 4y horas para produzir o componente B. Se a maquina
trabalha o tempo todo, temos
2x + 4y = 80
De forma análoga a anterior, com a máquina Q temos que
3x + 2y = 60
CAPÍTULO 2. MATRIZES
32
Então matricialmente a situação anterior é dada por
2 4
x
80
=
3 2
y
60
a b
2 4
admite inversa, isto é, se existe uma matriz
Vejamos se a matriz C =
c d
3 2
tal que
1 0
a b
2 4
=
0 1
c d
3 2
−1/4 1/2
, portanto
então temos que C −1 =
3/8
−1/4
−1/4 1/2
80
10
X=
=
3/8
−1/4
60
15
Desta forma, podem ser produzidos dez componentes eletrônicos do tipo A semanais e
quinze do tipo B.
Podemos trabalhar outros exemplos de aplicações de matrizes, como é dado pelo encobrimento de mensagens. A história da humanidade mostra a Júlio César , o grande
imperador Romano, como sendo um dos precursores na área de Criptografia, que é a
ciência das comunicações secretas, que vem a resolver o seguinte problema:
Transmitir a um destinatário de maneira segura uma mensagem ou informação de forma que somente o destintário possa entender o conteúdo, apesar de que outras pessoas possam ter acesso a mensagem.
Quando transformamos uma mensagem ou informação de tal forma que possa ser
entendida somente pelo destinatário, diremos que a mensagem ou a informação esta codificada, e que o destinatário conhece a decodificação. Vejamos um exemplo dado pela
história da humanidade de como o anterior funciona. O Grande Imperador Romano Júlio
César usava um deslocamento das letras do alfabeto, de tal forma que a letra A escrevia-se
como D, e os espaços entre as palavras colocava-se a letra A. O anterior parece muito fácil,
basta conhecer o idioma ou saber ler e escrever bem para codificar e decodifivcar estas
mensagens, mas recordemos que saber ler e escrever nos tempos de Julio César era coisa
de muito, mas muito poucos, o que tornava o sistema anterior complexo para a época.
Vejamos o seguinte exemplo: A frase ”Historias Curiosas Na Matemática”, escreve-se da
seguinte forma:
KLVWRULDVAFXULRVDVAQDAPDWHPDWLFD
Que tão difı́cil serı́a para o exercito inimigo decifrar esta mensagem?. Não sabemos da
habilidade dos inimigos de Júlio César, mas este tipo de codificação não é difı́cil descobrir.
Basta estudar a frequência em que as letras aparecem, que varia de idioma para idioma, e
a quantidade de mensagem que você tem, é o que vai te ajudar muito para você descobrir
a decodificação. O anterior dá uma ideia para decodificar o código de transposição de
Júlio César.
33
CAPÍTULO 2. MATRIZES
Agora, a história mais recente mostra uma sofisticação na forma de codificar e decodificar mensagens. Durante a primeira Guerra Mundial, os Britânicos interceptaram
uma mensagem codificada do ministro de relações Exteriores de Alemanha, Arthur Zimmermann, dirigida ao embaixador no México, Heinrich von Eckardt. Depois de muito
trabalho, os analistas Britânicos conseguiram quebrar a mensagem, e descobriram um
plano por parte do Governo Alemão de estimular o México para participar na guerra
como aliado do Governo Alemão. Em contrapartida, o México recuperaria as terras perdidas para os Estados Unidos em 1847.
Foi enviado um aviso ao Presidente dos Estados Unidos, Woodrow Wilson, que o
ajudou a decidir pela entrada na guerra imediatamente junto com os aliados. O que provavelmente, acelerou o final da primeira Guerra Mundial. O sistema de codificação alemão
estava baseado na teoria de matrizes estudada neste texto. Por exemplo, consideremos as
seguintes matrizes:
5 −3
2 3
B0 =
A0 =
−3 2
3 5
que são tais que:
A0 × B0 =
2 3
3 5
×
5 −3
−3 2
=
1 0
0 1
Vejamos, agora como poderı́amos usar as operações com matrizes para esconder informações, de uma maneira mais eficiente que a implementada por Júlio César.
Comencemos por atribuir a cada letra do alfabeto um número, da seguinte forma:
A B C D E F G H I J K L M
1 2 3 4 5 6 7 8 9 10 11 12 13
N O P Q R S T U V W X Y Z
14 15 16 17 18 19 20 21 22 23 24 25 26
Codifiquemos a seguinte mensagem:
O Número é a origem de todas as coisas (PLATON)
Começaremos dividindo a mensagem em pares de letras, pois a matriz que estamos
considerando é de tamanho 2 × 2, como segue:
ON UM ER OE AO RI GE MD ET OD AS AS CO IS AS PL AT ON
Com a divisão anterior, transformaremos os pares de letras, em colunas da seguinte
forma:
15
21
5
1
18
7
14
13
18
15
9
5
3
1
1
15
5
13
15
19
19
4
20
4
15
1
16
1
9
14
20
12
19
19
34
CAPÍTULO 2. MATRIZES
2 3
para ocultar a nossa mensagem. Faremos
Agora, usaremos a matriz A0 =
3 5
isto, multiplicando cada uma das nossas colunas pela matriz A0 anterior. Então, temos o
seguinte
colunas:
de novas
conjunto
29
63
47
64
81
72
115 128 105
78
99
46
38
70
42
59
59
51
98
59 115 65 98 84
75
59
68
62
57
122
98
108
103
115
Para decodificar a mensagem anterior,
procedemos
da seguinte forma: Ele, o desti5 −3
natário, deve conhecer a matriz B0 =
que é a matriz inversa da matriz
−3 2
A0 . Onde ele multiplica as novas colunas pela matriz B0 e poderá ler a mensagem de
forma correta. Veja que a mensagem anterior é muito difı́cil de decodificar, se não se
conhecem as matrizes A0 e a matriz B0 , mas não é impossı́vel. Uma outra dificuldade
passa pelo fato de encontrar gente qualificada na área de Álgebra para poder entender e
poder desenvolver um sistema de decodificação, que poderı́a ser comparada a dificuldade
de Julio César, para encontrar gente qualificada com o idioma. A mensagem dirigida ao
embaixador da Alemanha no México decodificado pelo serviço de inteligência Britânico,
estava codificado via uma matriz de 6 × 6.
De quantas formas podemos escolher a nossa matriz inversı́vel A0 ?
A resposta a pergunta anterior é dada pelo seguinte Teorema.
a b
Proposição 2.5.5 Uma matriz
admite inversa com entradas inteiras, se e
c d
somente se, ad − bc é 1 ou −1
a b
e f
Dem. Sejam A =
eB=
duas matrizes com entradas inteiras, tais
c d
g h
que AB = I, então det(A) = ad − bc = p e det(B) = eh − gf = q também são inteiros.
Portanto, det(AB) = det(A)det(B) = pq = 1 = det(I) e como p, q são inteiros temos que
p, q são divisores de 1, se e somente se, p = q = 1 ou p = q = −1.
Os exemplos anteriores deixam pelo menos duas perguntas:
• Quando uma matriz tem inversa?ou Como decidir se uma determinada
matriz admite inversa?
• Como calcular esta inversa, se ela existir.
Um dos objetivos no próximo capı́tulo, é tentar responder estas duas perguntas.
CAPÍTULO 2. MATRIZES
2.5.1
35
Exercı́cios
1. Verifique se as seguintes afirmações são verdadeiras ou falsas, e justifique a sua
resposta.
a) Se A não é uma matriz quadrada, então não existe A−1 .
b) Se A, B ∈ Mn são matrizes inversı́veis, então A + B também é invertı́vel.
c) Se A, B ∈ Mn são matrizes singulares, então A + B é singular.
2. Sejam A, B, C ∈ Mn matrizes inversı́veis. Então ache o valor da matriz X nas
seguintes igualdades.
a) A(X + C) = BC
b) B(X + AC) = X + C
3. Seja A ∈ Mn tal que, Am = In para algum inteiro m. Mostre que a matriz A é
invertı́vel. Qual é a inversa da matriz A?.
4. Seja A ∈ Mn . Diremos que a matriz A é nilpotente, se existe um inteiro k > 0, tal
que Ak = 0 e Ak−1 6= 0. Mostre que, se a matriz A é nilpotente, então a matriz A
não é invertı́vel.
2 5
3
5. Sejam A =
e B =
. Ache a matriz X que satisfaz a seguinte
1 3
2
equação : AX = B
6. Use a matriz A do exercı́cio anterior para calcular A−2 e A−3 .
7. Calcule a inversa da matriz A ∈ Mn diagonal:
aij 6= 0 se i = j
A=
aij = 0 se i =
6 j
8. Seja A =
a b
c d
. Mostre que A é invertı́vel se ∆ = ad − bc 6= 0 e calcule A−1 .
9. Seja A ∈ Mn .
a) Se A3 = 0 então mostre que I − A é uma matriz invertı́vel.
b) Em geral, se An = 0 para algum n ∈ N, então mostre que a matriz I − A é
invertı́vel.
c) Suponha que A3 − A − I = 0. Então mostre que a matriz A é invertı́vel.
cosθ −senθ
cos2θ
−sen2θ
10. Seja A =
. Mostre que A2 =
. Use induçao
senθ cosθ
sen2θ cos2θ
para determinar An , onde n ∈ N.
36
CAPÍTULO 2. MATRIZES
11. Use sistema de Júlio César para decodificar a seguinte mensagem:
HVWXGDUAPHAIDCAEHP
12. Decodifique a seguinte mensagem:
23
89
67
103
11
39
14
52
43
52
6
20
45
21
16
9
39
20
51
30
43
24
56
37
Capı́tulo 3
Sistemas de Equações e Inversão de
Matrizes
3.1
Forma Reduzida de Matrizes
Vimos, no final do capı́tulo anterior, a importância da existência de matriz inversa
na resolução de sistema de equações lineares, como ilustra o seguinte exemplo:
2x +4y = 80
3x +2y = 60
fazendo uso da notação matricial segue que:
2 4
x
80
=
3 2
y
60
então, calculando a inversa da matriz
2 4
3 2
−1
=
−1/4 1/2
3/8
−1/4
, a solução do
sistema linear anterior é dada por :
x
−1/4 1/2
80
10
X=
=
=
y
3/8
−1/4
60
15
Veja quena solução
que encontramos no problema acima, usamos o cálculo da inversa
2 4
. Esta é a única forma de calcular o conjunto solução de
da matriz
3 2
sistemas de equações lineares?. E se tivermos uma outra maneira de calcular
o conjunto de soluções do sistema linear, modificando o sistema original?. Será
que o conjunto de soluções do sistema de equações lineares é o mesmo?. Será
que é possivel transformasr este sistema de equações lineares em um outro
muito mais simples?. Como poderia ser feito isto?. Será que o conjunto de
soluções do sistema inicial e o do sistema transformado coincidem?. A partir
37
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
38
do exemplo anterior podemos mostrar o seguinte processo de resolver o mesmo sistema
de equações lineares, para tentar responder algumas das perguntas feitas anteriormente:
L1 : 2x +4y = 80
L2 : 3x +2y = 60
Se multiplicarmos L1 por
1
2
temos o seguinte novo sistema de equações :
L1 : x +2y = 40
L2 : 3x +2y = 60
A seguir, podemos multiplicar a primeira equação do sistema L1 por −3 e somar com
a segunda equação L2 , desta forma obtemos o seguinte sistema:
L1 : x +2y = 40
L2 : 0x −4y = −60
Agora, se multiplicarmos a segunda equação L2 por
equações:
L1 : x +2y = 40
L2 : 0x +y = 15
−1
4
temos o seguinte sistema de
Finalmente, se multiplicamos a segunda equação L2 por −2 e somamos com L1 temos:
L1 : x +0y = 10
L2 : 0x +y = 15
Observe que, o conjunto solução do sistema de equações acima é o mesmo encontrado
fazendo uso do cálculo de inversa. O método descrito no exemplo é conhecido como o
método de Gauss1 para resolver sistemas de equações. Veja que se mudarmos de ordem
as equações anteriores ou, se multiplicamos a igualdade por uma constante não nula as
soluções do sistema continuam sendo as mesmas, então consideremos a seguinte definição.
Definição 3.1.1 Chamaremos de operações elementares em um sistema de equações lineares, as seguintes :
a) Trocar a ordem das equações do sistema .
b) Multipilicar uma equação do sistema por uma escalar não nulo.
c) Somar a uma equação do sistema o múltiplo escalar de outra equação do sistema.
Veja que as operações descritas na definição anterior, diz que as novas equações resultantes, depois de aplicar estas operações elementares, são somas e multiplos escalares das
equações originais, ou são uma ”combinação linear”das equações anteriores. Esta noção
de combinação linear, será mostrada com mais clareza e detalhe no capı́tulo 4. Mas temos
a seguinte definição:
1
Carl Friederich Gauss(1777-1855), é considerado por muitos matemáticos , como o maior Matemático
que já existiu, e por muitos denominado o ”Principe da Matematica”
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
39
Definição 3.1.2 Diremos que dois sistemas de equações lineares A e B são equivalentes quando cada equação do sistema de equações lineares B pode-se obter como uma
combinação linear das equações do sistema de equações lineares A, ou vice-versa.
Logo, segue a seguinte proposição.
Proposição 3.1.1 Sistemas equivalentes de equações lineares, têm o mesmo conjunto de
soluções.
Fazendo uso da notação matricial, introduzida no capı́tulo anterior, no exemplo acima,
temos a seguinte sequência de novas matrizes associada a cada um dos novos sistemas de
equações lineares obtidos no començo deste capı́tulo.
2 4 : 80
L1 : 2x +4y = 80
3 2 : 60
L2 : 3x +2y = 60
1 2 : 40
L1 : x +2y = 40
3 2 : 60
L2 : 3x +2y = 60
L1 : x +2y = 40
1 2
: 40
L2 : 0x −4y = −60
0 −4 : −60
1 2 : 40
L1 : x +2y = 40
0 1 : 15
L2 : 0x +y = 15
L1 : x +0y = 10
1 0 : 10
L2 : 0x +y = 15
0 1 : 15
A partir do anterior temos a seguinte definição.
Definição 3.1.3 Seja A ∈ Mn,m . As seguintes operações efetuadas na matriz A, são
chamadas de operações elementares de linhas :
ǫ1 ) Transposição de duas linhas da matriz A.
ǫ2 ) Multiplicação de uma linha da matriz A por um escalar não nulo.
ǫ3 ) Subtituição da r-ésima linha da matriz A pela linha r-ésima linha da matriz A mais
c vezes a linha s da matriz A, onde 0 6= c ∈ K e r 6= s.
Veja que estas operações elementares nas linhas podem ser vistas como aplicações
ǫi : Mn,m −→Mn,m , onde i = 1, 2, 3 na definição anterior. Neste sentido, para cada
operação elementar ǫi existe uma operação elementar do mesmo tipo ǫi ′ tal que
ǫi (ǫi ′ (A)) = A = ǫi ′ (ǫi (A))
para todo i = 1, 2, 3.
No decorrer deste texto, sempre trabalharemos com operações elementares
nas linhas, com isto queremos destacar que é possı́vel fazer um trabalho similar
considerando operações elementares somente nas colunas.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
40
Definição 3.1.4 Sejam A, B ∈ Mn,m . Diremos que a matriz A é equivalente a matriz
B, se existe um número finito de operações elementares α1 , α2 , · · · , αn tal que
α1 α2 · · · αn (A) = B
Que denotaremos por A ∼ B.
Agora vamos responder a uma das perguntas feitas anteriormente, a saber, dados
dois sistemas de equações lineares equivalentes, eles têm o mesmo conjunto
solução?, por meio da seguinte proposição.
Proposição 3.1.2 Sejam [A : Y ], [B : Z] duas matrizes aumentadas correspondentes a
sistemas de equações lineares de n equações e m indeterminadas. Se [A : Y ] ∼ [B : Z],
então os sistemas de equações AX = Y e BX = Z têm o mesmo conjunto solução.
Dem. Sejam [A : Y ], [B : Z] matrizes aumentadas tais que [A : Y ] ∼ [B : Z], então existe
uma sucessão finita de operações elementares tal que leva a matriz [A : Y ] na matriz
[B : Z], isto é,
[A : Y ] = [A0 : Y0 ] ֒→ [A1 : Y1 ] ֒→ · · · ֒→ [Ak : Yk ] = [B : Z]
Observe que se conseguirmos provar a proposição para um dos passos, isto é, que o
sistema Aj X = Yj e o sistema Aj+1 X = Yj+1 , são equivalentes, então terão o mesmo
conjunto de soluções, a proposição segue.
Sem perda de generalidade, vamos supor que realizamos uma operação elementar na
matriz [A : Y ] e obtemos a matriz [B : Z], então temos que as equações do sistema de
equações lineares BX = Z são uma combinação das equações do sistema de equações
lineares de AX = Y , e vice versa, pois recordemos que existem as operações elementares
inversas. Portanto, os sistemas são equivalentes e, portanto tem o mesmo conjunto de
soluções como querı́amos.
Consideremos o seguinte exemplo.
Exemplo 3.1.1 Sejam o sistema de equações lineares e a matriz aumentada considerada
anteriormente,
L1 : 2x +4y = 80
2 4 : 80
L2 : 3x +2y = 60
3 2 : 60
onde mostramos a seguinte sequência de passos, usando
aumentada, como segue:
2 4 : 80
1 2 : 40
֒→
֒→
3 2 : 60 21 L1 3 2 : 60 −3L1 +L2
1 0
1 2 : 40
֒→
0 1 : 15 −2L2 +L1 0 1
operações elementares na matriz
1 2
: 40
0 −4 : −60
: 10
: 15
֒→
−1
L2
4
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
41
Como vimos anteriormente, o conjunto solução dos sistemas de equações
associados
2 4 : 80
e
é o mesmo, veja que a partir 3.1.2 o conjunto solução associado a
3 2 : 60 1 2 : 40
1 2 : 40
é o mesmo, e de maneira análoga o conjunto solução de
3 2 : 60
3 2 : 60
1 2
: 40
e o de
também é o mesmo. Portanto, podemos concluir que o con0 −4 : −60 2 4 : 80
1 0 : 10
junto solução associado a
e
é o mesmo, como querı́amos
3 2 : 60
0 1 : 15
mostrar.
Definição 3.1.5 Seja R ∈ Mn,m . Diremos que a matriz R é escalonada reduzida
por linhas se:
a) O primeiro elemento não nulo em cada linha não nula da matriz R é 1 (da esquerda
para direita).
b) Cada coluna da matriz R que tem o primeiro elemento não nulo de alguma linha tem
todos os outros elementos da coluna nulos.
c) Todas as linhas nulas da matriz R (se existirem) estão abaixo das linhas não nulas da
matriz R.
d) Se as linhas 1, ..., r são as linhas não nulas da matriz R, e o primeiro elemento não
nulo da linha i ocorre na ji -ésima coluna (i = 1, ..., r), então o primeiro elemento
não nulo da linha i + 1 ocorre na coluna ji+1 , onde ji+1 > ji .
Na maioria dos textos de Álgebra Linear, os itens a, b da definição anterior correspondem ao conceito de matriz reduzida. A importância do conceito anterior está dado na
seguinte proposição.
Proposição 3.1.3 Seja A ∈ Mn,m . Então, a matriz A é equivalente a uma matriz
escalonada reduzida por linha.
Dem. Seja A ∈ Mn,m . Se a matriz A tiver alguma linha nula, então fazendo uso das
transposições de linhas podemos colocar estas linhas na parte inferior da matriz A, obtendo assim uma nova matriz que denotaremos por A1 , então podemos assumir que a
matriz A é equivalente a matriz A1 . Sem perda de generalidade, podemos supor que a
primeira linha de A1 não é nula. Se o primeiro elemento não nulo desta linha não nula
estiver na coluna j, digamos a1j e não fôr 1, então podemos aplicar a segunda operação
elementar multiplicando a primeira linha por 1/a1j . Agora, podemos ter que o primeiro
novo termo não nulo da nova matriz é 1, então fazendo uso da terceira operação elementar podemos anular todos o termos abaixo deste 1, que como a matriz é finita, temos um
núnero finito de operações elementares a serem feitas. De maneira análoga ao anterior
procedemos com a segunda linha, mas desta vez anulamos também os elementos não nulos
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
42
acima deste termo igual a 1, continuando com este processo até a r-ésima linha não nula.
Claramente, só falta agora colocar a matriz para que a condição d seja satisfeita, mas
para isso basta usar transposições de linhas, para colocar as linhas não nulas em ordem
crescente. Finalmente temos que a matriz A é equivalente a uma matriz R escalonada
reduzida, como querı́amos.
Como consequência da proposição anterior, temos a seguinte aplicação.
Proposição 3.1.4 Seja A ∈ Mn,m tal que n < m, então o sistema homogêneo AX = 0
admite uma solução não trivial.
Dem. Como toda matriz A é equivalente a uma matriz R escalonada reduzida, pela
proposição anterior segue que os sistemas homogêneos AX = 0 e RX = 0 admitem o
mesmo conjunto de soluções. Logo estudemos o sistema RX = 0. Seja r o número de
linhas não nulas da matriz R, logo segue que r ≤ n < m, portanto teremos no sistema
homogêneo mais indeterminadas que equações, logo admite soluções não triviais, ou seja
que o sistema homogêneo AX = 0 admite soluções não triviais.
Veja que esta proposição diz que um sistema homogêneo da forma AX = 0, onde
A ∈ Mn,m , só tem solução trivial se o número de linhas da matriz A é menor ou igual
ao número de colunas desta matriz. Esta observação é muito importante para a seguinte
proposição.
Proposição 3.1.5 Seja A ∈ Mn , e se o sistema de equações lineares homogêneo AX = 0
admite só a solução trivial, então a matriz A é equivalente a matriz identidade In .
Dem. Seja R a matriz escalonada reduzida associada a matriz A, e r o número de linhas
não nulas da matriz R. Como o sistema AX = 0 só admite a solução trivial, então o
sistema RX = 0 tambem tem só a solução trivial. Então, pela proposição 3.1.4 temos
que r ≥ n, mas por outro lado r ≤ n que é o número de linhas não nulas da matriz R,
portanto r = n. Logo, a partir da definição de R temos que R = In , como querı́amos. Exemplo 3.1.2 Consideremos o seguinte sistema homogêneo:

 x +y +z = 0
2y +z = 0

y
+z = 0
admite somente a solução trivial, então é equivalente ao sistema homogêneo:

= 0
 x
y
= 0

z = 0
onde a matriz R neste caso é a matriz identidade I3 .
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
43
Consideremos agora o caso não homogêneo. Seja [A : Y ] a matriz aumentada associada
ao sistema não homogêneo AX = Y , e seja [R : Z] a matriz escalonada reduzida associada
a [A : Y ], e claro!!, associada ao sistema não homogêneo RX = Z. Como ambos sistemas
têm o mesmo conjunto de soluções, basta estudar o sistema RX = Z. Seja r o número de
linhas não nulas da matriz R, então segue que existem (n − r) indeterminadas em função
das r outras indeterminadas x1 , ..., xr e escalares z1 , ..., zr . Logo, as (n − r) equações
restantes são da forma :
0 = zr+1
..
..
.
.
0 = zn
Portanto, para um sistema não homogêneo ter solução, ou ser consistente, temos que
zi = 0 para todo i > r, caso contrário, diremos que o sistema de equações lineares é
inconsistente. Para exemplificar o anterior vejamos o seguinte exemplo.
Exemplo 3.1.3 Consideremos o seguinte sistema de equações lineares não homogêneo:

 2x +y +z = 7
y
+z = 4

x
= 1
Logo,

2
 0
1
a matriz aumentada e


1 1 7
1


1 1 4
0
֒→
L1 ∼L3
0 0 1
2

reduzida escalonada associada


0 0 1
1 0 0


1 1 4
0 1 1
֒→
−2L1 +L3
1 1 7
0 1 1
1 0

0 1
onde a última matriz
0 0
sistema AX = B, dado acima.
0x + 0y + 0z = 1, vemos que o
é dada por :



1
1 0 0 1
4  ֒→  0 1 1 4 
−L2 +L3
5
0 0 0 1

0 1
1 4  é escalonada reduzida, associada a matriz A, do
0 1
Pela última linha desta matriz, que representa a equação
sistema não homogêneo AX = Y é inconsistente.
Em geral temos o seguinte, dado um sistema não homogêneo da forma AX = B
onde A ∈ Mn e X, B ∈ Mn,1 , temos claramente um sistema homogêneo associado, a
saber, AX = 0. Será que existe relação entre os conjuntos de soluções dos dois sistemas
anteriores? (Homogêneo e não Homogêneo?). Vamos supor que o sistema não homogêneo
admite uma solução, digamos v ∈ Mn,1 tal que Av = B. Se considerarmos agora, uma
solução u ∈ Mn,1 qualquer do sistema homogêneo AX = 0, é simples verificar que u + v
tambem é uma solução do sistema não homogêneo AX = B. Então temos o seguinte
resultado.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
44
Proposição 3.1.6 Seja v ∈ Mn,1 uma solução do sistema não homogêneo AX = B onde
A ∈ Mn e X, B ∈ Mn,1 . Então toda solução do sistema não homogêneo é da forma v + u
onde u ∈ M1,n percorre as soluções do sistema homogêneo AX = 0 associado a AX = B.
Dem. Só resta mostrar que toda solução do sistema não homogêneo AX = B é da forma
v +u onde v é a solução particular fixa do sistema não homogênea, e u percorre as soluções
do sistema homogêneo AX = 0. Seja z ∈ M1,n uma solução qualquer de AX = B, então
como z é solução temos :
n
X
aij zj = bi
j=1
Mas, como v é uma solução particular de AX = B segue que:
n
X
aij vj = bi
j=1
Portanto, fazendo a diferença das duas igualdades anteriores segue que
n
X
j=1
aij (zj − vj ) = 0
Portanto, z − v é uma solução do sistema homogêneo AX = 0. Então, existe uma
solução u do sistema homogêneo AX = 0 tal que esta solução é da forma u = z − v, isto
é, z = u + v como querı́amos.
Exemplo 3.1.4 Consideremos o sistema de equações lineares dado no exemplo 3.1.1 dado
por :
L1 : 2x +4y = 80
L2 : 3x +2y = 60
Então, podemos considerar a solução (x = 10, y = 15) como sendo uma solução particular do sistema não homogêneo. Então procuremos a solução geral do sistema homogêneo
associado, isto é, procuremos a solução de :
L1 : 2x +4y = 0
L2 : 3x +2y = 0
que claramente tem como solução (x = 0, y = 0, então a solução de
L1 : 2x +4y = 80
L2 : 3x +2y = 60
é realmente (x = 10, y = 15) = (0, 0) + (10, 15)
Observe que se o sistema homogêneo AX = 0̄ admite infinitas soluções,
então o sitema não homogêneo AX = B também admite infinitas soluções.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
3.1.1
45
Exercı́cios
1. Reduza cada uma das seguintes matrizes a sua forma escalonada reduzida.






3 6 7
2
8 − 7
2 8 4
1 8 9  b) 
2 − 3
5  c)  − 1 4 0 
a) 
− 6 8 1
− 5
6
1
6 24 12
2. Quais das seguintes matrizes são equivalentes por linhas?.
3 6 0
0 1
2 1
a)
b)
c)
2 1 4
4 3
4 3






1 0 0
− 2
1 0
2 1 1
4 − 3 2  f)  4 0 1 
d)  0 4 0  e) 
2 0 1
5
6 1
6 24 12
3. Usando escalonamento reduzido ache as soluções dos seguintes sistemas, se tiver.
a)
c)
x +y −z = 0
2x +5y −2z = 0
x −y +z = 0
d)
b)

 x −2y −z −w = 7
= 3
e) 2x −3y

x −y −z +w = 1
x +y −z = 4
x −y +z = 2
3x −6y +2z = 0
5x −y +3z = 0

 x −y +2z = 4
f ) 3x +y +4z = 6

x +y +z = 1
4. Mostre, geometricamente (Fazendo o gráfico de cada uma das equações do sistema
linear) e algébricamente (Usando as ferramentas desenvolvidas ate aqui), que o
seguinte sistema é consistente.

 x +y +z = 3
2y z
= 2

+y +z = 2
5. Mostre, geometricamente e algébricamente,

 x +y
x −y

2x +y
que o sistema é inconsistente.
= 2
= 0
= 2
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
3.2
46
Inversão de Matrizes
Nesta seção, estamos interessados em usar as informações dadas na seção 3.1, com
relação a operações elementares, e trabalhar com o conceito de matrizes elementares para
encontrar condições necessárias e suficientes para que uma matriz A seja inversı́vel.
Definição 3.2.1 Seja A ∈ Mn . Diremos que a matriz A é uma matriz elementar, se
ela se obtem da matriz identidade In , após ter realizado uma operação elementar em In .
Denotaremos por Ei = ǫi (In ), a matriz elementar associada a operação elementar ǫi ,
onde i = 1, 2, 3, da definição 3.1.3.
Exemplo 3.2.1 Consideremos o caso particular n = 3 na definição 3.2.1, e a partir das
operações definidas em 3.1.3, podemos determinar algumas matrizes elementares onde
c 6= 0 ∈ K:
• Com relação a primeira
elementares :

0 1
1

1 0
E1 =
0 0
operação elementar ǫ1 podemos ter as seguintes matrizes





0
1 0 0
0 0 1
0  E21 =  0 0 1  E31 =  0 1 0 
1
0 1 0
1 0 0
Onde foi trocada a primeira linha com a segunda linha na primeira matriz, a segunda
linha com a terceira linha na segunda matriz e finalmente primeira linha com a
terceira linha.
• Com relação a segunda operação elementar
tares:



c 0 0
1
2
2



0 1 0
0
E1 =
E2 =
0 0 1
0
ǫ2 , temos as seguintes matrizes elemen


0 0
1 0 0
c 0  E32 =  0 1 0 
0 1
0 0 c
Onde foi multiplicada a primeira linha, a segunda e terceira linha por uma constante
0 6= c ∈ K, respectivamente.
• Com relação a terceira operação elementar
tares:



1 c 0
1
E13 =  0 1 0  E23 =  c
0 0 1
0
ǫ3 temos as seguintes matrizes elemen


0 0
1 0 0
1 0  E33 =  0 1 0 
0 1
0 c 1
Onde foi multiplicada a segunda linha por uma constante c 6= 0 ∈ K e somada
na primeira linha, a segunda matriz é o resutado de multiplicar a primeira linha
por uma constante c 6= 0 ∈ K e somada a segunda linha, e a terceira matriz foi
multiplicado a segunda linha por uma constante c 6= 0 ∈ K e somada a terceira
linha.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
47
Proposição 3.2.1 Sejam A ∈ Mn,m , B ∈ Mp,n e ǫi uma operação elementar nas
matrizes de ordem p × n, onde i = 1, 2, 3. Então
(∗)
ǫi (B) · A = ǫi (B · A)
Dem. Sejam B1 , ..., Bp as linhas da matriz B, e C1 , ..., Cp as linhas da matriz C = B · A.
A partir da definição de produto de matrizes, temos que Ci = Bi · A, onde i = 1, ..., p.
Como temos três tipos de operações elementares, distinguiremos três casos:
ǫ1 ) Trocar a linha r com a linha s.
 ′
 Cr = Bs · A
′
ǫ1 rs (C) =
Cs = Br · A
 ′
Ci = Ci i 6= r, s
ǫ2 ) Multiplicar a r-ésima linha por c 6= 0 ∈ K.
′
Cr = cBr · A
ǫ2 (C) =
′
Ci = Ci i 6= r
ǫ3 ) Susbstituir a r-ésima linha pela linha r mais c vezes a linha s.
′
Cr = (cBs + Br ) · A
ǫ3 (C) =
′
Ci = Ci i 6= r
′
Claramente, em cada um dos casos anteriores temos que Cj = ǫi (Bj ) · A, para todo
j = 1, ..., p.
Veja que a proposição 3.2.1 diz que, aplicar uma operação elementar numa matriz B, e
depois multiplicar este resultado pela matriz A é análogo a primeiro fazer a multiplicação
das matrizes B e A e depois aplicar a operação elementar. Como consequência direta da
proposição 3.2.1, temos o seguinte corolário.
Corolário 2 Seja A ∈ Mn,m e B = In . Então
E · A = ǫ(In ) · A = ǫ(In · A) = ǫ(A)
onde E é uma matriz elementar.
Recordemos que ǫ(In ) é uma matriz elementar, ou seja o corolário anterior diz que,
realizar uma operação elementar ǫi numa matriz A, é o mesmo que multiplicar a matriz
A, pela matriz elementar ǫi (In ) = Ei associada a operação elementar ǫi , onde i = 1, 2, 3,
definidas em 3.1.3. A partir da observação após a definição 3.1.3, temos que toda matriz
elementar é inversı́vel.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
48
Proposição 3.2.2 Sejam A, B ∈ Mn,m . Então A ∼ B se, e somente se, existe uma
matriz inversı́vel P ∈ Mn tal que A = P · B e a matriz P é o produto finito de matrizes
elementares.
Dem. ⇒ ) Sejam A, B ∈ Mn,m tal que A ∼ B. Logo sabemos que existe um número finito
de operações elementares, digamos ǫ1 , ..., ǫt tal que ǫt ·ǫt−1 · · · ǫ1 (A) = ǫt ·ǫt−1 · · · ǫ1 (In )·A =
B onde ǫt · ǫt−1 · · · ǫ1 (In ) = P e como cada uma das matrizes elementares Ei = ǫi (In ) é
inversı́vel, para todo i = 1, ..., t, segue que a matriz P é inversı́vel.
⇐ ) Vamos supor que existe uma matriz inversı́vel P = Et · · · E1 , onde cada uma das
matrizes Ei , com i = 1, ..., t é matriz elementar e a matriz P é tal que A = P · B. Logo
segue que E1 B ∼ B, e E2 · E1 · B ∼ B, e assim sucessivamente. Mas como só temos um
número finito de matrizes segue que A ∼ B.
Proposição 3.2.3 Seja A ∈ Mn . Então são equivalentes :
i) A matriz A é inversı́vel.
ii) A matriz A tem inversa à esquerda.
iii) O sistema homogêneo AX = 0 só tem solução trivial.
iv) A matriz A é o produto de matrizes elementares.
Dem. i) ⇒ ii)) Seja A ∈ Mn inversı́vel, então por definição ela tem inversa pela direita
e esquerda.
ii) ⇒ iii)) Seja P a matriz inversa à esquerda da matriz A, logo multiplicando o
sistema linear AX = 0 pela matriz P pela esquerda segue que:
P (AX) = P · 0 ⇔ (P · A)X = 0 ⇔ In X = 0 ⇔ X = 0
Portanto, só tem a solução trivial X = 0.
iii) ⇒ iv)) Seja R a matriz reduzida escalonada associada a matriz A, então segue
que RX = 0 só admite a solução trivial, logo R = In . Portanto A ∼ In , e pela proposição
3.2.1, existe uma matriz inversı́vel P , dada pelo produto de matrizes elementares, tal que
A = P · In = P .
iv) ⇒ i)) Seja A = Et · · · E1 , onde Ei é uma matriz elementar com i = 1, ..., t. Logo,
a matriz A é o produto finito de matrizes inversı́veis, então A é inversı́vel.
Corolário 3 Seja A ∈ Mn . Se A tem inversa à esquerda (ou direita) então ela é inversı́vel.
Corolário 4 Seja A ∈ Mn . Se A ∼ In se, e somente se A é inversı́vel.
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
49
Corolário 5 Seja A ∈ Mn . Se A é inversı́vel, então a mesma sequência de operações
elementares aplicada na matriz In , obtemos a matriz A−1 .
Dem. Como a matriz A é inversı́vel, temos que pelo corolário 4 que A ∼ In , isto é,
A = Et · · · E1 · In , onde as matrizes Et , ..., E1 são matrizes elementares, logo inversı́veis,
portanto temos que E1−1 · E2−1 · · · Et−1 · A = In e segue que A−1 = E1−1 · E2−1 · · · Et−1 =
−1
−1
−1
−1
−1
ǫ−1
1 (In ) · ǫ2 (In ) · · · ǫt (In ) = ǫ1 · ǫ2 · · · ǫt (In ), como querı́amos.
Corolário 6 Se [A : In ] ∼ [In : P ], então P = A−1
Dem. Como [A : In ] ∼ [In : P ], segue que existe uma matriz inversı́vel Q, dada pelo
produto finito de matrizes elementares tal que [A : In ] = Q · [In : P ] ⇔ A = Q · In e In =
Q · P ⇔ A−1 = Q−1 = P

2 4 3
Exemplo 3.2.2 Determinemos a matriz inversa de A =  3 6 5 . Pelo corolário 5
2 5 2
temos a seguinte matriz aumentada:






1 2 23 : 12 0 0
1 2 23 : 21 0 0
2 4 3 : 1 0 0
 3 6 5 : 0 1 0  ֒→  3 6 5 : 0 1 0  ֒→  0 0 1 : −3 1 0 
2
2
1
−3L1 +L2
L
2 1
2 5 2 : 0 0 1
2 5 2 : 0 0 1
2 5 2 : 0 0 1




: 21
0 0
: 12
0 0
1 2 23
1 2 23
: −3
1 0  ֒→  0 1 −1 : −1 0 1 
֒→  0 0 12
2
L2 ∼L3
−2L1 +L3
0 0 21
0 1 −1 : −1 0 1
: −3
1 0
2




1 0 27 : 25 0 −2
1 0 72
: 52
0 −2
֒→  0 1 −1 : −1 0 1  ֒→  0 1 −1 : −1 0 1 
2L3
−2L2 +L1
: −3
1 0
0 0 21
0 0 1 : −3 2 0
2


1 0 27 : 25 0 −2
֒→  0 1 0 : −4 2 1 
L3 +L2
0 0 1 : −3 2 0

֒→
−7
L3 +L1
2


1 0 0 : 13 −7 −2
 0 1 0 : −4 2
1 
0 0 1 : −3 2
0
Logo, a partir do corolário 5 temos a inversa da matriz A é dada pela matriz


13 −7 −2
1 
A−1 =  −4 2
−3 2
0
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
50
Exemplo 3.2.3 No seguinte exemplo, mostraremos uma pequena aplicação a sistemas
de equações lineares do uso de inversa de matrizes. Seja o seguinte sistema de equações
lineares :

 2x +4y +3z = 3
3x +6y +5z = −1

2x +5y +2z = 2


2 4 3
Que matricialmente, o sistema anterior está dado por : A·X = B onde A =  3 6 5 
2 5 2
 


x
3
X =  y  e B =  −1 .
z
2
Portanto, a solução do sistema é dado por
 
 
 

13 −7 −2
3
39 + 7 − 4
42
1  ·  −1  =  −12 − 2 + 2  =  −12 
X = A−1 · B =  −4 2
−3 2
0
2
−9 − 2 + 0
−11

Exemplo 3.2.4 Recordemos que os geradores elétricos, como baterias, criam correntes
elétricas num circuito elétrico e os resistores, como lâmpadas elétricas, limitam as magnitudes das correntes.
Existêm três quantidades básicas associadas a circuitos elétricos : Potêncial elétrico
(E), a resistência (R) e a intensidade (I), que são medidas en Volt, Ohms e Amperes
respectivamente.
Em um circuito elétrico, o potêncial elétrico entre dois pontos é dado pela diferença de
potencial ou queda de tensão entre estes dois pontos. O fluxo da corrente em um circuito
elétrico é dado por três principios básicos :
a) A Lei de Ohm. A diferença de potencial através de um resistor é o produto da
corrente que passa por ele e a resistência : E=IR
b) A Lei da corrente de Kirchhoff. A soma algébrica da corrente fluindo ao interior
de qualquer circuito elétrico é igual à soma das correntes fluindo para fora do ponto.
c) A Lei de Voltagem de Kirchhoff. Em torno de qualquer circuito fechado, a soma
algébrica das diferenças de potencial é zero.
Então, consideremos a seguinte figura a seguir, e fazendo uso dos três princı́pios anteriores determinemos I1 , I2 e I3 :
Logo, a partir do princı́pio da corrente de Kirchhhoff, dado em b) anterior, segue que
:
I1 = I2 + I3 No ponto A
I2 + I3 = I1 No ponto B
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
51
A
7Ω
I1 >
I3 >
I2
>
11Ω
3Ω
30V
B
50V
Figura 3.1: Circuito Elétrico
Então temos que I1 − I2 − I3 = 0. Fazendo, uso do principio da voltagem de Kirchhoff,
dado em c) anterior, temos :
7I1 + 3I3
= −30
−3I3 + 11I2 = −50
Agora, como I1 = I2 + I3 temos o seguinte sistema de equações lineares :
7 10 −30
7I2 + 7I3 + 3I3 = −30
11 −3 −50
−3I3 + 11I2
= −50
Fazendo uso de operações elementares segue que :
−30
7 10 −30
1 10
1
7
7
֒→
֒→
1
11 −3 −50
11
−3
−50
0
−11L
+L
1
2
L
7 1
֒→
−7
L
131 2
1
0
10
7
1
−30
7
20
131
Portanto, temos que I2 =
֒→
−10
L2 +L1
7
−590
131
e I3 =
I1 = I2 + I3 =
Como solicitado.
1 0
0 1
20
131
−590
131
20
131
10
7
−131
7
−30
7
−20
7
e logo, podemos tambem conhecer
20
−570
−590
+
=
131
131
131
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
52
Na seção 3.1 definimos operações elementares sobre as linhas, mas de maneira análoga
podem ser definidas operações elementares sobre as colunas, e ao igual que antes, obter
todos os resultados enunciados neste capı́tulo trocando, nos enunciados dos resultados,
linhas por colunas. Logo, podemos dizer que as matrizes A, B ∈ Mn,m são equivalentes por coluna, que denotaremos por A∼B se fizermos um número finito de operações
c
elementares nas colunas da matriz B até obter a matriz A, e de maneira análoga diremos que uma matriz é dita elementar se ela pode-se obter da matriz identidade após ter
feito uma operação elementar nas colunas da matriz identidade. Portanto, temos que,
toda matriz elementar coluna é inversı́vel e toda matriz inversı́vel pode-se escrever como
um produto finito de matrizes elementares colunas. Mas, sempre estaremos interessados
nas operações linha, por uma questão de comodidade e familiaridade ao trabalhar com
sistemas de equações lineares.
3.2.1
Exercı́cios


1 3 9
1. Reduza a matriz A =  2 8 4  a uma matriz escalonada reduzida R. Escreva a
3 6 7
matriz elementar em cada um dos passos, e depois ache a matriz inversı́vel P dada
pelo produto destas matrizes elementares e verifique que R = P A.
2. Use o corolário 6 para verificar se a matriz é inversivel, e se fôr, calcule a sua inversa
em cada um dos casos.






3 −2 1
9 6 −2
2 7
3
−3  b)  5 1 8  c)  5 9
2 
a)  2 7
3 
1 0 7
6 −5 3
 1 9
7
5 12
3 1
5 −9


d) −2 9 −3
e)
f)
7 −3
1 9
11 4 6
a b
. Mostre, usando operações elementares que a matriz A é in3. Seja A =
c d
versı́vel se, e somente se, ad − bc 6= 0.
4. Ache a solução do seguinte sistema de equações lineares, usando operações elementares.
3x
−7y = 4
−2x +5y = 8
5. Uma empresa de componentes eletrónicos, usa três tipos de máquinas P , Q e R
para produzir três tipos de componentes eletrónicos A, B e C. As maquinas P ,
Q e R podem operar 80,60 e 90 horas por semana, respectivamente. A máquina
P requer duas horas para produzir o componente eletrónico A, quatro horas para
produzir o componente eletrónico B e duas horas para produzir o componente C. A
CAPÍTULO 3. SISTEMAS DE EQUAÇÕES E INVERSÃO DE MATRIZES
53
máquina Q requer três horas para produzir o componente eletrónico A, duas horas
para produzir o componente eletrónico B, e duas horas para produzir o componente
C. A máquina R requer duas horas para produzir o componente eletrónico A, quatro horas para produzir o componente eletrónico B, e uma hora para produzir o
componente C. Estamos interessados em determinar o número de unidades de cada
componente eletrónico produzidos pelas máquinas P , Q e R por semana.
6. Fazendo uso da figura abaixo, determine I1 , I2 e I3 .
A
10 Ω
<I
1
< I3
I2
>
3Ω
6V
B
9Ω
8V
Figura 3.2: circuito elétrico
7. Fazendo uso do sistema alemão da primeira guerra mundial, visto no final do capı́tulo
anterior, para decodificar a seguinte mensagem:

 
 
 
 
 
 
 

67
83
111
58
55
60
79
49
 59   89   169   94   76   97   95   38 
41
49
87
56
38
57
53
26
Capı́tulo 4
Espaços Vetoriais
4.1
Espaços Vetoriais
Recordemos que nos capı́tulos 2 e 3 trabalhamos o conjunto Mn,m das matrizes de n
linhas e m colunas, onde definimos a operação soma (ou operação interna) ⊕ : Mn,m ×
Mn,m −→Mn,m tal que (Mn,m , ⊕) era um grupo abeliano, mas também definimos o produto
por escalar (ou operação externa) ⊙ : K ×Mn,m −→Mn,m tal que eram válidas as seguintes
propriedades onde α, β, 1 ∈ K e A, B ∈ Mn,m :
i) (α + β) ⊙ A = α ⊙ A ⊕ β ⊙ A
ii) α ⊙ (A ⊕ B) = α ⊙ A ⊕ α ⊙ B
iii) (α · β) ⊙ A = α ⊙ (β ⊙ A)
iv) 1 ⊙ A = A
A pergunta que surge é a seguinte. Será que existem outros conjuntos não vazios tais que possuam duas operações (uma operação interna e um produto por
escalar) tal que sejam satisfeitas todas as propriedaes enunciadas no parágrafo
anterior?. Em outras palavras, como serı́a a definição de uma ”soma”neste conjunto e,
como serı́a a definição de multiplicação por escalar, tal que sejam válidas todas as propriedades do parágrafo anterior?. Veja que até agora as únicas operações que a maioria
dos nossos alunos conhece são muito similares às enuncidas acima. Mas será que existem outras operações que atendam as exigências das propriedades anteriores, isto é, ter
uma operação interna que seja um grupo Abeliano, e com a operação externa atenda as
propriedades dadas pelo produto escalar?. Então, vejamos a seguinte definição.
54
CAPÍTULO 4. ESPAÇOS VETORIAIS
55
Definição 4.1.1 Seja V um conjunto não vazio e K um corpo. Diremos que V é um Kespaço vetorial se existem uma operação interna, que chamaremos de soma e denotaremos
por ⊕ : V × V −→V tal que (V, ⊕) é um grupo abeliano e uma multiplicação por escalar
que denotaremos · : K × V −→V tal que:
i) (α + β) · v = α · v ⊕ β · v
ii) α · (v ⊕ w) = α · v ⊕ α · w
iii) (αβ) · v = α · (β · v)
iv) 1 · v = v
onde α, β, 1 ∈ K e v, w ∈ V
Chamaremos de vetores os elementos do K-espaço vetorial V , e os denotaremos por
letras minúsculas. Denotaremos por 0 o vetor nulo de V e ele existe, pois (V, ⊕) é um
grupo abeliano. Vejamos agora alguns exemplos.
Exemplo 4.1.1 Consideremos V = Mn,m com a soma ⊕ : Mn,m × Mn,m −→Mn,m e
produto por escalar · : K × Mn,m −→Mn,m , então pelo capı́tulo 2 temos que (Mn,m , ⊕, ·)
é um K-espaço vetorial.
Exemplo 4.1.2 Seja V = R com a soma e produto usuais de R. Então, temos que
(R, +, ·) é um R-espaço vetorial. Observe que todo corpo K com as suas operações de
soma e multiplicação forma um K-espaço vetorial.
Exemplo 4.1.3 Seja V = C = {a + bi/a, b ∈ R, onde i2 = −1} e K = R onde a soma
é dada por (a + bi) ⊕ (c + di) = (a + c) + (b + d)i e o produto por escalar é definido por
α · (a + bi) = αa + αbi , e a + bi, c + di ∈ V , e α ∈ R, também forma um R-espaço
vetorial.
n
Exemplo 4.1.4
Pna somai
PnSeja V =i {p(x) = an x + · · · + a0 /ai ∈ K, i = 0, · · · , n} onde
p(x) ⊕ q(x) = 0 (ai + bi )x e a multiplicação por escalar é dada por α · p(x) = 0 (αai )x
também forma um K-espaço vetorial.
Exemplo 4.1.5 Seja V = {f : X−→K/X 6= Φ} onde a soma f ⊕ g = (f + g)(x) =
f (x) + g(x) e o produto por escalar α · f = (αf )(x) = αf (x). Então, (V, ⊕, ·) é um
K-espaço vetorial.
CAPÍTULO 4. ESPAÇOS VETORIAIS
56
Proposição 4.1.1 Seja V um K-espaço vetorial. Então são válidas:
i) ∀α ∈ K, temos que α · 0 = 0.
ii) 0 · v = 0.
iii) Se k · v = 0 onde k ∈ K, v ∈ V , então k = 0 ou v = 0.
iv) ∀k ∈ K, ∀v ∈ V temos que (−k) · v = k · (−v) = −(k · v).
v) Sejam v1 , · · · , vn ∈ V e c1 , · · · , cn , d1, · · · , dn ∈ K então
(c1 · v1 ⊕ · · · ⊕ cn · vn ) ⊕ (d1 · v1 ⊕ · · · ⊕ dn · vn ) = (c1 + d1 ) · v1 ⊕ · · · (cn + dn ) · vn
Dem.
i) Como o conjunto V 6= Φ e (V, ⊕) é um grupo abeliano, temos que 0 ⊕ 0 = 0, segue que
k · 0 = k · (0 ⊕ 0) = k · 0 ⊕ k · 0, agora como (V, ⊕) é um grupo abeliano, temos que
k · 0 = 0.
ii) Como K é um corpo, temos que 0+0 = 0, então segue que 0·v = (0+0)·v = 0·v ⊕0·v.
Como (V, ⊕) é um grupo abeliano, segue que 0 · v = 0.
iii) Seja k · v = 0, vamos supor que k 6= 0. Então, como K é um corpo, todo elemento
não nulo de K admite inverso multiplicativo, logo existe k −1 tal que k −1 · (k · v) =
(k −1 k) · 0 = 1 · 0 = 0 = v, como querı́amos. Agora, se o vetor v 6= 0, temos que
o escalar k pode ser zero ou diferente de zero, mas se for diferente de zero, pelo
anterior podemos concluir que o vetor v = 0, o que é uma contradição. Portanto
k = 0.
iv) Como sabemos que v ⊕ (−v) = 0, para todo vetor v ∈ V , temos que 0 = k · 0k · (v ⊕
(−v)) = k · v ⊕k · (−v), portanto segue que, −(k · v) = k · (−v). Por outro lado, como
K é um corpo temos que k +(−k) = 0, logo 0 = 0·v = (k +(−k))·v = k ·v ⊕(−k)·v.
Portanto, temos que −(k · v) = (−k) · v. Veja que se k = 1 temos que −v = (−1) · v.
v) Segue diretamente da associatividade e da distributividade de (V, ⊕).
CAPÍTULO 4. ESPAÇOS VETORIAIS
4.1.1
57
Exercı́cios
1. Mostre que o corpo dos números complexos é um espaço vetorial real, e que todo
elemento de C pode ser escrito como uma combinação linear real dos elementos
1, i ∈ C.
2. Seja V = R2
i) Definamos:(x, y) + (x′ , y ′) = (x + x′ , y + y ′ ) e c(x, y) = (cx, cy) com c ∈ R. Com
estas operações mostre que V é um espaço vetorial real.
ii) Definamos: (x, y) ⊕ (x′ , y ′ ) = (3y + 3y ′, −x − x′ ) e c ⊙ (x, y) = (3cy, −cx).
Verifique se V é um espaço vetorial real ou não.
iii) Definamos: (x, y) + (x′ , y ′ ) = (x + x′ , y + y ′ ) e c(x, y) = (x + c, y + c). Verifique
se V é ou não un espaço vetorial real.
3. Mostre que o conjunto S, solução do sistema não homogêneo AX = B, não forma
um espaço vetorial.
4. Mostre que o conjunto W = {(0, x2 , ..., xn ) ∈ Rn } com as operações usuais de soma
e produto por escalar de Rn forma um espaço vetorial real.
5. Verifique que o conjunto das matrizes diagonais de dois por dois, com as operações
usuais de soma de matrizes e produto por escalar de matrizes, forma um espaço
vetorial real.
4.2
Subespaços Vetoriais
Um dos objetivos desta seção é dar uma forma mais prática para poder decidir se
um conjunto não vazio V , juntamente com operações de soma e multiplicação por escalar,
forma um espaço vetorial ou não.
Definição 4.2.1 Seja V um k-espaço vetorial e seja W um subconjunto não vazio de V .
Se o subconjunto W de V , forma um espaço vetorial com as operações induzidas de V ,
então diremos que W é um subespaço vetorial do espaço vetorial V .
Veja que a definição anterior, realmente não ajuda muito para decidir se um conjunto
V é um espaço vetorial ou não, pois para verificar se um subconjunto W de V é um
subespaço vetorial ou não temos que mostrar que o conjunto (W, ⊕) é um grupo abeliano,
e (W, ·, ⊕) satisfaz todas as propriedades do produto por escalar. Uma forma de resolver
este problema é dado pela seguinte proposição.
CAPÍTULO 4. ESPAÇOS VETORIAIS
58
Proposição 4.2.1 Seja V um K-espaço vetorial e Φ 6= W ⊆ V . Então W é um subespaço vetorial de V se, e somente se, ∀u, v ∈ W e α ∈ K o vetor α · u ⊕ v ∈ W .
Dem. Seja V um K-espaço vetorial e Φ 6= W ⊆ V tal que W é um subespaço vetorial
de V , portanto W é um espaço vetorial, logo segue que ∀u, v ∈ W, e α ∈ K, temos que
α · u ⊕ v ∈ W.
Seja W como acima, então como Φ 6= W , então W tem pelo menos um vetor, digamos
u ∈ W , assim (−1)·u⊕u = 0 ∈ W , e logo temos que α·u = α·u⊕0 ∈ W para todo α ∈ K,
em particular temos que (−1) · u = −u ∈ W , e também temos que u ⊕ v = 1 · u ⊕ v ∈ W
Exemplo 4.2.1 Seja V um K-espaço vetorial. Então W = {0} é um subespaço vetorial,
claramente se W = V , então W também é um subespaço vetorial. Estes espaços vetoriais
são conhecidos como espaços vetoriais triviais. Veja que usando o fato de W = V não
é necessário verificar as oito propriedades de espaço vetorial, isto se reduz a verificar a
condição dada na proposição 4.2.1, i.e., para mostrar que V é um K-espaço vetorial, basta
verificar a proposição 4.2.1.
Exemplo 4.2.2 Sejam V = R3 e W = {(x, y, z)/x, y, z ∈ Z}. É facil verificar que se
α ∈ R e (x, y, z) ∈ W , então α · (x, y, z) = (αx, αy, αz) ∈
/ W , isto é, as coordenadas de
(αx, αy, αz) não são necessariamente inteiras, logo não pode estar em W . Portanto W
não é um subespaço vetorial.
Exemplo 4.2.3 Seja V = Rn , e seja W = {(0, x2 , ..., xn )/xi ∈ R onde i = 2, ..., n}.
Veja que W é um subespaço vetorial, pois sejam (0, x2 , ..., xn ), (0, y2, ..., yn ) ∈ W e seja
α ∈ R, então α · (0, x2 , ..., xn ) ⊕ (0, y2 , ..., yn ) = (0, αx2 + y2 , ..., αxn + yn ) ∈ W , pois em
W estão todas as n-uplas que tem a primeira coordenada nula.
Exemplo 4.2.4 Seja V = {f : R−→R/f é uma funcão real}, então os seguintes conjuntos são subespaços vetoriais de V . Claramente o conjunto W = {f ∈ V /f é contínua} é
subespaço vetorial de V, pois a partir dos cursos de cálculo temos que a soma de funções
contı́nuas é contı́nua, e produto de funções contı́nuas também é contı́nua, em particular a
multiplicação por escalar. Consideremos agora o conjunto Wp = {f ∈ V /f (−x) = f (x)},
que é o conjunto das funções pares, e consideremos o conjunto Wi = {f ∈ V /f (−x) =
−f (x)} que é o conjunto das funções ı́mpares, ambos conjuntos são subespaços vetoriais
de V .
P
Exemplo 4.2.5 Seja V = {p(x) = n0 ai xi /ai ∈ K, ∀i = 0, ..., n} e seja W = {p(x) ∈
V /ai = 0 se i é ímpar}. Então, a soma de polinômios de grau par continúa sendo de
grau par, e como multiplicação por escalar não altera o grau do polinômio, temos que W
é um subespaço vetorial de V .
Exemplo 4.2.6 Seja V = Mn,m e consideremos os conjuntos Ws = {A ∈ V /At = A}
e Wa = {A ∈ V /At = −A}. Como visto no capı́tulo 2, temos que tanto o conjunto Ws
como o conjunto Wa são subespaços vetoriais de V .
59
CAPÍTULO 4. ESPAÇOS VETORIAIS
Proposição 4.2.2 Seja
T V um K-espaço vetorial e sejam U e W subespaços vetoriais não
vazios de V . Então U W é um subespaço vetorial de V .
Dem. Veja que, como U, W são subespaços não vazios, então o 0 ∈ U ∩ W . Sejam
u, w ∈ U ∩ W e α ∈ K, então u, w ∈ U e u, w ∈ W , logo segue que α · u ⊕ v ∈ U e
α · u ⊕ v ∈ W pois U e W são subespaços vetoriais de V , portanto α · u ⊕ v ∈ U ∩ W
como querı́amos. Portanto, U ∩ W é um subespaço vetorial de V .
Exemplo 4.2.7 Seja S o conjunto solução


 a11 x1 + · · ·
..
.

 a x + ···
n1 1
do seguinte sistema de equações homogêneo :
+a1m xm = 0
..
.
+anm xm = 0
O sistema anterior pode ser visto matricialmente como AX = 0, onde a matriz A
é dada pelos coeficientes do sistema homogêneo. Claramente o conjunto solução S =
S1 ∩ S2 ∩ ... ∩ Sn onde Si é o conjunto solução da i-ésima equação do sistema homogêneo.
Veja que cada Si é um subespaço vetorial de K m , pois sejam x1 = (x11 , ..., x1m ) e x2 =
(x21 , ..., x2m ) ∈ Si , ou seja,
ai1 x11 + · · · + aim x1m = 0
ai1 x21 + · · · + aim x2m = 0
Então, a partir da proposição 4.2.1, temos que αx1 + x2 ∈ Si (verifique). Em geral, sejam
X, X ′ ∈ S e seja α ∈ K, então A(α · X ⊕ X ′ ) = (α)AX ⊕ AX ′ = (α)0 ⊕ 0 = 0. Portanto,
o conjunto solução S é um subespaço vetorial de K m .Observemos também que poderı́amos
ter usado a proposição 4.2.2 para concluir o anterior.
Exemplo 4.2.8 Sejam U = {(x, 0) ∈ R2 /x ∈ R}, W = {(0, y) ∈ R2 /y ∈ R}. Não é
difı́cil verificar que tanto U como W são subespaços vetoriais de R2 . Veja que U ∪ W =
{(x, y) ∈ R2 /x = 0 ou y = 0} não é um subespaço vetorial de R2 , pois, (1, 1) = (1, 0) +
(0, 1) ∈
/ U ∪ W não tem nenhuma das coordenadas igual a zero.
Definição 4.2.2 Seja v ∈ V . Diremos que o vetor v é uma combinação linear dos vetores
v1 , ..., vn ∈ V , se existem escalares c1 , ..., cn ∈ K tal que :
v = c1 v1 + · · · + cn vn =
n
X
ci vi
1
Exemplo 4.2.9 Seja V um K-espaço vetorial e sejam v1 , ..., vn vetores quaisquer
P de V .
Consideremos o seguinte conjunto W = {v ∈ V / existem c1 , ..., cn ∈ K onde vP= n1 ci vi }.
Então, verifiquemos que o conjunto W é um subespaço de V . Sejam u = n1 ai vi , v =
P
n
1 ci vi ∈ W e seja α ∈ K, então temos que
αu + v = α(
n
X
1
ai vi ) +
n
X
1
ci vi =
n
X
1
Portanto W é um subespaço vetorial de V .
αai vi +
n
X
1
ci vi =
n
X
1
(αai + ci )vi ∈ W
60
CAPÍTULO 4. ESPAÇOS VETORIAIS
Definição 4.2.3 Seja V um K-espaço vetorial. Diremos que o conjunto de vetores de V
{v1 , ..., vn }, gera o espaço vetorial V , se ∀v ∈ V , existem escalares c1 , ..., cn ∈ K tal que
v = c1 v1 + · · · + cn vn =
n
X
ci vi
1
V = [v1 , ..., vn ] denotará que o espaço vetorial V é gerado pelo conjunto {v1 , ..., vn }
Exemplo 4.2.10 Seja V = R2 , e sejam {e1 = (1, 0), e2 = (0, 1)}. Então, este conjunto
gera V , pois, para quaisquer (x, y) ∈ V temos que (x, y) = x(1, 0) + y(0, 1) = xe1 + ye2 .
Portanto o conjuto {e1 , e2 } é um conjunto gerador de V ou V = [e1 , e2 ].
Exemplo 4.2.11 Seja V = R3 e seja {v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (1, 1, 0)}, então
este conjunto não gera V , pois basta considerar um vetor v = (x, y, z) tal que a terceira
coordenada seja diferente de zero, então não é possı́vel achar escalares c1 , c2 , c3 ∈ R tal
que v = c1 v1 + c2 v2 + c3 v3 .
Exemplo 4.2.12 Seja V = M2 o conjunto
das
matrizes
de dois
por dois,
então
o con1 0
0 1
0 0
junto formado pelas matrizes {E1 =
, E2 =
, E3 =
, E4 =
0
0
0
0
1
0
0 0
} é um conjunto gerador de V , pois para qualquer matriz A ∈ V temos que :
0 1
a b
A=
= aE1 + bE2 + cE3 + dE4
c d
Exemplo 4.2.13 Denotemos por P3 (x) o conjunto
de todos os polinômios de grau menor
P3
i
ou igual a três, isto é, P3 (x) = {p(x) =
1 ai x /ai ∈ K, i = 1, 2, 3}. Consideremos
V = P3 (x) então o conjunto {p0 (x) = 1, p1 (x) = x, p2 (x) = x2 , p3 (x) = x3 } é um conjunto
gerador de V = P3 (x).
Exemplo 4.2.14 Sejam S1 , S2 dois subespaços vetoriais de V , e consideremos o conjunto
S1 + S2 = {s1 + s2 /s1 ∈ S1 , s2 ∈ S2 }. Então S1 + S2 é um subespaço vetorial de V .
Exemplo 4.2.15 Seja V = Mn e sejam S1 = {A ∈ V /At = A} e S2 = {A ∈ V /At =
−A}, então V = S1 + S2 .
Exemplo 4.2.16 Seja V = {f : K−→K/f é f uncão} e sejam S1 = {f ∈ V /f (−x) =
f (x)} e S2 = {f ∈ V /f (−x) = −f (x)}, então V = S1 + S2
CAPÍTULO 4. ESPAÇOS VETORIAIS
4.2.1
61
Exercı́cios
1. Seja V = R3 . Verifique se W é um subespaço vetorial de V .
a) W = {(x, y, z) ∈ V /x + y + z = 0}
b) W = {(x, y, z) ∈ V /x ≥ 0}
c) W = {(x, y, z) ∈ V /x2 + y 2 + z 2 ≧ 0}
d) W = {(x, y, z) ∈ V /x, y, z ∈ Q}
e) W = {(x, y, z) ∈ V /xyz = 0}
2. Se V = Mn (K), onde n ≧ 2. Verifique se os seguintes subconjuntos de V são
subespaços vetoriais de V .
a) W = {A ∈ V /AT = T A}.
b) W = {A ∈ V /A2 = A}.
c) W = {A ∈ V /det(A) 6= 0}.
d) W = {A ∈ V /det(A) = 0}.
3. Seja V = {f : R−→R} o espaço das funções reais. Verifique quais dos seguintes
conjuntos é um subespaço vetorial de V .
a) W = {f : R−→R/f (0) = f (1)}
b) W = {f : R−→R/f (3) = 0}
c) W = {f : R−→R/f ′ (0) = 1}
d) W = {f : R−→R/f (x) ≤ 0}
4. Seja V = Pn (R) o espaço vetorial dos polinômios de grau menor ou igual a n
com coeficientes reais. Determine se os seguintes conjuntos são ou não subespaços
vetoriais de V .
a) W = P5 (R)
b) W é o conjunto dos polinômios de grau n.
c) W é o conjunto dos polinômios de grau par menor ou igual a n.
d) W = Pn (Z)
5. Seja V um espaço vetorial, e W1 , W2 subespaços vetoriais de V . Então mostre que
se W1 ∪ W2 é um subespaço vetorial de V , então temos que W1 ⊂ W2 ou W2 ⊂ W1 .
6. Seja V um espaço vetorial e W1 , W2 subespaços vetoriais de V . Mostre que se V =
W1 + W2 e W1 ∩ W2 = 0̄, então todo vetor v ∈ V pode-se escrever de maneira única
como combinação linear de W1 e de W2 . Neste caso diremos que o espaço vetorial
V é a soma direta dos subespços W1 e W2 que denotaremos por V = W1 ⊕ W2 .
CAPÍTULO 4. ESPAÇOS VETORIAIS
62
7. Prove que os espaços vetoriais V = Mn e V = {f : R−→R} admitem uma decomposição em soma direta de subespaços vetoriais.
8. Seja V o espaço vetorial formado por todas as retas no plano R2 . Sejam L1 , L2 ∈ V
e W = {L ∈ V /L é ortogonal ás retas L1 , L2 } um subconjunto de V . Mostre que
o conjunto W não é um subespaço vetorial de V .
9. Seja V o espaço vetorial formado por todas as retas no plano R2 . Seja W = {L ∈
V /L = ax onde a ∈ R} um subconjunto de V , então mostre que W é um subespaço
vetorial de V .
10. Deteremine o valor de c tal que o vetor x = (1, −2, c) ∈ R3 seja combinação linear
dos vetores x1 = (3, 0, −2), x2 = (2, −1, −5).
11. Escreva o polinômio p(t) = t3 + 4t2 + t + 1 como combinação linear dos polinômios
p1 (t) = t3 + t − 2, p2 (t) = −t2 + 2t + 4, p3 (t) = t + 5.
12. Mostre que o conjunto de vetores {(0, 1, −1), (0, 1, 1), (1, 1, 1)} gera o espaço vetorial
R3 .
13. Descreva geometricamente os subespaços vetoriais de R3 gerados pelos seguintes
conjuntos.
a) {(0, 1, 2), (0, 2, 3), (0, 3, 1)}
b) {(0, 2, 1), (1, 1, 1), (2, 1, 4)}
c) {(1, 2, 3), (1, −1, 1)}
14. Mostre que o conjunto {
1 0
0 1
0 1
} não gera V = M2 .
,
1 0
15. Mostre que o conjunto {(1 − t)3 , (1 − t)2 , 1 − t, 1} gera o espaço vetorial V = P3 (K).
CAPÍTULO 4. ESPAÇOS VETORIAIS
4.3
63
Dependência e Independência Linear
Um dos conceitos mais importantes em Álgebra Linear é o de dependência e independência linear, que é também muito usado em outras áreas da Matemática ou na área
de exatas, como em equações diferenciais ordinárias, para decidir se duas ou mais soluções
de uma equação diferencial são linearmente independentes ou não, para construir o espaço
completo de soluções da equações diferenciais ordinárias. Este conceito é dado na seguinte
definição.
Definição 4.3.1 Seja V um K-espaço vetorial e seja {v1 , ..., vn } um conjunto de vetores
de V . Se a única solução para a equação vetorial
c1 v1 + · · · + cn vn = 0
é c1 = c2 = · · · = cn = 0, então diremos que o conjunto {v1 , ..., vn } é linearmente independente que denotaremos por LI, caso contrário diremos que o conjunto {v1 , ..., vn }
é linearmente dependente, que denotaremos por LD.
Exemplo 4.3.1 Seja V = R3 e seja {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}, logo este
conjunto é um conjunto linearmente independente.
Exemplo 4.3.2 Seja V = R2 e consideremos o seguinte sub-conjunto de V = R2 , {v1 =
(1, 1), v2 = (2, 5)} que é LI, pois sejam c1 , c2 ∈ K tal que:
c1 v1 + c2 v2 = c1 (1, 1) + c2 (2, 5) = (c1 + 2c2 , c1 + 5c2 ) = (0, 0)
se e somente se c1 = c2 = 0. Portanto, o conjunto {v1 = (1, 1), v2 = (2, 5)} é linearmente
independente.
Exemplo 4.3.3 Seja V = P3 (t), e consideremos o sub-conjunto de V = P3 (t) dado por
{p1 (t) = t3 + 4t2 + 2t + 3 ; p2 (t) = t3 + 6t2 − t + 4; p3 (t) = 3t3 + 8t2 − 8t + 7}, este conjunto
é um conjunto LD, pois sejam c1 , c2 , c3 ∈ K tal que
c1 p1 (t) + c2 p2 (t) + c3 p3 (t) = c1 (t3 + 4t2 + 2t + 3) + c2(t3 + 6t2 − t + 4) + c3(3t3 + 8t2 − 8t + 7)
(c1 + c2 + 3c3 )t3 + (4c1 + 6c2 + 8c3 )t2 + (2c1 − c2 − 8c3 )t + (3c1 + 4c2 + 7c3 ) = 0t3 + 0t2 + 0t + 0
admite uma solução não trivial ou não nula, logo o conjunto {p1 (t) = t3 + 4t2 + 2t +
3; p2 (t) = t3 + 6t2 − t + 4; p3 (t) = 3t3 + 8t2 − 8t + 7} é linearmente dependente.
1 −1
; v2 =
Exemplo 4.3.4 Seja V = M2 e consideremos o conjunto {v1 =
3 0
2 −2
}. Este conjunto é LD, pois sejam c1 , c2 ∈ K tal que
6 0
0 0
2 −2
1 −1
=
+ c2
c1 v1 + c2 v2 = c1
0 0
6 0
3 0
64
CAPÍTULO 4. ESPAÇOS VETORIAIS
de onde temos que c1 = 1, c2 = −2, portanto o conjunto {v1 =
2 −2
} é linearmente dependente.
6 0
1 −1
3 0
; v2 =
Proposição 4.3.1 Sejam r, n ∈ N tal que r > n. Então qualquer conjunto com r vetores
de K n é linearmente dependente.
Dem. Seja {v1 , ..., vr } um conjunto de r vetores em K n e sejam c1 , ..., cr ∈ K tal que:
c1 v1 + · · · + cr vr = 0
P
Como vi ∈ K n , então tem n coordenadas e cada uma das coordenadas de r1 ci vi
é igual a zero. Logo, temos um sistema homogêneo de n equações iguais a zero, onde
o número de indeterminadas é maior que o número de equações, portanto admite uma
solução não trivial, logo o conjunto é linearmente dependente como querı́amos.
Proposição 4.3.2 Seja V um K-espaço vetorial. O conjunto {v1 , ..., vn }, onde n ≥ 2, é
linermente dependente se, e somente se, pelo menos um dos vetores é uma combinação
linear dos outros vetores.
Dem. ⇒) Seja {v1 , ..., vn } um conjunto linearmente dependente de V . Então, existem
escalares c1 , ..., cn não todos nulos tal que
c1 v1 + · · · + cn vn = 0
Sem perda de generalidade, podemos supor que c1 6= 0, então segue que:
c1 v1 = −c2 v2 − · · · − cn vn
cn
c2
v1 = − v2 − · · · −
c1
c1
Portanto, o vetor v1 é uma combinação linear dos vetores v2 , ..., vn .
⇐) Sem perda de generalidade, vamos supor que v1 = c2 v2 + · · · + cn vn logo, −v1 +
c2 v2 + · · · + cn vn = 0, portanto o conjunto {v1 , ..., vn } é linearmente dependente.
Corolário 7 Seja V um K-espaço vetorial. Qualquer subconjunto de vetores de V que
contenha um subconjunto linearmente dependente, é linearmente dependente.
Dem. Seja {v1 , ..., vn } um subconjunto qualquer de vetores de V . Se o conjunto {v1 , ..., vn }
já é linearmente dependente, então não temos nada a mostrar. Consideremos o subconjunto {v1 , ..., vr } do conjunto {v1 , ..., vn } linearmente dependente, onde r < n. Logo,
existem escalares c1 , ..., cr ∈ K, não todos nulos tal que
c1 v1 + · · · + cr vr = 0 ⇔ c1 v1 + · · · + cr vr + 0vr+1 + · · · + 0vn = 0
Portanto, a combinação anterior mostra que como os c′i s não são todos nulos, então o
conjunto {v1 , ..., vn } é um conjunto linearmente dependente.
CAPÍTULO 4. ESPAÇOS VETORIAIS
65
Corolário 8 Seja V um K-espaço vetorial. Qualquer subconjunto {v1 , ..., vn } de vetores
de V que contém o vetor nulo é linearmente dependente.
Corolário 9 Seja V um K-espaço vetorial. Qualquer subconjunto de um conjunto linearmente independente é linearmente independente.
Dem. Seja {v1 , ..., vn } um subconjunto linearmente independente de vetores de V e seja
{v1 , ..., vr } um subconjunto de {v1 , ..., vn }, isto é, r < n, pois se r = n não temos nada
a mostrar. Se {v1 , ..., vr } é linearmente dependente, então pelo corolário 8 temos que o
conjunto {v1 , ..., vn } é linearmente dependente, o que induz a contradição. Portanto o
subconjunto {v1 , ..., vr } é linearmente independente.
Exemplo 4.3.5 Seja V = R3 , e seja {u = (1, −2, 3), v = (2, −4, 6), w = (1, 1, 1)} um
subconjunto de vetores de V . Este subconjunto é linearmente dependente, pois 2u − v +
0w = (0, 0, 0).
4.3.1
Exercı́cios
1. Mostre que:
a) Se v 6= 0 ∈ V , então o conjunto formado pelo vetor v é, linearmente independente.
b) Sejam u, v ∈ V . O conjunto formado pelos vetores u e v são linearmente dependentes se, e somente se, um deles é múltiplo do outro.
2. Decida se o seguinte conjunto é LI ou LD e justifique.
a) {u = (1, −3), v = (3, 5)}
b) {u = (4, 3, −3), v = (2, 7, 5)}
2 4
9
1 3 4
}
,v =
c) {u =
0 6−3
2 7 −5
d) {p1 (t) = 3t2 + 3t − 8, p2 (t) = −t2 + 5t + 7}
3. Determine três vetores de R3 que sejam LD, mas, dois quaisquer destes vetores
sejam LI.
4. Seja V um espaço vetorial e sejam u, v, w ∈ V , tal que o subconjunto {u, v, w} é LI,
então mostre que o conjunto {u + v, v + w, u + w} também é um conjunto LI.
5. Seja V = M2 . Determine se os seguintes conjuntos são LI ou LD e justifique.
1 3
3 −1
1 −5
}
,C =
,B =
a) {A =
3 1
2 2
4 0
66
CAPÍTULO 4. ESPAÇOS VETORIAIS
b) {A =
1 0
0 0
,B =
0 1
0 0
,C =
0 0
1 1
}
6. Seja V = P3 (R). Determine se o conjunto a seguir é LI ou LD e justifique.
a) {p1 (t) = 9t3 − 6t2 + 9t − 3, p2 (t) = 3t3 − 3t + 1}
b) {p1 (t) = 2t3 − 4t2 + 9t + 5, p2(t) = 3t3 − 8t2 − 8t + 7}
7. Seja V o espaço das funções reais. Determine se os seguintes conjuntos de funções
a seguir são LI ou LD e justifique.
a) {f (t) = sent, g(t) = cost, h(t) = t}
b) {f (t) = t2 , g(t) = t, h(t) = 1}
8. Mostre que os vetores u = (1 + i, 2i), v = (1, 1 + i) ∈ C2 são linearmente independentes sobre o corpo C, mas não sobre o corpo R.
9. Mostre que se o conjunto {v1 , ..., vn } é LI e {v1 , ...vn , v} é LD, então o vetor v é
combinação linear do conjunto {v1 , ...vn }.
10. Sejam v1 , ..., vn vetores LI, e suponha que v = a1 v1 + · · · + an vn , onde a1 , ..., an ∈ K.
Mostre que estes escalares são únicos.
4.4
Base e Dimensão
Um dos objetivos de uma democracia, é achar um certo conjunto de representantes
na população, denominados deputados, de tal maneira que com o parecer deles possam
ser definidas as metas e objetivos de um paı́s, sem ter que a cada momento seja consultada
a população. Esta ideia pode ser vista na seguinte definição.
Definição 4.4.1 Seja V um K-espaço vetorial e seja B = {v1 , ..., vn } um subconjunto de
vetores de V . Diremos que B é uma base de V se:
i) ∀v ∈ V , existem escalares c1 , ..., cn ∈ K tal que v = c1 v1 + · · · + cn vn .
ii) O conjunto B é linearmente independente.
Veja, que se o subconjunto B = {v1 , ..., vn } forma uma base para o espaço vetorial V ,
então qualquer informação de um outro elemento v do espaço vetorial V , pode ser obtido
a partir deste conjunto B = {v1 , ..., vn }, que vem a ser os representantes do espaço vetorial
V.
Exemplo 4.4.1 Sejam V = R3 , e B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Então, claramente
este conjunto gera e é linearmente independente em V , portanto é uma base de V .
67
CAPÍTULO 4. ESPAÇOS VETORIAIS
Exemplo 4.4.2 Seja
M2 o conjunto
das
o subcon por dois,
então matrizes
de dois
V =
0 0
0 0
0 1
1 0
}, é um
, E4 =
, E3 =
, E2 =
junto B = {E1 =
0 1
1 0
0 0
0 0
conjunto gerador de V , pois para qualquer matriz A ∈ V temos que :
a b
A=
= aE1 + bE2 + cE3 + dE4
c d
Claramente é linearmente independente, portanto o subconjunto B é uma base de V =
M2 .
Exemplo 4.4.3 Seja S = {(x, y, z) ∈ R3 /z = x + y}. Então, qualquer vetor da forma
(x, y, x + y) está no conjunto S. Mas, por outro lado, temos que
(x, 0, x) + (0, y, y) = x(1, 0, 1) + y(0, 1, 1)
Então, o conjunto B = {(1, 0, 1), (0, 1, 1)} é uma base do conjunto S.
Exemplo 4.4.4 Seja V = P3 (t), então o conjunto B = {p0 (t) = 1, p1 (t) = t, p2 (t) =
t2 , p3 (t) = t3 } é uma base de V .
Exemplo 4.4.5 Seja V = R2 , então o vetor (1, 1) é linearmente independente em V , mas
não é base, pois não consegue gerar todo V , ele só pode gerar a reta r(1, 1). Por outro
lado, o conjunto B = {(1, 0), (0, 1), (1, 1)} gera V , mas não é linearmete independente.
Proposição 4.4.1 Seja B = {v1 , ..., vn } uma base de V . Então, ∀v ∈ V , existem únicos
c1 , ...cn ∈ K tal que v = c1 v1 + · · · + cn vn .
Dem. Como B é uma base de V , sabemos que existem escalares c1 , ..., cn ∈ K tal que
v = c1 v1 + · · · + cn vn . Então, resta mostrar que estes escalares são únicos, logo vamos
′
′
supor que existem outros escalares c1 , ..., cn ∈ K tal que
′
′
′
′
v = c1 v1 + · · · + cn vn = c1 v1 + · · · + cn vn ⇔ (c1 − c1 )v1 + · · · + (cn − cn )vn = 0
′
Mas como B é base, logo é linearmente independente, então temos que c1 = c1 , ..., cn =
cn mostrando assim a unicidade.
′
Proposição 4.4.2 Sejam V um K-espaço vetorial, e B = {v1 , ..., vn } uma base de V .
Então, qualquer outra base de V tem o mesmo número de vetores.
Dem. Seja A = {w1 , ..., wm } uma outra base do espaço vetorial V . Então mostremos que
as duas bases têm o mesmo número de vetores, isto é, que n = m. Como B é uma base
de V e os vetores w1 , ..., wm ∈ V temos, um sistema de m equações e n indeterminadas
dado por:


 w1 = a11 v1 + a12 v2 + · · · a1n vn
..
..
..
.
.
.

 w = a v + a v + ··· a v
m
m1 1
m2 2
mn n
68
CAPÍTULO 4. ESPAÇOS VETORIAIS
Vamos supor por absurdo, isto é, vamos supor primeiro que m > n. Então, temos
mais equações do que indeterminadas, ou seja




w1
v1
 ..

 . 
 .
 = A  .. 
wm

vn

a11 a12 · · · a1n
 ..

..
onde a matriz A =  .
 ∈ Mmn . Consideremos agora a matriz
.
am1 am2 · · · amn
At ∈ Mnm e o sistema homogêneo, induzido pela matriz At , dado por:


 
c1
0

 .. 
t  ..
A  .  =  . 
cm
0
Agora, como o número de equações é menor que o número de indeterminadas

 (n < m),
c1


o sistema homogêneo anterior admite soluções não triviais, digamos  ... , portanto:
cm
 
t  t

t
c1
0
c1
 t  .. 
 .. 
 .. 
t
A  .  =  .  ⇔  .  (At ) = (0 · · · 0)
cm
0
c
 m t
c1
 .. 
⇔  .  A = (0 · · · 0)
cm


v1


Multiplicando esta última igualdade pelo vetor  ...  segue que :
vn



t 

v1
v1
c1
 . 
 ..   .. 
 .  A  .  = (0 · · · 0)  ..  = 0v1 + · · · 0vn = 0
vn
vn
cm

 

v1
w1
 ..   ..

mas como A  .  =  .
 segue que :
vn
wm

t 

c1
w1
 ..   ..

 .   .
 = 0 ⇔ c1 w 1 + · · · cm w m = 0
cm
wm
69
CAPÍTULO 4. ESPAÇOS VETORIAIS
Portanto, o conjunto A é linearmente dependente, o que é uma contradição. De maneira análoga, se considerarmos n < m, podemos obter uma contradição. Portanto, temos
que n = m como querı́amos.
Definição 4.4.2 Seja n ∈ N. Se a base de um espaço vetorial V tem n vetores, diremos
que o K-espaço vetorial V tem dimensão finita n, que denotaremos por dimK V = n. O
espaço vetorial formado pelo vetor nulo, tem dimensão zero.
No seguinte exemplo, usaremos o conceito de Grafo Orientado ou Grafo dirigido, dado
na definição 2.4.3, para mostrar uma estrutura especial de espaço vetorial de dimensão
finita.
Exemplo 4.4.6 Consideremos o seguinte Grafo dirigido, dado pela figura abaixo :
α
• −→ •
V1
V2
Onde, V1 e V2 são os vértices e α um caminho ligando os dois vértices. Então, podemos
considerar o espaço vetorial formado pelos caminhos e1 , e2 e α, onde os caminho e1 , e2
representam os caminhos triviais (não sair do lugar ou do vértice) associados aos vértices
V1 , V2 respectivamente. Logo, temos um espaço vetorial de dimensão três. Agora, se
V1 = V2 , temos o caminho trivial e1 e α, α2, ...., isto é, temos um espaço vetorial de
dimensão infinita, que não é difı́cil de mostrar que este espaço vetorial coincide com o
anel dos polinômios na indeterminada x, ou K[x].
Exemplo 4.4.7 Vejamos os seguintes exemplos conhecidos:
1. Seja V = K n = Rn , tem dimensão n.
2. Seja V = Pn (K). Este espaço vetorial tem dimensão n + 1 = dimK Pn (K).
3. Seja V = Mn então dimK Mn = n2 .
4. Seja V = Mm,n , então dimK Mn,m = nm.
CAPÍTULO 4. ESPAÇOS VETORIAIS
70
Corolário 10 Seja V um K-espaço vetorial tal que dimK V = n. Então :
i) Todo conjunto com mais de n vetores de V é um conjunto linearmente dependente.
ii) Todo conjunto com n vetores linearmente independentes de V , é uma base de V .
Dem.
i) Seja B = {v1 , ..., vn } uma base do espaço vetorial V , e seja {u1 , ..., um } um subconjunto
de V com mais de n vetores. Então, temos que:


 u1 = a11 v1 + · · · +a1n vn
..
..
.
.

 u
m = am1 v1 + · · · amn vn
Então, pelo argumento da proposição anterior o conjunto {u1, ..., um } é linearmente
dependente.
ii) Seja {u1 , ..., un } um conjunto linearmente independente de V . Como dimK V = n, o
conjunto {u1 , ..., un , v} que tem n+1 vetores é um conjunto linearmente dependente,
pela parte i) anterior, onde o vetor v ∈ V é qualquer. Então, existem escalares
c1 , ..., cn , c ∈ K não todos nulos (pois o conjunto anterior é LD), tal que :
c1 u1 + · · · + cn un + cv = 0
Veja que c 6= 0 , pois caso contrário, temos que:
c1 u 1 + · · · + cn u n = 0
e como o conjunto {u1 , ..., un } é linearmente independente, segue que c1 = c2 = · · · =
cn = 0, o que é uma contradição, pois pelo menos um dos escalares c1 , c2 , · · · , cn , c
é diferente de zero, visto que o conjunto {u1, ..., un , v} é linearmente dependente.
Portanto c 6= 0 e temos que:
v=
−c1
−cn
u1 + · · · +
un
c
c
Logo, segue que o conjunto {u1 , ..., un } é um conjunto gerador de V , como querı́amos.
A partir do corolário e proposições anteriores, temos que para todo vetor v ∈ V , onde
dimK V = n. Este vetor pode-se escrever de maneira única como combinação linear da
base ordenada B = {v1 , ..., vn }, onde suas novas coordenadas são dadas pelos escalares
c1 , ..., cn ∈ K tais que 
v = c1
v1 + · · · + cn vn . As coordenadas vetoriais do vetor v serão
c1
 .. 
denotadas por: [v]B =  . , então temos a seguinte definição.
cn
CAPÍTULO 4. ESPAÇOS VETORIAIS
71
Definição 4.4.3 Seja v ∈ V , onde V é um espaço vetorial de dimensão finita n e base
B = {v1 , ..., vn }. Então v = c1 v1 + · · · + cn vn onde os escalares c1 , ..., cn ∈ K. Estes
escalares são chamados de coordenadas do vetor V com relação a base ordenada B, e
o vetorcoluna

c1


[v]B =  ...  é chamada de matriz coordenada de v com relação a base ordenada B.
cn
Exemplo 4.4.8 Seja V = P2 (K) o espaço vetorial dos polinômios de grau menor ou
2
igual a dois, e seja B = {1, t, t2 } uma base de V . Seja p(t)
 = 2t
 − 5t + 3 ∈ V , então a
3

matriz coordenada associada a p(t) é dada por [p(t)]B =
−5 .
2
O exemplo anterior mostra dois fatos relevantes, o primeiro é dado pela ordem da base,
já que esta ordem determina o posicionamento das coordenadas de seu vetor coordenada
associado. Isto também determina uma correspondência biunı́voca entre os vetores v ∈ V
e sua matriz coordenada, dada pelos escalares determinados pela combinação linear da
base.
Proposição 4.4.3 Todo conjunto finito de geradores de um espaço vetorial não nulo V ,
contém um subconjunto que é uma base de V .
Dem. Seja B = {v1 , ..., vm } um conjunto de geradores de V . Como o espaço vetorial V
não é nulo, então o conjunto B deve conter vetores não nulos, e como B é um conjunto
finito, podemos considerar o subconjunto B′ = {v1 , ..., vm } ⊆ B maximal, no sentido que
é o maior subconjunto de B que contém todos os vetores linearmente independentes de B.
Vamos supor que B′ contém n vetores, então n ≤ m. Se n = m, então B é a base procurada, logo só nos resta uma única possibilidade, a saber n < m. Por outro lado, qualquer
conjunto da forma {v1 , ..., vn , vn+i }, onde i = 1, ..., m − n é linearmente dependente, pois
o conjunto B′ , é um subconjunto maximal de vetores linearmente independentes. Logo,
como o conjunto {v1 , ..., vn , vn+i } é linearmente dependente, temos que existem escalares
c1 , ..., cn , cn+i não todos nulos tal que:
c1 v1 + · · · + cn vn + cn+i vn+i = 0
de onde se deduz que cn+i 6= 0, pois caso contrário, terı́amos que algum dos escalares
c1 , ..., cn é diferente de zero, logo o conjunto B′ é linearmente dependente, o que uma
contradição. Logo, temos que
vn+i =
−cn
−c1
v1 + · · · +
vn
cn+i
cn+i
Portanto, o conjunto B′ é linearmente independente e gera V , logo é uma base.
72
CAPÍTULO 4. ESPAÇOS VETORIAIS
Mostremos uma forma prática de encontrar uma base, a partir de um conjunto de
vetores dados. Seja V um K-espaço vetorial de dimensão finita n > 1, vejamos uma forma
prática de mostrar que todo conjunto linearmente independente pode ser completado a
uma base. Fixemos uma base B = {v1 , ..., vn } de V e seja C = {w1 , ..., wk } um conjunto
não necessariamente linearmente independente de de vetores de V . Recordemos que cada
vetor wi , onde i = 1, ..., k, pode-se escrever da seguinte forma, na base B.
wi =
n
X
aij vj
j=1
Então temos a seguinte matriz A ∈ Mk,n cujas linhas são formadas pelas coordenadas
do vetor wi :


a11 a12 · · · a1n

..
.. 
A =  ...
.
. 
ak1 ak2 · · · akn
Consideremos agora a matriz reduzida M = (βij ) ∈ Mk,n obtida da matriz A anterior.
Como temos visto no capı́tulo 3, as linhas da matriz M = (βij ) foram obtidas a partir
de operações elementares nas linhas da matriz A, então os subespaços vetoriais gerados
por w1 , ..., wk e o gerado por {u1 = (β11 , ..., β1n ), ..., uk = (βk1 , ..., βkn )} são o mesmo.
Veja que neste processo de escalonamento, algumas linhas da matriz M podem ser nulas,
ou seja, que alguns dos vetores {u1 , ..., uk } poderiam ser o vetor nulo. Reagrupando
os vetores, e renomeando se fôr necessário, podemos considerar que u1 , ..., ul (l < k)
são vetores diferentes do vetor nulo. A partir do escalonamento reduzido, cada um dos
vetores u1 , ..., ul tem uma posição igual a 1, de esquerda para direita da matriz. Logo,
os vetores u1 , ..., ul são linearmente independentes e como geram o mesmo espaço gerado
pelos vetore w1 , ..., wk , temos que o conjunto u1 , ..., ul forma uma base para W . Sem perda
de generalidade, vamos supor que o conjunto C = {w1 , ..., wk } é linearmente independente
e que k < n. Assim, a matriz M terá k linhas não nulas e n − k linhas nulas.
Consideremos a seguinte matriz M ∈ Mn , definida da seguinte forma:
• As primeiras k linhas de M são as k primeiras linhas da matriz M.
• As n−k linhas restantes são definidas da seguinte forma : Para cada coluna j dentre
as n − k que não têm 1, coloque uma linha com 1 na coluna j e zero no resto das
colunas.
Desta forma a matriz M tem n linhas não nulas, e pela construção anterior, o conjunto
das linhas da matriz M formam um conjunto linearmente independente em V , e portanto
uma base ( pois dimK V = n ). Vejamos o seguinte exemplo para mostrar esta construção.
Exemplo 4.4.9 Seja V = P3 (K). Vamos construir uma base para V a partir dos seguintes vetores: p1 (x) = 1 + 2x − x2 + 3x3 e p2 (x) = 2 + 4x + x2 + 6x3 . Consideremos a base
B = {1, x, x2 , x3 } canônica de P3 (x). Então claramente a matriz A é dada por:
1 2 −1 3
A=
2 4 1 6
CAPÍTULO 4. ESPAÇOS VETORIAIS
73
Fazendo o escalonamento reduzido temos que a matriz M é dada por:
1 2 0 3
0 0 1 0
O anterior mostra que o conjunto {p1 (x), p2 (x)} é um conjunto linearmente independente
(tem duas linhas não nulas na matriz M). Como V tem dimensão 4, faltam duas linhas.
Veja que falta 1 na segunda coluna e na quarta coluna, logo temos a seguinte matriz:


1 2 0 3
 0 0 1 0 

M =
 0 1 0 0 
0 0 0 1
Assim, B′ = {p1 , p2 , x, x3 } forma uma base de V = P3 (K) e claramente contém {p1 , p2 }.
4.4.1
Exercı́cios
1. Verifique quais dos seguintes conjuntos de vetores formam uma base para V = R3 .
a) {(1, 2, 1), (1, 3, 0), (0, 1, −1)}
b) {(1, 0, 1), (2, 0, 1), (1, 1, 1)}
c) {(1, 1, 1), (1, 0, 0), (0, 1, 0), (0, 0, 1)}
d) {(2, 1, 4), (1, 2, 3)}
2. Seja B = {(1, 4, 2), (3, 0, −1), (2, −1, −1)} uma base de R3 . Escreva o vetor (17, 3, 19)
como combinação linear dos elementos da base B.
3. Mostre que os conjuntos {t2 + t, t, 1} e {t2 + t, t, t + 1} são base de V = P2 (K).
x x
∈ M2 /x ∈ K}. Mostre que W é um subespaço de V = M2 e
4. Seja W = {
0 0
ache a base de W .
5. Seja B = {v1 , v2 , v3 } uma base para o espaço vetorial V , então mostre que o conjunto
B′ = {v1 + v2 , v2 + v3 , v1 + v3 } também é uma base de V .
6. Seja V um espaço vetorial que é gerado por sete vetores, então o que você pode
afirmar com relação à dimensão de V ?. E estes sete vetores são linearmente dependentes?.
7. Calcule a dimensão de cada um dos subespaços vetoriais de V = M2 (K)
a) {A ∈ V /At = A}
b) {A ∈ V /At = −A}
74
CAPÍTULO 4. ESPAÇOS VETORIAIS
c) {A = (aij ) ∈ V /a11 = a22 = 0}
d) {A = (aij ) ∈ V /a21 = a12 = 0}
8. Seja x ∈ R2 , escreva a matriz coordenada [v]B na base B a seguir:
i) v = (6, 2) e B = {(1, 0), (0, 1)}
ii) v = (6, 2) e B = {(0, 1), (1, 0)}
iii) v = (6, 2) e B = {(1, 3), (2, 5)}
9. Seja A ∈ M2 escreva [A]B
1 0
0
a) B = {
,
0 0
0
1
0 0
,
b) B = {
2
0 1
1
1 0
,
c) B = {
0
0 0
na base B
1
0
,
0
1
1
0
,
0
0
1
2
,
2
0
a seguir:
0
0
,
0
0
1
2
,
0
0
0
0
,
0
0
0
1
0
0
0
01
}eA=
}eA=
13 4
5 7
16 8
2 4
5 8
}eA=
5 2
10. Seja p(t) ∈ P1 (K) escreva [p(t)]B na base B a seguir:
a) p(t) = 2t + 3 e B = {t, 1}
b) p(t) = 2t + 3 e B = {t + 1, 2t − 3}
c) p(t) = 5t + 4 e B = {t + 1, 2t − 3}
11. Ache uma base, formada pelos caminhos do seguinte grafo dirigido :
1
3
2
4
12. Se W é um subespaço de um espaço vetorial V de dimensão finita n, mostre que
dimK W ≤ n. Em particular, se dimK W = dimK V , então W = V .
13. Encontre uma base para V = R4 que contenha os vetores {(1, 3, 8, 5), (1, 1, 4, 2)}.
14. Seja V = P4 (K). Encontre uma base para V que contenha os vetores {1 + 2x +
3x2 − x4 , 1 − 3x2 + x3 − x4 }.
Capı́tulo 5
Transformações Lineares e Cônicas
5.1
Transformações Lineares
No curso de Cálculo I, por exemplo, estuda-se como relacionar os Reais R com ele
mesmo. Para estudar esta relação, é usado o conceito de funções em particular o conceito
de funções contı́nuas, derivávaeis etc.. Mas recordemos que temos mostrado no capı́tulo
4 que o conjunto dos números reais R é, em particular, um R-espaço vetorial, então a
pergunta que surge é a seguinte. como seriam as funções que relacionam R com
ele mesmo, mas que preservem a sua estrutura de espaço vetorial?. Então, o
nosso objetivo, neste capı́tulo é estudar uma situação mais geral que a anterior, isto é,
como dois k-espaços vetoriais V e W podem-se relacionar, preservando a sua estrutura de
espaço vetorial, e assim temos a seguinte definição.
Definição 5.1.1 Sejam (V, +, ·) e (W, ⊕, ⊙) dois k-espaços vetoriais. A transformação
T : V −→W é dita uma transformação linear se :
i) T (u + v) = T (u) ⊕ T (v)
ii) T (λ · v) = λ ⊙ T (v)
∀u, v ∈ V, λ ∈ K
Veja, que na definição 5.1.1, demos ênfases em denotar de maneira diferente as operações
de soma e operação por escalar tanto em V como em W , para mostrar que uma transformação linear preserva tanto a soma como a multiplicação por escalar do espaço vetorial
V , ou seja transforma soma em V em uma soma em W , e a multiplicação por escalar
em V em uma multiplicação por escalar em W . Por outro lado, veja que se T : V −→W
é uma transformação linear, então T (0V ) = T (0 · 0V ) = 0 ⊙ T (0V ) = 0W . Uma forma
prática de verificar se uma transformação T : V −→W é linear ou não é dada pela seguinte
proposição.
75
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
76
Proposição 5.1.1 Sejam V, W dois k-espaços vetoriais e T : V −→W uma transformação.
Então T : V −→W é uma transformação linear se, e somente se,
T (u + λ · v) = T (u) ⊕ λ ⊙ T (v)
para todo u, v ∈ V e λ ∈ K.
Dem. ⇒) Seja T : V −→W uma transformação linear e u, v ∈ V e λ ∈ K. Então a partir
da definição 5.1.1 parte i), temos que T (u + λ · v) = T (u) ⊕ T (λ · v), agora pela parte ii)
da mesma definição segue que T (u + λ · v) = T (u) ⊕ λ ⊙ T (v), como querı́amos.
⇐) Vejamos que se λ 6= 0 ∈ K, então T (0V ) = T (0V + λ · 0V ) = T (0V ) ⊕ λ ⊙ T (0V ).
Mas como (W, ⊕) é um grupo abeliano, podemos cancelar T (0V ) da igualdade anterior e,
portanto, segue que λ ⊙ T (0V ) = 0W , mas como λ 6= 0 segue que T (0V ) = 0W . Po outro
lado,
T (λ · v) = T (0V + λ · v) = T (0V ) ⊕ λ ⊙ T (v) = λ ⊙ T (v)
pois T (0V ) = 0W . Portanto, vale ii) da definição 5.1.1.
Mostremos agora a parte i) da definição 5.1.1. Sejam u, v ∈ V , então T (u + v) =
T (u + 1 · v) = T (u) ⊕ 1 ⊙ T (v) = T (u) ⊕ T (v), como querı́amos. Logo, T é uma transformação linear.
Exemplo 5.1.1
1. Seja A ∈ Mm,n então definamos T : K n −→K m por TA (x) =
Ax ∀x ∈ K n . Então, T é linear pois, TA (x + λy) = A(x + λy) = Ax + λAy =
TA (x) + λTA (y) ∀x, y ∈ K n , λ ∈ K
2. Consideremos agora T : R3 −→R3 definida por T ((x, y, z)) = (x, y, 0). Então T é
linear, pois
T ((x, y, z) + λ(x′ , y ′ , z ′ )) = T ((x + λx′ , y + λy ′ , z + λz ′ ))
= (x + λx′ , y + λy ′ , 0) = (x, y, 0) + λ(x′ , y ′ , 0)
= T (x, y, z) + λT (x′ , y ′, z ′ )
∀(x, y, z), (x′ , y ′, z ′ ) ∈ R3 , λ ∈ R
3. Seja V = Pn (t), e consideremos a transformação dada pela derivação muito conhecida nos cursos de Cálculo Dt = dtd : V −→V dada por:
Dt (p(t) = a0 + a1 t + · · ·+ an tn ) =
d
(a0 + a1 t + · · ·+ an tn ) = a1 + 2a2 t + · · ·+ nan tn−1
dt
∀p(t) = a0 + a1 t + · · · + an tn ∈ V . A partir dos cursos de cálculo, a transformação
anterior é uma transformação linear.
77
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
4. Seja V = Pn (t) e seja W = R e definamos a transformação
Z
b
p(t)dt =
a
Z
b
Rb
a
: V −→W dada por
an tn+1 b
a1 t2
+···+
)/
(a0 + a1 t + · · · + an t )dt = (a0 t +
2
n+1 a
n
a
∀p(t) = a0 + a1 t + · · · + an tn ∈ V . A partir dos cursos de cálculo, é conhecido que a
transformação anterior é uma transformação linear, pois integral da soma é a soma
das integrais, e todo escalar pode sair da integral.
5. É fácil verificar que T (x) = x2 , T (x) = senx, T (x) = 2x+2 não são transformações
lineares, de maneira análoga T (x, y) = (2x + 2, 0) não é uma transformação linear
entre outras.
Proposição 5.1.2 Sejam V, W dois espaços vetoriais de dimensão finita, e sejam B =
{v1 , ..., vn } uma base de V , e C = {w1 , ..., wn } um conjunto de vetores de W , não
necessariamente diferentes. Então, existe uma única transformação linear T tal que
T (vi ) = wi ∀i = 1, ..., n
Dem. Seja V um espaço vetorial com base B, então sabemos que v = c1 v1 + · · · + cn vn .
Então, consideremos uma transformação T tal que T (vi ) = wi e T (v) = c1 w1 + · · ·+ cn wn .
Como B é uma base temos que T (0V ) = 0W . Vejamos agora que a transformação T é
linear. Sejam u, v ∈ V e α ∈ K então calculemos T (u + λv) = T ((d1 + λc1 )v1 + · · · + (dn +
λcn )vn ) = T (u) + λT (v) como querı́amos. Vejamos agora que a transformação T é única.
Seja U uma transformação tal que U(vi ) = wi ∀i = 1, ..., n e seja v = c1 w1 + · · · + cn wn ,
então temos
U(v) = c1 w1 + · · · + cn wn = T (v) ∀v ∈ V
pelas propriedades da definição de transformação linear. Portanto temos que T = U,
portanto a transformação T é única.
5.1.1
Exercı́cios
1. Mostre que as seguintes transformações são lineares :
a) T : R2 −→R2 definida por T (x, y) = (−x, 2y)
b) T : R3 −→R2 definida por T (x, y, z) = (−x, 2y + z)
c) T : R2 −→R2 definida por T (x, y) = (ax + by, cx + dy)
2. Quais das seguintes transformações são lineares? e justifique.
a) T (x, y) = (x2 , y)
b) T (x, y) = (senx, seny)
c) T (x, y) = (y, x)
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
78
3. Consideremos a Rotação de um vetor (x, y) ∈ R2 em um angulo θ dada por :
xcosθ − ysenθ
cosθ senθ
x
Q(x, y) =
=
xsenθ + ycosθ
senθ cosθ
y
Então mostre que Q(x, y) é uma transformação Linear.
4. Consideremos a transformação T : R3 −→R2 definida por T (x, y, z) = (x, y, 0), conhecida como projeção ortogonal. Mostre que a transformação T é uma transformação Linear.
5. Considere a transformação R : R3 −→R3 definida por R(x, y, z) = (x, y, −z), conhecida como reflexão no plano xy. Mostre que R é uma transformação Linear.
6. Represente geometricamente cada uma das seguintes transformações :
a) T (x, y) = (x + y, y)
b) T (x, y) = (3x, 0)
c) T (x, y) = (y, x)
7. Seja Pn (K) o conjunto dos polinômios de grau menor ou igual a n. Mostre que as
transformações a seguir são lineares:
T ((a0 + a1 t + · · · + an tn ) = a0 t + a1 t2 + · · · + an tn+1
S(a0 + a1 t + · · · + an tn ) = a1 + a2 t + · · · + an tn−1
8. Sejam V = Mn , e M ∈ Mn . Quais das seguintes transformações são lineares?
a) T (X) = MX, ∀X ∈ V
b) T (X) = MX − XM, ∀X ∈ V
c) T (X) = M − X, ∀X ∈ V
9. Seja V = Mn . Mostre que as seguintes transformações são lineares :
a) TP (A) = P A, onde P é inversı́vel.
b) T (A) = P AQ, onde P, Q são inversı́veis.
c) T (A) = P −1AP , onde P é inversı́vel.
d) T (A) = P t AP , onde P é inversı́vel.
10. Sejam V = Pn (R) e T a transformação que leva o polinômio p(t) ∈ V , na sua
derivada segunda. Será que T é uma transformação linear?
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
5.2
79
Núcleo e Imagem de Transformações Lineares
Nesta seção, daremos algumas ferramentas para poder caracterizar algumas transformações lineares, que serão de muita ajuda no decorrer deste texto.
Definição 5.2.1 Sejam V, W dois espaços vetoriais e T : V −→W uma transformação
linear. Chamaremos de Núcleo da transformação T ao seguinte conjunto:
N(T ) = {v ∈ V /T (v) = 0W }
Chamaremos de Imagem da transformação linear T ao seguinte conjunto :
I(T ) = {w ∈ W/ ∃v ∈ V tq T (v) = w}
Exemplo 5.2.1 Consideremos agora T : R3 −→R3 definida por T ((x, y, z)) = (x, y, 0).
Então, o seu nucleo é dado por N(T ) = {(0, 0, 0)}, e seu conjunto Imagem é dado por
I(T ) ∼
= R2
Proposição 5.2.1 Sejam V, W dois espaços vetoriais não vazios e, T : V −→W uma
transformação linear. Então, N(T ) é um subespaço vetorial de V e I(T ) é um subespaço
vetorial de W .
Dem. Sejam u, v ∈ N(T ), então temos que T (u) = T (v) = 0W , e seja λ ∈ K, então
mostremos que u + λv está em N(T ). Logo, T (u + λv) = T (u) + λT (v), pois T é
uma transformação linear, e como u, v ∈ N(T ) segue que T (u + λv) = 0W , portanto
u + λv ∈ N(T ), logo o conjunto N(T ) é um subespaço vetorial de V .
Mostremos agora que I(T ) é um subespaço vetorial de W . Então, sejam w, w ′ ∈ I(T )
e λ ∈ K. Mas como w, w ′ ∈ I(T ), então temos que existem v, v ′ ∈ V tal que T (v) =
w e T (v ′ ) = w ′ , logo
w + λw ′ = T (v) + λT (v ′ ) = T (v + λv ′ ) ∈ I(T )
Portanto, I(T ) é um subespaço vetorial de W como querı́amos.
Corolário 11 Seja T : V −→W uma transformação linear. Se o conjunto {v1 , ..., vn }
é um conjunto gerador do espaço vetorial V , então o conjunto {T (v1 ), ..., T (vn )} é um
conjunto gerador de I(T ).
Dem. Seja w ∈ I(T ), então existe v ∈ V tal que T (v) = w, mas como o conjunto
{v1 , ..., vn } é um conjunto gerador de V , temos que existem c1 , ..., cn ∈ K tal que
v = c1 v1 + · · · + cn vn , e como T é linear segue que
w = T (v) = T (c1 v1 + · · · + cn vn ) = c1 T (v1 ) + · · · + cn T (vn )
Logo, o vetor w ∈ I(T ) é gerado pelo conjunto {T (v1 ), ..., T (vn )}.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
80
Exemplo 5.2.2
1. Seja V um espaço vetorial e id : V −→V denota a transformação
identidade, isto é id(v) = v. Então, N(id) = {0} e I(id) = V . Denotemos por
0 : V −→V , a transformação nula, isto é, 0(v) = 0, então N(0) = V e I(0) = {0}.
2. Seja V = Mm,n e seja TA : K n −→K m dada por TA (x) = Ax, onde A ∈ V . Então,
N(TA ) = {x ∈ K n /TA (x) = Ax = 0}
logo o núcleo de TA é dado pelo conjunto solução do sistema homogêneo Ax = 0.
Agora, o conjunto imagem é dado por:
I(TA ) = {y ∈ K m /∃x ∈ K n ; TA (x) = Ax = y}
que denota o conjunto solução do sistema não homogêneo determinado por Ax = y.
3. Seja V = R2 e T : R2 −→R2 dada por T (x, y) = (x + y, 2x + y). Então o conjunto
N(T ) = {(x, y) ∈ R2 /T (x, y) = (x + y, 2x + y) = (0, 0)} = {(0, 0)}.
Agora o conjunto I(T ) = {(u, v) ∈ R2 /∃(x, y) ∈ R2 ; T (x, y) = (u, v)} = {(−u +
v, 2u − v)}
Exemplo 5.2.3 Consideremos a transformação linear T : R3 −→R3 dada por T (x, y, z) =
(x + 2y − z, y + z, x + y − 2z). Então, calculemos uma base para N(T ) e para I(T ). Veja
que N(T ) = {(x, y, z) ∈ R3 /T (x, y, z) = (0, 0, 0)}, ou seja, temos o seguinte sistema de
equações homogêneo:

 x+ 2y− z = 0
y+ z = 0

x+ y− 2z = 0
Logo, temos que x = 3z; y = −z; z = z, isto é, (x, y, z) ∈ N(T ) se ele é da seguinte forma
(3z, −z, z) = z(3, −1, 1), logo o vetor (3, −1, 1) é gerador de N(T ), e como é não nulo,
ele é LI. Portanto, é uma base para N(T ), logo dimK N(T ) = 1.
Para calcular a base de I(T ), consideremos a base canônica de R3 dada por B =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Logo, I(T ) é gerada por {T ((1, 0, 0)), T ((0, 1, 0)), T ((0, 0, 1))} =
{(1, 0, 1), (2, 1, 1), (−1, 1, −2)}, e como este conjunto é LD (verifique!), temos que um dos
vetores é combinação linear dos outros, então podemos tirar qualquer vetor, logo podemos
considerar o seguinte conjunto {(1, 0, 1), (2, 1, 1)} como base de I(T ) e dimK I(T ) = 2.
Definição 5.2.2 Sejam V, W espaços vetoriais e T : V −→W uma transformação linear.
Então :
1) T é injetora se T (v1 ) = T (v2 ) ⇒ v1 = v2 .
2) T é sobrejetora se I(T ) = W .
3) T é bijetora se, a transformação T é injetora e sobrejetora.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
81
Na proposição a seguir, damos uma ferramenta prática para poder decidir quando uma
transformação linear é ou não injetora, sem recorrer da definição 5.2.2.
Proposição 5.2.2 Sejam V, W espaços vetoriais e T : V −→W uma transformação linear. Então, T é injetora se, e somente se, N(T ) = {0V }.
Dem. ⇒) Seja T uma transformação injetora. Então calculemos N(T ) = {v ∈ V /T (v) =
0W }. Como T é uma transformação linear temos que T (0V ) = 0W e como T é injetora
segue que se v ∈ N(T ), então T (v) = 0W portanto, v = 0, logo N(T ) = {0}.
⇐) Seja T uma transformação linear tal que N(T ) = {0}, então sejam v1 , v2 ∈ V tal
que T (v1 ) = T (v2 ). Logo, como T é uma transformação linear segue que T (v1 − v2 ) = 0W ,
portanto v1 − v2 ∈ N(T ) = {0}, então temos que v1 = v2 e T é uma transformação linear
injetora.
Exemplo 5.2.4
1. Seja V um espaço vetorial e id : V −→V , então id é injetora e
sobrejetora, logo é uma bijeção. Por outro lado, a transformação nula 0 : V −→V ,
não é injetora nem sobrejetora desde que V 6= {0}.
2. Seja A ∈ Mn e TA : K n −→K n tal que TA (x) = Ax. Esta transformação é injetora
desde que a matriz A seja inversı́vel.
A proposição a seguir, é de muita utilidade para determinar injetividade e sobrejetividade de uma transformação linear, como mostram o seus corolário.
Proposição 5.2.3 Sejam V, W espaços vetoriais de dimensão finita e T : V −→W uma
transformação linear. Então,
dimK N(T ) + dimK I(T ) = dimK V
Dem. Seja V um espaço vetorial tal que dimK V = n e seja {v1 , ..., vt } uma base de
N(T ), então existem vt+1 , ..., vn ∈ V tal que o conjunto {v1 , ..., vt , vt+1 , ..., vn } é uma base
do espaço vetorial V . Mostremos então que o conjunto {T (vt+1 ), ..., T (vn )} é uma base de
I(T ). Claramente, o conjunto {T (v1 ), ..., T (vt ), T (vt+1 ), ..., T (vn )} = {T (vt+1 ), ..., T (vn )}
é um conjunto gerador de I(T ), pelo corolário 5.1.1. Então, só resta mostrar que este
conjunto é linearmente independente. Então, sejam αt+1 , ..., αn ∈ K tais que
αt+1 T (vt+1 ) + · · · + αn T (vn ) = 0W
como T é uma transformação linear segue que
T (αt+1 vt+1 + · · · + αn vn ) = 0W
Então αt+1 vt+1 + · · · + αn vn ∈ N(T ). Agora, como o conjunto {v1 , ..., vt } é uma base de
N(T ), temos que existem β1 , ...., βt ∈ K tais que
β1 v1 + · · · + βt vt = αt+1 vt+1 + · · · + αn vn
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
82
ou seja
β1 v1 + · · · + βt vt − (αt+1 vt+1 + · · · + αn vn ) = 0V
Mas, como o conjunto {v1 , ..., vt , vt+1 , ..., vn } é uma base de V , então ele é linearmente
independente, portanto todos os escalares β1 , ..., βt , αt+1 , ...., αn são nulos, em particular
αt+1 = · · · = αn = 0. Portanto, temos que o conjunto {T (vt+1 ), ..., T (vn )} é uma base de
I(T ) e finalmente temos que dimK N(T ) + dimK I(T ) = dimK V como querı́amos.
Corolário 12 Sejam V, W espaços vetoriais e T : V −→W uma transformação linear.
Se dimK V > dimK W , então a transformação T não pode ser injetora.
Dem. Sejam V, W espaços vetoriais tais que dimK V > dimK W . Se T é uma transformação injetora temos que dimK N(T ) = dimK {0V } = 0, logo temos que
dimK V = dimK N(T ) + dimK I(T ) = 0 + dimK I(T ) ≤ dimK W
que é uma contradição, pois dimK V > dimK W .
Corolário 13 Sejam V, W espaços vetoriais e T : V −→W uma transformação linear.
Se dimK V < dimK W , então a transformação T não pode ser sobrejetora.
Dem. Vamos supor que a transformação T é sobrejetora, então dimK I(T ) = dimK W ,
então segue que
dimK V = dimK N(T ) + dimK I(T ) = dimK N(T ) + dimK W
Logo, temos que dimK V ≥ dimK W uma contradição.
T
U
Proposição 5.2.4 Sejam V, W, Z espaços vetoriais e V −→W −→Z duas transformações
lineares, então temos que a composta U ◦ T : V −→Z dada por U ◦ T (v) = U(T (v)) é uma
transformação linear.
Dem. Sejam v, v ′ ∈ V e λ ∈ K, então
U ◦ T (v + λv ′ ) = U(T (v + λv ′ )) = U(T (v) + λT (v ′))
= U(T (v)) + λU(T (v ′ )) = U ◦ T (v) + λU ◦ T (v ′ )
pois tanto T como U são transformações lineares, então U ◦ T é uma transformação linear.
Consideremos V, W dois espaços vetoriais e T : V −→W uma transformação linear
bijetora, então existe T −1 : W −→V tal que T ◦ T −1 = idW e T −1 ◦ T = idV . Será que
existe uma transformação linear que admita inversa, sem ela ser uma bijeção?
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
83
Proposição 5.2.5 Sejam, V, W espaços vetoriais e T : V −→W uma transformação linear bijetora, então T −1 tambem é uma transformação linear.
Dem. Sejam w, w ′ ∈ W e λ ∈ K. Então, existem v, v ′ ∈ V, T (v) = w, T (v ′) = w ′
T −1 (w + λw ′ ) = T −1 (T (v) + λT (v ′ ))
Pois a transformação T é sobrejetora. Agora, como T é linear temos
T −1 (w+λw ′) = T −1 (T (v+λv ′)) = v+λv ′ = T −1 (T (v))+λT −1(T (v ′)) = T −1 (w)+λT −1 (w ′)
Portanto, T −1 é uma transformação linear.
Exemplo 5.2.5 Seja V = R2 = W e T (x1 , x2 ) = (x1 + x2 , x1 ) uma transformação linear.
Veja que N(T ) = {(0, 0)} e I(T ) = W , então existe T −1 que podemos definir da seguinte
forma: T −1 (u, v) = (v, u − v) pois
T ◦ T −1 (u, v) = T (T −1 (u, v)) = T (v, u − v) = (v + (u − v), v) = (u, v)
de maneira análoga temos que
T −1 ◦ T (x1 , x2 ) = T −1 (x1 + x2 , x1 ) = (x1 , (x1 + x2 ) − x1 ) = (x1 , x2 )
Proposição 5.2.6 Sejam V, W espaços vetoriais e T : V −→W uma transformação linear. Então a transformação T é injetora se, e somente se, T transforma conjuntos
linearmente independentes em conjuntos linearmente independentes.
Dem. ⇒) Sejam T : V −→W uma transformação linear injetora, {v1 , ..., vn } um subconjunto linearmente independente de V . Então mostremos que o conjunto {T (v1 ), ..., T (vn )}
é linearmente independente em W . Logo, sejam α1 , ..., αn ∈ K tal que
α1 T (v1 ) + · · · + αn T (vn ) = 0W
mas como T é linear, segue que T (0V ) = 0W , e então
T (α1 v1 + · · · + αn vn ) = T (0V )
Agora, como T é injetora temos que α1 v1 + · · · + αn vn = 0V . Como o conjunto
{v1 , ..., vn } é linearmente independente, segue que α1 = · · · = αn = 0, portanto temos que
o conjunto {T (v1 ), ..., T (vn )} é linearmente independente.
⇐) Sabemos que T leva conjuntos linearmente independentes em conjuntos linearmente independentes, então seja v 6= 0V ∈ V . Claramente, v é linearmente independente,
então T (v) também é linearmente independente, portanto T (v) 6= 0W . Logo, a transformação T leva vetores não nulos em vetores não nulos, logo N(T ) = {0V }, isto é, T é
injetora como querı́amos mostrar.
84
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
Proposição 5.2.7 Sejam V, W dois espaços vetoriais tais que dimK V = dimK W = n e
T : V −→W uma transformação linear. Então são equivalentes :
i) T é inversı́vel.
ii) T é sobrejetora.
iii) T é injetora.
iv) Toda imagem de uma base por T é uma base.
Dem. i) ⇒ ii) Se T é inversı́vel, então segue que dimK V = dimK W , então T é sobrejetora.
ii) ⇒ iii) Como dimK N(T ) + dimK I(T ) = dimK V = dimK W = n, e a transformação
T é sobrejetora, temos que dimK I(V ) = dimK W = n, logo segue que dimK N(T ) = 0 ou
seja que, N(T ) = {0V }, isto é, T é injetora.
iii) ⇒ iv) A partir da proposição 5.2.6 T leva conjuntos linearmente independentes
em conjuntos linearmente independentes. Então seja {v1 , ..., vn } uma base de V , então o
conjunto {T (v1 ), ..., T (vn )} é linearmente independente, e como dimK V = dimK W segue
que o conjunto {T (v1 ), ..., T (vn )} é uma base de W .
iv) ⇒ i) Seja {v1 , ..., vn } uma base de V , então o conjunto {T (v1 ) = w1 , ..., T (vn ) =
wn } é uma base de W . Definamos S : W −→V
P tal que S(wi ) = vi onde i = 1, ..., n.
Mostremos que S é a inversa de T . Seja v = n1 ci vi , então
S ◦ T (v) = S(T (v)) = S(T (
n
X
ci vi )) = S(
1
n
X
ci w i ) =
1
n
X
ci S(wi ) =
n
X
ci vi = v
1
1
Portanto S ◦ T = idV .
P
Seja agora w ∈ W , então w = n1 ai wi pois {w1 , ..., wn } é base de W . Logo,
T ◦ S(w) = T (S(w)) = T (S(
= T(
n
X
1
ai vi ) =
n
X
1
n
X
ai wi )) = T (
1
ai T (vi ) =
n
X
ai S(wi )) =
1
n
X
ai wi = w
1
Portanto, a transformação T é inversı́vel, e S é a sua inversa.
5.2.1
Exercı́cios
1. Determine dimK I(T ) e dimK N(T ) nas seguintes transformações lineares :
a) T (x, y, z) = (x − y, y + z, z + x)
b) T (x, y, z) = (y, z, x)
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
85
c) T (x, y, z) = (x + y + z, x − y + z, −x + y + z)
2. Seja T (x, y, z) = (x − y + 2z, 2x + y, −2y + 2z) então :
a) Seja (a, b, c) ∈ R3 . Quais são as condições sobre a, b, c tais que (a, b, c) ∈ I(T )?,
e calcule dimK I(T ).
b) Seja (a, b, c) ∈ R3 . Quais são as condições sobre a, b, c tais que (a, b, c) ∈ N(T )?,
e calcule dimK N(T ).
3. Sejam V = R3 , e B = {e1 = (1, 0, 0); e2 = (0, 1, 0); e3 = (0, 0, 1)} a base canônica.
Ache T (3, 2, 8) se T ((1, 0, 0)) = (0, 0, 1); T ((0, 1, 0)) = (1, 0, 0); T ((0, 0, 1)) = (0, 1, 0)
4. Seja V um espaço vetorial de dimensão n, e T : V −→V uma transformação linear
tal que I(T ) = N(T ). Mostre que n é um número par.
5. i) É possı́vel ter uma transformação linear T : R3 −→R2 que seja injetora? Justifique.
ii) É possı́vel ter uma transformação linear T : R2 −→R3 que seja sobrejetora?
Justifique.
iii) É possı́vel ter uma transformação linear T : Kn −→Kn que seja injetora e não
sobrejetora? Justifique.
6. Dê um exemplo de uma transformação linear entre espaços vetoriais de dimensões
diferentes que seja injetora mas não sobrejetora, e outra que seja sobrejetora mas
não injetora.
7. Sejam B = {v1 = (1, 1, 1); v2 = (−1, 1, 1); v3 = (0, 0, −1)}.
a) Mostre que B é uma base.
b) Seja T (v1 ) = v1 ; T (v2 ) = −v2 ; T (v3 ) = 2v3
i) Calcule T (e1 ); T (e2 ); T (e3 ), onde {e1 , e2 , e3 } é a base canônica de R3
ii) Obtenha uma expressão genérica pata T (x, y, z)
iii) Calcule dimK N(T ) e decida se T é inversı́vel.
8. Seja A ∈ V = Mm,n , e seja T : K n −→K m definida por T (X) = AX. Mostre que :
a) T é sobrejetora se, e somente se, o número de linhas não nula da matriz reduzida
escalonada associada a matriz A é m.
b) T é injetora se, e somente se, o número de linhas não nulas da matriz reduzida
escalonada associada a matriz A é n.
c) T é inversı́vel se, e somente se, o número de linhas não nulas da matriz reduzida
associada a matriz A é m = n.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
5.3
86
Representação de Transformações Lineares por
Matrizes
Seja V um espaço vetorial e seja B = {v1 , ..., vn } umaP
base ordenada de V . Sabemos
n
que cada vetor v ∈ V admite uma única forma v =
1 αi vi , onde α1 , ..., αn ∈ K.
Estes escalares são conhecidas
como
as
coordenadas
do
vetor
v, na base ordenada B, que


α1
 .. 
representamos por [v]B =  . . Consideremos agora W um espaço vetorial com base
αn
′
ordenada B = {w1 , ..., wm }, então T (B) é dada por:
T (vi ) =
m
X
aji wj
j=1
onde i = 1, ..., n. Então a matriz coordenada de cada T (vi ) é dada da seguinte forma:


a1i


[T (vi )]B′ =  ...

ami
Então a matriz associada a transformação linear T

a11 · · ·
 ..
B
[T ]B′ =  .
é dada por

am1

..

.
am1 · · · amn
Exemplo 5.3.1 Sejam V = R3 , W = R2 espaços vetoriais com as suas bases canônicas
B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} e B′ = {(1, 0), (0, 1)}, e a transformação linear dada por:
T (x1 , x2 , x3 ) = (x1 − x2 , 2x1 − x2 + x3 )
Então calculemos a matriz [T ]BB′ da seguinte forma:
• T (v1 ) = T ((1, 0, 0)) = (1, 2) = 1w1 + 2w2
• T (v2 ) = T ((0, 1, 0)) = (−1, −1) = (−1)w1 + (−1)w2
• T (v3 ) = T ((0, 0, 1)) = (0, 1) = 0w1 + 1w2
Portanto, a matriz de T é dada por:
[T ]BB′
=
1 −1 0
2 −1 1
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
87
Definição 5.3.1 Seja V um espaço vetorial. Chamaremos de operador linear a transformação linear T : V −→V .
Para calcular a representação matricial do operador T : V −→V sempre consideraremos
a mesma base de V , que a denotaremos por [T ]B a menos que seja especificado o contrário.
Exemplo 5.3.2
1. Sejam V = R2 , com base canônica B = {(1, 0), (0, 1)}, e T ((x1 , x2 )) =
(x1 + kx2 , x2 ) um operador linear. Então calculemos:
• T ((1, 0)) = (1, 0) = 1v1 + 0v2
• T ((0, 1)) = (k, 1) = kv1 + 1v2
1 k
Portanto, segue que [T ]B =
0 1
2. Sejam V = P2 (t) e B = {1, t, t2} e o operador T =
[T ]B da seguinte forma:
•
•
•
d
dt
: V −→V . Então calculemos
d
(1) = 0 = 0 · 1 + 0 · t + 0 · t2
dt
d
(t) = 1 = 1 · 1 + 0 · t + 0 · t2
dt
d 2
(t ) = 2t = 0 · 1 + 2 · t + 0 · t2
dt


0 1 0
Portanto, segue que [T ]B = [ dtd ]B =  0 0 2 
0 0 0
3. Sejam V = R2 e B = {e1 = (1, 0), e2 = (0, 1)} e o operador T definido por :
Tθ (x, y) = (−xcosθ − ysenθ, xsenθ + ycosθ), onde 0 ≤ θ ≤ 2π é fixo. Então
calculemos da seguinte forma:
• Tθ ((0, 1)) = (−cosθ, senθ) = −cosθ(1, 0) + senθ(0, 1)
• Tθ ((0, 1))
= (−senθ, cosθ) = −senθ(1, 0) + cosθ(0, 1) Portanto, temos que
−cosθ −senθ
[Tθ ]B =
senθ cosθ
Veja que a construção anterior estabelece uma correspondência entre as matrizes quadradas e os operadores lineares, e uma vez fixada a base ordenada do espaço vetorial, esta
correspondência será injetora e sobrejetora, como estabelece a seguinte proposição.
Proposição 5.3.1 Seja V um espaço vetorial de dimK V = n e base B = {v1 , ..., vn }.
Então, Ψ : Mn −→{Operadores lineares em V } é uma bijeção.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
88
Exemplo 5.3.3 Seja V = P2 (t) o espaço vetorial dos polinômios de grau menor ou igual
d
2
a dois e T =
2 (t) dada pela derivada. Seja B = {1, t, t }, então sabemos
 dt : P2 (t)−→P

0 1 0
d

0 0 2 . Então veja que se p(t) = c + bt + at2 ∈ V , temos que
que [ dt ]B =
0 0 0
  
  

c
0 1 0
c
b
d
[ ]B  b  =  0 0 2   b  =  2a 
dt
a
0 0 0
a
0
Que é exatamente
d
(c
dt
+ bt + at2 ) = b + 2t + 0t2 .
Proposição 5.3.2 Sejam V um espaço vetorial e B = {v1 , ..., vn } uma base ordenada de
V , e sejam U, T operadores lineares. Se [T ]B = A, e [U]B = B, então [U ◦ T ]B = BA.
Dem. Seja C = [U ◦ T ]B e sejam A = [T ]B , B = [U]B . Logo, basta verificar que para todo
v ∈ V temos que
[U ◦ T ]B [v]B = [U]B [T ]B [v]B
.
Corolário 14 Seja T um operador linear. Então T é inversı́vel se, e somente se, [T ]B é
inversı́vel.
Dem. ⇒) Seja T inversı́vel, então existe T −1 tal que T ◦ T −1 = T −1 ◦ T = idV , logo
[T ◦ T −1 ]B = [T ]B [T −1 ]B = [idV ]B = In
Portanto, temos que [T −1 ]B = [T ]−1
B .
⇐) Seja a matriz A = [T ]B inversı́vel, então existe uma única matriz A−1 tal que
In = A · A−1 = [T ]B [U]B = [T ◦ U]B = [idV ], logo T é inversı́vel como querı́amos.
5.3.1
Ecercı́cios
1. Ache a representação matricial de T onde T é dada por :
a) T (x, y) = (2x, 3y)
b) T (x, y) = (−x, −y)
c) T (x, y) = (x, 3y)
d) T (x, y) = (−x + y, 3y)
e) T (x, y) = (2x + 3y, −x + y)
f) T (x, y) = (3x, 3y)
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
89
2. Seja T (x, y) = (2x, 3x − 2y). Então ache a representação matricial de T onde :
a) a base é B = {(1, 0), (0, 1)}.
b) a base é B = {(1, 2), (3, 5)}.
3. Sejam V = P3 (t) e T =
d
.
dt
Ache a representação matricial para T onde :
a) a base é B = {1, t, t2 , t3 }.
b) a base é B = {t2 , t, t3 , 1}.
4. Seja o operador T definido por T (x, y, z) = (3x + z, y + z, −x + 2y + 3z), então
determine :
a) [T ]B onde a base é B = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}.
b) [T ]B onde a base é B = {(1, 0, 1), (−1, 2, 1), (2, 1, 1)}.
1 2
e seja T : R2 −→R2 tal que T (v) = Av t . Ache a matriz de T
5. Seja A =
3 5
onde :
a) a base é B = {(1, 0), (0, 1)}.
b) a base é B = {(1, 3), (2, 5)}.
5.4
Autovalor, Autovetor e Diagonalização
Definição 5.4.1 Seja V um K-espaço vetorial de dimensão n, e T : V −→V um operador
linear. Um escalar λ ∈ K é dito um autovalor de T se existem vetores 0 6= v ∈ V tal
que T (v) = λv.
Todo vetor v ∈ V tal que T (v) = λv é dito o autovetor associado ao autovalor λ ∈ K.
Denotaremos por Vλ o conjunto de todos os autovetores associados ao autovalor λ.
Fixemos um K-espaço vetorial V com base ordenada B = {v1 , ..., vn }, e T : V −→V um
operador linear. Se consideramos A = [T ]B e X = [v]B , então temos a seguinte equação
matricial
AX = λX ou T (v) = λv
de onde segue que:
(AX − λX) = 0V ⇔ (A − λIn )X = 0V
Então, temos a seguinte proposição.
Proposição 5.4.1 Sejam V um K-espaço vetorial e T : V −→V um operador linear.
Então são equivalentes :
i) A equação matricial AX = λX tem soluções não nulas.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
90
ii) A matriz (A − λIn ) não é inversı́vel.
iii) det(A − λIn ) = 0
Dem. i) ⇒ ii) Seja A ∈ Mn , e seja X 6= 0V tal que AX = λX. Então temos que
o sistema homogêneo (A − λIn )X = 0V admite soluções não triviais, portanto a matriz
(A − λIn ) não é inversı́vel.
ii) ⇒ iii) Se a matriz (A − λIn ) não é inversı́vel, então o det(A − λIn ) = 0.
iii) ⇒ i) Se o det(A−λIn ) = 0, então o número de linhas não nulas da matriz reduzida
associada a matriz (A − λIn ) é menor estrito do que n, logo o sistema homogêneo associado terá mais indeterminadas do que equações, portanto admite soluções não triviais. Definição 5.4.2 Chamaremos de polinômio caracterı́stico associada à matriz A ao
polinômio p(x) = det(A − xIn ).
A equação p(x) = det(A−xIn ) = 0 é conhecida como equação caracterı́stica associada à matriz A, e não é dificil mostrar que as soluções ou raı́zes da equação caracterı́stica
dada por p(x) = det(A − xIn ) = 0, correspondem-se com os autovalores associados a
matriz A, como mostra-se no seguinte exemplo.
1 2
. Então o polinômio caracterı́stico é dado por
Exemplo 5.4.1 Seja A =
3 2
x 0
1 2
)
−
p(x) = det((A − xI2 )) = det(
0 x
3 2
1−x 2
= det(
) = (1 − x)(2 − x) − 6 = x2 − 3x − 4 = 0
3
2−x
Portanto, os autovalores são λ1 = 4; λ2 = −1 que são as raı́zes de p(x) = x2 − 3x − 4 = 0.
Calculemos agora V4 , V−1 .
2
x+ 2y = 4x
4x
x
x
1 2
x
⇔ x = ( )y
}⇔
=
=4
/
V4 = {
3x+ 2y = 4y
4y
y
y
3 2
y
3
2/3
2/3
x
2
]. Logo, V4 é gerado pelo vetor
/x = ( 3 )y} = [
Portanto, V4 = {
1
1
y
que é linearmente independente, por ser não nulo, e dimK V4 = 1.
De maneira análoga
x+ 2y = −x
−x
x
x
1 2
x
}⇔
⇔ x = −y
=
= −1
/
V−1 = {
3x+ 2y = −y
−y
y
y
3 2
y
−1
x
]
/x = −y} = [
Portanto, V−1 = {
1
y
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
Exemplo 5.4.2
1. Seja A =
1 1
0 1
91
. Logo, o polinômio caracterı́stico é dado por :
p(x) = det(A − xI2 ) = (1 − x)2
Então o único autovalor de A é λ = 1. Calculemos agora V1 da seguinte forma :
x
x
1 1
=1
y
y
0 1
1
de onde segue que X =
é un autovetor correspondente ao autovalor 1.
0
0 −1
2. Seja A =
∈ M2 (R). Então as raı́zes da equação caracterı́stica pA (x) =
1 0
det(A − xI2 ) = x2 + 1 = 0 são λ = i; λ = −i, que não pertencem ao corpo R.
Portanto, a matriz A não tem autovalores reais.
A partir de agora assumiremos que o corpo K = C dos números complexos. As
matrizes sobre R podem ser vistas como matrizes sobre C, pois R ⊆ C, como visto no
capı́tulo A.
Proposição 5.4.2 Sejam A, B duas matrizes semelhantes, (isto é, existe uma matriz
inversı́vel M tal que B = M −1 AM), então :
i) det(B) = det(A)
ii) pA (x) = det(A − xIn ) = det(B − xIn ) = pB (x), logo têm os mesmos autovalores.
iii) Se vλ é um autovetor da matriz A, correspondente ao autovalor λ, então M −1 vλ é
um autovetor de M −1 AM correspondente ao autovalor λ.
Dem. Sejam A, B semelhantes, isto é, existe uma matriz M inersı́vel tal que B =
M −1 AM.
i) Logo
det(B) = det(M −1 AM) = det(M −1 )det(A)det(M) = det(M)−1 det(A)det(M) = det(A)
.
ii) Então, temos que :
M −1 (A − xIn )M = M −1 AM − xM −1 In M = B − xIn
Logo, det(A − xIn ) = det(M −1 (A − xIn )M) = det(B − xIn ) como querı́amos.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
92
iii) Seja vλ um autovetor correspondente ao autovalor λ associado a matriz A, logo Avλ =
λvλ . Então, mostremos que M −1 vλ é um autovetor de B = M −1 AM. Para isto,
calculemos:
BM 1 vλ = (M −1 AM)(M −1 vλ ) = M −1 Avλ
Mas, como Avλ = λvλ segue-se que :
BM 1 vλ = M −1 (λvλ ) = λ(M −1 vλ )
Portanto, M −1 vλ é um autovetor de M −1 AM correspondente a λ.
Corolário 15 Seja A ∈ Mn semelhante a uma matriz diagonal D, então os elementos
da diagonal da matriz D são os autovalores da matriz A.
Dem. Como as matrizes A e D são semelhantes, temos que elas tem os mesmos autovalores, e claramente os autovalores da matriz D são os elementos da diagonal.
Definição 5.4.3 Diremos que uma matriz A é diagonalizável se for semelhante a
uma matriz diagonal D. Diremos que a matriz inversı́vel M é diagonalizante se
D = M −1 AM.
Definição 5.4.4 Diremos que um operador T sobre o espaço vetorial V é diagonalizável,
se para alguma base B de V , sua representação matricial [T ]B é uma matriz diagonal, e
diremos que a base B diagonaliza T .
Proposição 5.4.3 Seja A uma representação matricial de um operador T sobre o espaço
vetorial V . Então, a transformação T é diagonalizável se, e somente se, existe uma matriz
inversı́vel M tal que D = M −1 AM é uma matriz diagonal.
Proposição 5.4.4 Seja A ∈ Mn . A é diagonalizável se, e somente se, a matriz A tem n
autovetores linearmente independentes.
Nesta proposição temos que os autovalores λ1 , ..., λn ∈ K da matriz A não são necessariamente todos diferentes, como mostra o seguinte exemplo.
Exemplo 5.4.3 seja T : R3 −→R3 tal que:


3 1 −1
A = [T ]B =  2 2 1 
2 2 0
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
93
Onde B é uma base de R3 . logo, o polinômio caracterı́stico associado a matriz A é
dado por: pA (x) = (x − 1)(x − 2)2 e, portanto tem os autovalores 1 e 2. Cálculemos agora
os subespaços vetoriais V1 e V2 .
  
 
   
x
3 1 −1
x
x
x
V1 = { y  /  2 2 1   y  = 1  y  =  y  }
z
2 2 0
z
z
z

 3x+ y− z = x
x = 2z
2x+ 2y+ z = y ⇔
⇔
y=0

2x+ 2y+ 0z = z
 
1

Portanto V1 = [ 0 ]
2
 
1

De maneira análoga, temos que V2 = [ 1 ]. Como os autovetores associados a
2
 
 
1
1



0
1  temos que não podemos ter
transformação T são múltiplos de
ou do vetor
2
2
3
uma base de R formada por autovetores associados a transformação linear T . Portanto,
a transformação T não é diagonalizável, pois só admite dois autovetores linearmente
independentes e deveriam ser três segundo a proposição 5.4.4.
1 2
Exemplo 5.4.4 Seja A =
do exemplo 5.4.1 e sabemos que é diagonalizável
3 2
2
1
pois A admite dois autovetores linearmente independentes, a saber
;
Seja
3
−1
2 1
M=
, a matriz, cujas colunas são os autovetores da matriz A. Então, podemos
3 −1
obter a matriz diagonal da seguinte forma:
4 0
2 1
1 2
1/5 1/5
−1
=D
=
M AM =
0 −1
3 −1
3 2
3/5 −2/5
Proposição 5.4.5 Seja A ∈ Mn tal que tem n autovalores diferentes, então a matriz A
é diagonalizável.
Veja que a recı́proca da proposição 5.4.5 não é verdadeira, isto é, não é verdade que
se a matriz A é diagonalizável então os seus autovalores tem que ser diferentes, como
mostra o seguinte exemplo.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
Exemplo 5.4.5 Seja T : R3 −→R3 tal que:

1

−2
A = [T ]B =
2
2
−3
2
94

−1
1 
−2
Onde B é uma base de R3 .
2
Logo, o polinômio
 caracterı́stico
   é dado por
 pA (x)
 = (x + 1) (x + 2), de onde te1
0
1





mos que V−1 = [ 0 ; 1 ] e V−2 = [ −1 ]. Veja que a matriz A, admite
2
2
1
um
autovalor
repetido,
a
saber
−1,
mas
a
partir
da proposição 5.4.4 temos a base B′ =
    

1
0
1
 0  ;  1  ;  −1  tal que
2
2
1


−1 0
0
−1 0 
[T ]B′ =  0
0
0
−2
Logo, a transformação linear T é diagonalizável.
A seguir, relacionaremos a multiplicidade de um autovalor λ associado a uma matriz A,
com a dimensão do subespaço vetorial formado pelos autovetores associados ao autovalor
λ. Para isto, vejamos a seguinte definição.
Definição 5.4.5 Seja λ um autovalor associado a matriz A ∈ Mn , cujo polinômio caracterı́stico é dado por pA (x) = (x − λ)m q(x), com q(λ) 6= 0. O número m é chamado de
multiplicidade algébrica de λ e o denotaremos por ma (λ). Chamaremos de multiplicidade geométrica de λ à dimensão de Vλ , que denotaremos por mg (λ).
Veja que a multiplicidade algébrica de um autovalor λ é o maior ı́ndice j, tal que
(x − λ)j divide o polinômio caracterı́stico pA (x). Então, temos a seguinte proposição.
Proposição 5.4.6 Seja λ um autovalor associado a matriz A ∈ Mn . Então mg (λ) ≤
ma (λ).
Veja, que a partir das proposições 5.4.4 e 5.4.6 temos que uma matriz A ∈ Mn é
diagonalizável se, e somente se mg (λi ) = ma (λi para cada autovalor associado à matriz
A.
Definição 5.4.6 Seja f (x) = an xn + · · · + a0 ∈ C[x]. Se f (A) = an An + · · · + a0 In = 0C ,
diremos que o polinômio f (x) é um polinômio anulador da matriz A e que a matriz A
é um zero de f (x).
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
95
Exemplo 5.4.6
1. seja A ∈ Mn tal que A2 = A, então A2 − A = 0n logo segue que
f (x) = x(x − 1) é um polinômio anulador da matriz A.
2. Seja A ∈ Mn tal que Ar = In , onde r é um inteiro positivo. Então Ar − In = 0n e
f (x) = xr − 1 é o polinômio anulador da matriz A.
Proposição 5.4.7 (Teorema de Caylei Hamilton) Seja f (x) o polinômio caracterı́stico de uma matriz A ∈ Mn , então f (A) = 0n
Proposição 5.4.8 Se λ é um autovalor da matriz A ∈ Mn e f (x) é um polinômio anulador da matriz A, então f (λ) = 0.
Dem. Seja v 6= 0 um autovetor associado ao autovalor λ da matriz A. Logo Av = λv e
pode-se mostrar que f (A)v = f (λ)v. Mas, como f (A) = 0 temos que 0 = f (λ)v. Portanto, f (λ) = 0 como querı́amos.
Proposição 5.4.9 Seja A ∈ Mn e seja f (x) um polinômio anulador da matriz A. Se
f (x) não possuir raı́zes multiplas em C, então a matriz A é diagonalizável.
Exemplo 5.4.7 Toda matriz A ∈ Mn tal que seu polinômio caracterı́stico é dado por
f (x) = (x − λ1 ) · · · (x − λn ) é um produto de fatores diferentes, é diagonalizável. Recordar
que todo polinômio caracterı́stico em particular é um polinômio anulador.
Para finalizar, recordemos que nem toda matriz A ∈ Mn é diagonalizável, mas para
superar esta dificuldade pode-se demonstrar que toda matriz é semelhante a uma matriz
triangular. Pode-se ainda mostrar que toda matriz A ∈ Mn é semelhante a uma matriz
J ”diagonal”da seguinte forma:


J1
0


J2


J =

.
.


.
Jr
onde cada um dos blocos Ji , conhecidos como
seguinte forma:

λi 1
..

.

Ji = 
 0
0
blocos de Jordan, onde i = 1, ..., r, é da
0
..




..
. 1 
λi
.
e os escalares λ1 , ..., λr são os autovalores da matriz A, não necessariamente diferentes. A
matriz J é conhecida como Forma de Jordan da matriz A.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
5.4.1
96
Exercı́cios
1. Seja λ ∈ K um autovalor de T em V . Mostre que Vλ é um subespaço vetorial de V .
2 7
2. Seja A =
3 5
i) Ache o polinômio caracterı́stico de A.
ii) Ache os autovalores de A e os autovetores correspondentes. A é diagonalizável?.
Justifique!.
iii) Ache uma
gonal.

2
3. Seja A =  3
1
matriz M inversı́vel tal que a matriz M −1 AM seja uma matriz dia
0 3
5 1 
0 3
i) Ache o polinômio caracterı́stico associado a matriz A.
ii) Considere A ∈ M3 (C) e calcule os seus autovalores e verifique se a matriz A é
diagonalizável.
iii) Considere A ∈ M3 (R) e ache os autovalores de A e verifique se a matriz A é
diagonalizável.
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
97
4. Seja T (x, y) = (3x − 3y, x + 3y). Então :
i) Encontre os autovalores de T e uma base para cada Vλ .
ii) Ache uma base B′ de R2 tal que a matriz [T ]B′ seja diagonal.
5. Seja T (x, y, z) = (2x + y, y − z, 2y + 4z).
i) Ache os autovalores de T e uma base para cada Vλ .
ii) T é diagonalizável? Justifique!
6. Ache uma matriz inversı́vel M tal que M −1 AM é uma matriz diagonal, onde:
3 4
i) A =
4 3


1 −3 3
1 
ii) A =  3 4
6 −6 2
7. Seja A é uma matriz inversı́vel. Então, mostre que se λ 6= 0 é um autovalor associado
a matriz A, então a matriz A−1 admite λ−1 como autovalor.
8. Se A é uma matriz não nula nilpotente, isto é Ar = 0n para algum inteiro positivo
r, então mostre que todos os autovalores A são nulos.
9. Se A2 = A, mostre que todos os autovalores de A são iguais a 1 ou 0.
10. Suponha que λ é um autovalor da matriz A. Mostre que f (λ) é um autovalor da
matriz f (A), onde f é um polinômio em C.
11. Seja A ∈ M2 uma matriz simétrica (At = A). Mostre que ela é diagonalizável.
5.5
Reconhecimento de Cônicas
Nesta seção consideraremos o corpo K = R e faremos uma pequena aplicação dos conceitos de diagonalização, em particular faremos uso da diagonalisação de matrizes simétricas
para reconhecer quadricas e cônicas. Mas primeiro recordemos alguns conceitos de geometria analı́tica.
Definição 5.5.1 Chamaremos de distancia entre dois pontos de Rn a função d : Rn −→R
dada por
p
d((x1 , ..., xn ), (y1, ..., yn )) = (x1 − y1 )2 + · · · + (xn − yn )2
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
98
Fácilmente podem ser verificadas as seguintes propriedades para a função d definida
em 5.5.1:
i) d((x1 , ..., xn ), (x1 , ..., xn )) ≥ 0
ii) d((x1 , ..., xn ), (y1, ..., yn )) = d((y1, ..., yn ), (x1 , ..., xn ))
iii) d((x1 , ..., xn ), (y1, ..., yn )) ≤ d((x1 , ..., xn ), (z1 , ..., zn )) + d((z1 , ..., zn ), (y1, ..., yn ))
Definição 5.5.2 Seja A ∈ Mn . Diremos que a matriz A é ortogonal se d(Av, (0, ..., 0)) =
d(v,
para todo v ∈ Rn , e que representaremos da seguinte forma | Av |=| v |=
√ (0, ...,√0)),
v · v = vtv
Recordemos que se B é uma base canônica de Rn então qualquer vetor de Rn pode ser
visto como uma matriz coluna da seguinte forma


x1


[(x1 , ..., xn )]B =  ... 
xn
então v · v = v t v. Agora, como A é ortogonal temos que
v t v = v · v = Av · Av = (Av)t Av = v t At Av
Portanto segue que At A = In ou seja que A−1 = At .
Definição 5.5.3 Chamaremos de Cônica ao lugar geométrico dos pontos (x, y) ∈ R2 ,
cujas coordenadas, em relação à base canônica de R2 , satisfazem a seguinte identidade
polinomial:
ax2 + by 2 + 2cxy + dx + ey + f = 0
onde a, b, c, d, e, f ∈ R, e alem disso a, b, c não são todos nulos.
Como estamos interessados em usar as ferramentas de diagonalização para reconhecer
uma cônica, simplificaremos a equação ax2 +by 2 +2cxy +dx+ey +f = 0 dada na definição
5.5.3.
Veja que o polinômio ax2 + by 2 + cxy, que é conhecido como forma quadrática do
plano, pode ser vista da seguinte forma:
a c
x
2
2
2
= v t Av
ax + by + cxy = x y
c
b
y
2
a 2c
x
.
e a matriz simétrica A é dada por A =
onde claramente v =
c
b
y
2
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
99
Veja que a forma quadrática ax2 + by 2 + cxy está associada a matriz simétrica A.
Estudemos agora a diagonalisação da matriz simétrica A. Seja
pA (x) = det(A − xI2 ) = x2 − tr(A)x + det(A) = 0
c2
pA (x) = x − (a + b)x + (ab − ) = 0
4
Logo, suas raı́zes estão dadas por :
q
p
2
(a + b) + (a + b)2 − 4(ab − c4 )
(a + b) + (a − b)2 + c2
=
λ1 =
2
2
2
e
λ2 =
(a + b) −
q
(a + b)2 − 4(ab −
2
c2
)
4
=
(a + b) −
p
(a − b)2 + c2
2
2
Observe tambem que se λ1 = λ2 então (a + b)2 = 4(ab − c4 ) ⇔ (a − b)2 + c2 = 0 (*) e se
ambos, λ1 , λ2 forem nulos temos que,
p
(a + b) = (a − b)2 + c2 ⇔ (a + b)2 = (a − b)2 + c2 ⇔ 4ab = c2
Substituido o anterior em (*) temos que (a + b)2 = 0 ⇔ a = −b, ou seja que −4b2 =
c2 ⇔ c = a = b = 0. Portanto temos que a matriz A é a matriz nula, o que é uma
contradição. Portanto, os autovalores λ1 e λ2 não podem ser zero ao mesmo tempo, por
2
2
outro lado se λ1 = λ2 segue que (a −
b) + c = 0 ou seja que c = 0 e, a = b e logo a
a 0
, logo ja é diagonal. Então, pelo anterior,
matriz A tem a seguinte forma A =
0 a
podemos considerar os autovalores λ1 e λ2 diferentes, então pela proposição 5.4.5 temos
que a matriz A é diagonalizável.
Seja A ∈ Mn uma matriz simétrica diagonalizável com autovalores λ1 , λ2 então sabemos que
Av · w = (Av)t w = v t At w = v t Aw = v · (Aw)
e como λ1 6= λ2 segue que:
λ1 v1 · v2 = Av1 · v2 = v1 · Av2 = v1 · λ2 v2
Portanto segue que:
(λ1 − λ2 )v1 · v2 = 0
Ou seja, que os autovetores associados aos autovalores λ1 , λ2 são ortogonais.
Po outro lado, como a matriz A é diagonalizável sabemos que existe um matriz P
inversı́vel, formada pelos autovetores associados aos autovalores de A tal que
D = P −1AP
100
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
onde D é uma matriz diagonal. Fazendo uso do parágrafo anterior, todos os autovetores
são ortogonais, ou seja, a matriz P é uma matriz ortogonal, logo P −1 = P t , portanto a
matriz diagonal é dada por :
λ1 0
t
D = P AP =
0 λ2
A matriz P também é conhecida como matriz de mudança de base, isto é, da base
dada pelos autovetores que denotaremos por P para a base canônica dada por B, desta
forma temos que
[v]B = P [v]P
Portanto temos que
[v]tB A[v]B = (P [v]P )t A(P [v]P ) = ([v]tP P t )A(P [v]P )
Fazendo uso da associatividade das matrizes temos que:
[v]tB A[v]B = [v]tP (P t AP )[v]P = [v]tP D[v]P
′ x
temos que:
Considerando [v]P =
y′
′ λ1 0
a c
x
x
′
′
2
x y
= x y
c
y′
0 λ2
b
y
2
Ou seja,
2
ax2 + by 2 + cxy = λ1 x′ + λ2 y ′
2
Assim, a forma quadrática ax2 + by 2 + cxy sempre pode ser substituida pela forma
quadrática λ1 x′ 2 + λ2 y ′2 . Portanto a nossa equação
a c
x
x
2
2
2
ax + by + cxy + dx + ey + f = x y
+f =0
+ d e
c
y
y
b
2
É identificada agora com:
′ λ1 0
x
′
′
x y
+
y′
0 λ2
d e
P
x′
y′
+f =0
ou seja λ1 x′ 2 + λ2 y ′ 2 + px′ + qy ′ + f = 0. Lembre que esta nova equação refere-se
ao sistema de coordenadas x′ 0y ′ cujos eixos estão determinados pela base dada pelos
autovetores associados nos autovalores λ1 , λ2 . Fazendo uma translação nos eixos temos
que λ1 x′ 2 + λ2 y ′ 2 + px′ + qy ′ + f = 0 pode ser vista como λ1 X 2 + λ2 Y 2 = F esta equação
é conhecida como equação reduzida da cônica centrada na origem.
101
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
Então segue que
1) Se λ1 , λ2 6= 0 temos:
i) Se λ1 e λ2 tem o mesmo sinal, diremos que é uma Elipse.
ii) Se λ1 e λ2 tem sinal diferente diremos que é uma Hipérbole
2) Se λ1 ou λ2 é nulo, diremos que é uma Parábola
Exemplo 5.5.1 Determinar a equação reduzida e o tipo de cônica que é representada
pela equação :
9
11
4x2 − y 2 − 6xy − 4x + y − 12 = 0
16
2
Veja que podemos escrever a equação anterior da seguinte forma:
x
4
x
−3
9
x y
+ −4 2
− 12 = 0
11
y
y
−3 16
A partir doque temos calculado anteriormente, temos que os autovalores associados
4
−3
são λ1 = 4 e λ2 = −1, onde os autovetores associados são
a matriz A =
−3 11
16
1
3
v1 =
associado a λ1 e v2 =
associado a λ2 .
0
4
Mas como estamos interessados em vetores unitarios, consideraremos u1 = |vv11 | e u2 =
v2
como sendo as colunas da minha matriz de mudança de base. Portanto, segue que:
|v2 |
′
x
y
′
4 0
0 −1
x′
y′
−4
+
9
2
1
0
3
5
4
5
x′
y′
− 12 = 0
Ou seja, temos a seguinte equação:
2
2
4x′ − y ′ − 4x′ − 6y ′ − 12 = 0
Fazendo agora o completamento de quadrados da equação anterior segue que:
2
2
4x′ − 4x′ + 1 − (y ′ + 6y ′ + 9) = 12 + 1 − 9
1
4(x′ − )2 − (y ′ + 3)2 = 4
2
(x′ − 12 )2 (y ′ + 3)2
=1
−
4
4
4
102
CAPÍTULO 5. TRANSFORMAÇÕES LINEARES E CÔNICAS
Portanto, a equação
4x2 −
11 2
9
y − 6xy − 4x + y − 12 = 0
16
2
tem como equação reduzida
(x′ − 21 )2 (y ′ + 3)2
−
=1
1
4
Que representa uma Hipérbole com foco ( 12 , −3) e distância
5.5.1
√
5
Exercı́cios
Em cada um dos exercı́cios a continuação determine a forma reduzida e determine o tipo
de Cônica representada pela equação:
1. x2 − 6x + 8y + 1 = 0
2. 7x2 + y 2 − 6xy − 7x + 8y + 1 = 0
√
3. 4x2 + y 2 + 4xy − 7 5x + 8y + 5 = 0
√
√
4. x2 + y 2 + xy + 5 3x + 3 5y + 5 = 0
5. 3x2 + 3y 2 − 2xy + 2x − 3y + 4 = 0
6. x2 + y 2 − 2xy + x − y − 16 = 0
Apêndice A
Introdução à Estruturas Algébricas
A.1
Conjuntos
A matemática, como ela é mostrada geralmente nos dias de hoje, é tão abstrata que
fica muito difı́cil entender como ela foi construı́da, ou descoberta. Mas a base de qualquer
estrutura matemática está baseada na noção de conjunto, e isto mostra a força deste
conceito, que por outro lado, é um dos conceitos mais amplos e simples que existem.
Então vejamos a seguinte definição.
Definição A.1.1 Um Conjunto é um agrupamento ou reunião de objetos que chamaremos de elementos. Para denotar um conjunto usaremos letras maiúsculas, e para denotar
os elementos do conjunto usaremos letras minúsculas.
Esta noção é tão familiar, que basta olhar ao redor que vemos muitos exemplos de conjuntos, como o conjunto formado pelos alunos da aula de álgebra linear, como o conjunto
dos alunos do curso de computação, como o conjunto formado pelos objetos da sua mochila, etc. Então, todo conjunto está determinado pela natureza dos seus elementos que
o componhem, assim diremos que dois conjuntos são iguais se ambos tem os mesmos
elementos. Seja A um conjunto, e a um elemento (este elemento pode ser um conjunto)
então, gostarı́amos de saber qual é a relação entre o elemento a e o conjunto A. Será que
o elemento a faz parte do conjunto A?, se ele fizer, diremos que o elemento a faz parte do
conjunto A, que denotaremos por a ∈ A, caso contrario, diremos que o elemento a não
faz parte do conjunto A, que denotaremos por a ∈
/ A. No decorrer deste texto, estaremos
interessados fundamentalmente em conjuntos formados por números, figuras geométricas,
entre outros. Por enquanto, para descrever um conjunto, podemos especificar os seus
elementos (se for finito), ou especificando a propriedade que satisfazem os seus elementos
(se for infinito).
103
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
104
Exemplo A.1.1 Consideremos as seguintes situações:
1. A = {1, 3, 5} ou B = {João, Carlos, Maria}
2. B = {x/x é uma estrela} (lê-se B é o conjunto formado pelos x tal que x é uma
estrela).
Existe um conjunto muito interessante, e porque não, curioso!, que é o conjunto vazio,
que denotaremos por φ. Este é o conjunto que não tem elementos. A partir de elementos de um conjunto podemos construir novos conjuntos, como os conjuntos unitários,
por exemplo {x} que denota o conjunto formado pelo elemento x , agora um exemplo de
conjunto vazio pode ser dado por φ = {x/x 6= x}, e claramente φ 6= {φ} visto que {φ}
contém um elemento, a saber o φ.
Definição A.1.2 Sejam A e B dois conjuntos. Diremos que o conjunto A é subconjunto do conjunto B, que denotaremos por A ⊆ B, se qualquer elemento do conjunto
A faz parte dos elementos do conjunto B, caso contrario, isto é, se pelo menos um elemento do conjunto A não faz parte do conjunto B, diremos que o conjunto A não é
subconjunto do conjunto B, que denotaremos por A * B.
Nesta definição de subconjunto fica a possibilidade do conjunto A ser um subconjunto
dele mesmo, visto que todo elemento do conjunto A esta dentro do proprio conjunto A.
Neste texto, usaremos a notação A ⊂ B, para indicar que o conjunto A está contido no
conjunto B, mas existe pelo menos um elemento no conjunto B que não está no conjunto
A, isto é conhecido como inclusão própria ou subconjunto próprio. Podemos considerar como conjunto A os alunos de Engenharia desta universidade, e como conjunto B
os alunos desta Universidade, então claramente A ⊂ B, visto que alunos de Letras não
faz parte do curso de Engenharia, por exemplo. Assim, como temos definido o conjunto
vazio φ, podemos definir o conjunto universal (em muitos textos é conhecido como
Universo do discurso ou assunto da discussão) , que denotaremos por U, que indica
o conjunto que tem como propriedade, que qualquer outro conjunto A é um subconjunto
de U. Por exemplo se A = {x/x é alunodestaUniversidade}, então o conjunto universal
U é formado portodos os alunos universitários.
Seja A um conjunto qualquer, então podemos construir um novo conjunto, que denotaremos por P(A), que é o conjunto formado por todos o possı́veis subconjuntos do
conjunto A, isto é, os elementos do conjunto P(A) são subconjuntos do conjunto A, logo
φ e A são elementos de P(A), e não é dificil de mostrar que φ é um subconjunto de
qualquer conjunto. Consideremos agora o seguinte exemplo.
Exemplo A.1.2 Seja A = {1, 2, 3}, então P(A) = {φ, A, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}
Recordemos que dados dois conjuntos, digamos A e B não vazios, podemos construir
um novo conjunto chamado de produto cartesiano, que denotaremos por A × B, está
formado por todos os pares da forma (x, y) onde x ∈ A e y ∈ B, isto é:
A × B = {(x, y)/x ∈ A, y ∈ B}
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
105
Estes conjuntos são muito importantes, pois podemos definir relações do conjunto A
no conjunto B da seguinte forma.
Definição A.1.3 Sejam A, B ∈ U. Chamaremos de Relação entre o conjunto A e o
conjunto B, ao subconjunto R ⊆ A × B formado por todos os pares (x, y) ∈ A × B tal que
x esta relacionado com y, que denotaremos por xRy, simbolicamente temos:
R = {(x, y) ∈ A × B/xRy}
Consideremos uma relação R ⊆ A × B, então o conjunto A é o conjunto de partida,
e o conjunto B de chegada da relação R. Chamaremos ao conjunto D = {x ∈ A/∃y ∈
B tal que xRy} ⊆ A, de domı́nio da relação R, e denotaremos por I = {y ∈ B/ ∃x ∈
A tal que xRy} ⊆ B, de conjunto Imagem definido pela relação R. Ilustremos estes
conceitos com o seguinte exemplo.
Exemplo A.1.3 Sejam A = {1, 2, 3, 4, 5} e B = {1, 2, 3, 6} conjuntos, e seja R =
{(1, 2), (1, 3), (2, 1), (2, 6), (5, 1), (5, 2)}. Logo o conjunto A é o conjunto de partida, e
o conjunto B é o conjunto de chegada. O domı́nio da relação R é dado pelo conjunto
D = {1, 2, 5} e a Imagem da relação R é dado pelo conjunto I = {1, 2, 3, 6}.
A relação que definiremos a seguir, é uma das relações mais importantes na matemática
em geral, que vocês reconhecerão rapidamente.
Definição A.1.4 Sejam A, B ∈ U. A relação R ⊆ A × B dada por: A cada elemento
x de A existe um único elemento y em B, tal que (x, y) ∈ R, é conhecida como
função do conjunto A, que denota o domonio da função f, no conjunto B, que denota o
contradominio da função f e, que será denotada por f : A−→B e f (x) = y tal que x ∈ A
e y ∈ B.
A relação definida no exemplo A.1.3 não é uma função, visto que os elementos 3, 4 ∈ A
não tem um correspondente no conjunto B, ou seja, deveriam estar em R pares da forma
(3, ?) e (4, ?), isto é, o conjunto A da relação deve coincidir com o dominio da função
definida por esta relação. Veja tambem que se o dominio da relação definida no exemplo
1.1.3 coincidese com o conjunto A, ainda assim não seria uma função, pois se R é uma
relação função, então a cada lelemto do conjunto A corresponde um e só um elemento
do conjunto B, mas isto tambem não acontece ja que , por exemplo, R comtem os pares
(1, 2) e (1, 3), ou seja que o 1 tem duas imagens. Diremos que uma função f : A−→B
é Injetora se f (x) = f (y) ⇒ x = y, como exemplo podemos considerar o fato em
que a cada Brasilero corresponde um único CPF, e diremos que a função f : A−→B é
sobrejetora se o conjunto imagem determinada por f coincide com o conjunto B e como
exemplo podemos considerar o fato considerar o vestibular para Medicina em que para
cada vaga tem mais de um candidato para preencher esta vaga. Finalmente diremos que
a função f : A−→B é uma bijeção se ela for injetora e sobrejetora ao mesmo tempo.
Muitas relações são caracterizadas por satisfizerem algumas propriedades, enunciamos
algumas delas a seguir.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
106
Definição A.1.5 Sejam A, B ∈ U conjuntos e R ⊆ A × B uma relação. Então diremos
que R é:
i) Reflexiva se, e somente se xRx ∀x ∈ A onde A é o domı́nio da relação R.
ii) Simétrica se, e somente se, xRy ⇒ yRx.
iii) Antissimétrica se, e somente se, xRy e yRx ⇒ x = y
iv) Transitiva se, e somente se, xRy e yRz ⇒ xRz.
Como exemplo, podemos considerar o conjunto formado pelas partes P(U) do conjunto
universo U, e a relação R ⊆ P(U) × P(U), onde (A, B) ∈ R se, e somente se, A ⊆ B.
Veja que esta relação satisfaz as seguintes propriedades.
Proposição A.1.1 Sejam A, B, C conjuntos, então é válido:
i) Reflexiva A ⊆ A.
ii) Antissimétrica Se A ⊆ B e B ⊆ A, então A = B.
iii) Transitiva Se A ⊆ B e B ⊆ C, então A ⊆ C.
A relação dada pela proposição anterior é dita uma relação de ordem e, como
exemplo podemos citar a realação definida em R dada por xRyse, esomentese, x ≤ y.
Uma outra relação muito importante usada em termos matemáticos e a relação R é de
equivalência, se ela é Reflexiva, Simétrica e Transitiva. Na relação de antisimetria, está
implı́cita a noção de igualdade, visto que se todos os elementos do conjunto A estão no
conjunto B, e todos os elementos do conjunto B estão no conjunto A, portanto só nos reta
afirmar que os dois conjuntos são iguais. Agora a transitividade, é a base do raciocı́nio
lógico dedutivo, por exemplo se A é o conjunto dos seres humanos e, B o conjunto dos
animais e C o conjunto dos seres mortais. Então temos que todo ser humano é animal, e
todo animal é mortal, logo podemos concluir que todo ser humano é mortal. Em termos
simbólicos temos: A ⊆ B e B ⊆ C, então A ⊆ C. Veja também, que a relação de inclusão
esta diretamente relacionada com a implicação lógica, por exemplo sejam P e Q as
propriedades que definem os conjuntos A e B respectivamente, isto é, x ∈ A (y ∈ B) se
x satisfaz a propriedade P (y satisfaz a propriedade Q), então temos que a propriedade
P implica a propriedade Q, que denotaremos por P ⇒ Q, para significar que A ⊆ B.
Consideremos o seguinte exemplo.
Exemplo A.1.4 Sejam as propriedades P : x2 − 1 = 0 e Q : x3 + x2 − x − 1 = 0, então
temos que toda solução da equação x2 −1 = 0 é uma solução da equação x3 +2x2 −x−2 = 0,
portanto segue que P ⇒ Q. Em termos de conjunto, temos que A = {x/x2 − 1 = 0} é um
subconjunto de B = {x/x3 + 2x2 − x − 2 = 0} ou seja A ⊆ B.
Para definir nosso próximo conceito, fixaremos o conjunto universal U, logo todos os
elementos a serem considerados pertencerão ao conjunto U, e todos os conjuntos serão
subconjuntos de U. Logo temos a seguinte definição.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
107
Definição A.1.6 Seja A um subconjunto de U. Chamaremos de complementar do conjunto A, que denotaremos por Ac , ao conjunto formado por todos os elementos do conjunto
Universal U, que não estão no conjunto A.
Veja que a partir da definição anterior, dado um elemento x ∈ U, só temos duas
possibilidades, a saber, x ∈ A ou x ∈
/ A, em Lógica o anterior é conhecido como o
Principio do terceiro excluı́do, agora o fato de que as duas opções não podem ser
verdadeiras ao mesmo tempo é conhecido como principio da não contradição. A
partir destes pricı́pios temos as seguintes regras:
1. Para todo A ⊆ U, temos que (Ac )c = A.
2. Se A ⊆ B, então B c ⊆ Ac .
Sejam A, B ⊆ U, tais que o conjunto A é definido pela propriedade P , e o conjunto
B é definido pela propriedade Q. Então o conjunto Ac é formado pelos elementos que
não satisfazem a propriedade P que denotaremos por P ′ (negação de P ), e de maneira
análoga B c é dada por Q′ (negação de Q), logo temos:
A ⊆ B ⇔ B c ⊆ Ac ou P ⇒ Q se, e somente se, Q′ ⇒ P ′ .
Em outras palavras, a implicação P ⇒ Q é equivalente a afirmar que Q′ ⇒ P ′ (a
negação de Q implica a negação de P ). A implicação Q′ ⇒ P ′ é conhecida como a
contrapositiva da implicação P ⇒ Q, esta é a base da demonstração por absurdo.
Consideremos o seguinte exemplo:
Exemplo A.1.5 Sejam U = {Seres vivos neste planeta} , {P : Seres humanos} e
{Q : Animais}. Claramente P ⇒ Q, mas se queremos usar o absurdo, segue que {P ′ :
Existem seres que não são humanos} e a afirmação {Q′ : Existem seres que não são animais},
logo segue que Q′ ⇒ P ′ , visto que se existem seres que não podem ser animais , então
estes não podem ser seres humanos.
O exemplo anterior mostra que temos que fazer uma distinção entre a idéia matemática
de negação e a noção (não matemática) de contrário ou oposto. Se um conceito é
expresso por uma palavra, o conceito contrário é expresso pelo antônimo daquela palavra.
Por exemplo, o contrário de gigantesco é minúsculo, mas a negação de gigantesco inclui
outras gradações de tamanho além de minúscula, pois só não pode ser gigantesco.
Vejamos agora algumas operações com conjuntos.
Definição A.1.7 Sejam A, B ∈ U então temos as seguintes operações:
i) União
: A ∪ B = {x/x ∈ A ou x ∈ B}.
ii) Interseção: A ∩ B = {x/x ∈ A e x ∈ B}.
iii) Diferença: A − B = {x/x ∈ A e x ∈
/ B} = A ∩ B c .
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
108
Notemos que, as operações entre conjuntos A ∪ B e A ∩ B constituem a contrapartida
matemática dos conectivos lógicos ”ou”e ”e”. Assim, quando o conjunto A é determinado
pelos elementos que satisfazem a propriedade P , e o conjunto B é determinado pelos
elementos que satisfazem a propriedade Q, então segue que a propriedade que determina
o conjunto A ∪ B é ”P ou Q”, denotando que um elemento do conjunto A ∪ B esta
determinado pela propriedade que é satisfeita por P ou por Q e de maneira analoga a que
determina o conjunto A ∩ B é ”P e Q”.
Exemplo A.1.6 Seja A = {x/x2 −3x+ 2 = 0} = {1, 2}, então neste caso o conjunto A é
determinado pela propriedade {P : x tal que x2 − 3x + 2 = 0}, e consideremos o conjunto
B = {x/x2 − 5x + 6 = 0} = {2, 3}, determinado pela propriedade {Q : x tal que x2 − 5x +
6 = 0}. Assim a afirmação P : x tal que x2 − 3x + 2 = 0 ou Q : x tal que x2 − 5x + 6 = 0
equivale a dizer que ”x ∈ {1, 2, 3}”, e a afirmação {P : x tal que x2 − 3x + 2 = 0}
e{Q : x tal que x2 − 5x + 6 = 0} equivale a dizer que x ∈ {2} ou que x = 2.
A diferença entre o uso comum e o uso matemático do conectivo ”ou”é ilustrada
pela anedota do obstetra que também era matemático. Ao sair da sala de cirurgia, onde
acabara de realizar um parto, o obstetra foi abordado pelo pai da criança, que lhe perguntou:”Foi menina ou menino doutor?”. A resposta do medico foi: ”Sim”. Efetivamente, se
A é o conjunto das meninas, e B é o conjunto dos meninos e x o recém nascido, certamente
tem-se que x ∈ A ∪ B.
Vejamos agora algumas propriedades satisfeitas por estas operações entre conjuntos.
Proposição A.1.2 Sejam A, B, C ⊆ U. Então são válidas as seguintes afirmações:
1. Comutatividade: A ∪ B = B ∪ A e A ∩ B = B ∩ A.
2. Associatividade: (A ∪ B) ∪ C = A ∪ (B ∪ C) e (A ∩ B) ∩ C = A ∩ (B ∩ C).
3. Distributividade: A∩(B∪C) = (A∩B)∪(A∩C) e A∪(B∩C) = (A∪B)∩(A∪C).
4. Leis de De Morgan: (A ∪ B)c = Ac ∩ B c e (A ∩ B)c = Ac ∪ B c .
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
A.1.1
109
Exercı́cios
1. Sejam P1 , P2 , Q1 , Q2 propriedades referentes a elementos de um conjunto universo
U e suponha que P1 e P2 esgotam todas as possibilidades dos elementos de U, e
suponha ainda que Q1 e Q2 são incompatı́veis (isto é, excluem-se mutuamente).
Suponha finalmente que P1 ⇒ Q1 e P2 ⇒ Q2 . Prove que valem as reciprocas:
Q1 ⇒ P1 e Q2 ⇒ P2 .
2. Expressões tais como ”para todo”que denotaremos por ∀ e ”qualquer que seja”
são chamados de quantificadores e aparecem em sentenças dos seguintes tipos:
i) ”Para todo x é satisfeita a condição P (x)”.
ii) ”Existe algum x que satisfaz a condição P (x)”,
onde P (x) é uma condição envolvendo a variável x.
(a) Seja A = {x/P (x) é verdadeira}. Escreva as sentenças anteriores usando a
linguagem de conjunto.
(b) Quais são as negações das duas sentenças anteriores, usando linguagem de
conjuntos?.
3. Considere os seguintes conjuntos: F = Conjunto de todos os filósofos.
M = Conjunto de todos os matemáticos.
C = Conjunto de todos os cientistas.
P= Conjunto de todos os professores.
(a) Exprima cada uma das afirmações abaixo, usando a linguagem de conjuntos:
i.
ii.
iii.
iv.
v.
vi.
vii.
viii.
ix.
x.
Todos os matemáticos são cientistas.
Alguns matemáticos são professores.
Alguns cientistas são filósofos.
Todos os filósofos são cientistas ou professores.
Nem todo professor é cientista.
Alguns matemáticos são filósofos.
Nem todo filósofo é cientista.
Alguns filósofos são professores.
Se um filósofo não é matemático, ele é professor.
Alguns filósofos são matemáticos.
(b) Tomando as primeiras cinco afirmações anteriores como hipóteses, verifique
quais das afirmativas restantes são verdadeiras.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
110
4. O artigo 34 da Constituição Brasileira de 1988 diz o seguinte: ”A união não intervirá
nos Estados nem no Distrito Federal, exceto para:
I Manter a integridade nacional;
II Repelir invasão estrangeira ou de unidade da Federação em outra”
(a) Suponhamos que o estado do Rio de Janeiro seja invadido por tropas de São
Paulo. O texto acima obriga a União a intervir no estado?. Na sua opinião,
era a intenção dos legisladores nesse caso?.
(b) Rescreva o texto do artigo 34 de modo a torná-lo mais preciso.
5. Mostre as propriedades das operações com conjuntos dadas na proposição 1.1.2.
6. Sejam A, B, C conjuntos. Ache uma condição necessária e suficiente para que:
A ∪ (B ∩ C) = (A ∪ B) ∩ C
7. Determine uma condição necessária e suficiente para que tenhamos:
A − (B − C) = (A − B) − C
A.2
Naturais, Inteiros e Racionais
Nesta seção daremos uma construção dos conjuntos numéricos Naturais, Inteiros e
Racionais, além de dar algumas das propriedades mais importantes deles. Desde que
aprendemos a falar, muitas palavras são ensinadas sem nenhuma definição ou significado
mas de certa forma passam a fazer parte das nossas regras de comunicação. Estas palavras
são conhecidas como conceitos primitivos. Para poder empregar os conceitos primitivos
adequadamente, é necessário dispor de um conjunto de princı́pios ou regras que disciplinem
sua utilização e estabeleçam suas propriedades. Na matemática estes princı́pios ou regras
são conhecidas como Axiomas ou postulados. Assim como os conceitos primitivos
são objetos que não se definem, os axiomas são proposições que não se demonstram.
Uma vez feita a lista dos conceitos primitivos e enunciados os axiomas de uma teoria
matemática, todas as demais noções devem ser definidas e as afirmações demonstradas,
nisto consiste o chamado Método Axiomático. As proposições a serem demonstradas
chamam-se Teoremas e suas conseqüências imediatas são conhecidas como Corolários.
Uma proposição auxiliar usada na demonstração do Teorema, é conhecida como Lema.
No limiar do século vinte, o matemático Italiano Giuseppe Peano consegue dar uma
descrição precisa do conjunto dos números naturais, que denotaremos por N, estabelecendo
uma construção Axiomática onde os conceitos primitivos são ”número” e ”sucessor”.
Intuitivamente, quando n, n′ ∈ N, dizer que n′ é o sucessor de n significa que n′ vem
logo depois de n, não havendo outros números naturais no meio. Logo, ”sucessor” se
transforma em ”logo depois”, portanto não é uma definição.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
111
Vejamos agora os Axiomas de Peano que regem estes conceitos primitivos:
1. Todo número natural tem um único sucessor.
2. Números naturais diferentes tem sucessores diferentes.
3. Existe um único número natural, chamado um e representado pelo sı́mbolo 1, que
não é sucessor de nenhum outro.
4. Seja X um conjunto de números naturais. Se 1 ∈ X e se, o sucessor de todo elemento
de X está em X, então X = N.
O último axioma de Peano, é conhecido como axioma de indução, que pode ser
formulado da seguinte maneira: Seja P (n) a propriedade relativa ao número natural n.
Suponhamos que :
i) P (i) é válida.
ii) Para todo n ∈ N, a validez de P (n) implica a validez de P (n′), onde n′ é o sucessor
de n.
Então P (n) é válida para qualquer que seja o número natural n. Efetivamente, se
chamarmos de X o conjunto dos Numeros naturais n tais que P (n) é verdadeira, temos
que 1 ∈ X pela sentença i ) anterior, e se n ∈ X, então n′ ∈ X pela sentença ii ) anterior.
Logo, pelo axioma de indução temos que X = N. No seguinte exemplo fica mais clara a
força do axioma de indução.
Exemplo A.2.1 Seja P (n) : 1 + 2 + · · · + n = n(n+1)
. Será que P (n) é verdadeira para
2
todo n natural?. Usemos nosso processo indutivo para responder a pergunta anterior.
Para n = 1 temos que P (1) : 1 = 1(1+1)
= 1, logo para n = 1 a afirmação P (1) é
2
verdadeira. Então vamos supor agora que a afirmação anterior vale para n = k, ou seja
que P (k) é verdadeira (isto é conhecida como hipóteses de indução), e mostremos que
vale para n = k + 1. Pela hipóteses de indução temos que :
k(k + 1)
2
Como é uma igualdade, podemos somar k + 1 nos dois lados da igualdade e temos que :
P (k) : 1 + 2 + · · · + k =
k(k + 1)
(k + 1)(k + 2)
+ (k + 1) =
: P (k + 1)
2
2
Portanto, P (n) é válido para todo n ∈ N.
1+2+···+k +k +1 =
Nos números Naturais, podemos definir a seguinte função + : N × N−→N da seguinte
forma:
+(n, m) = n + m
Esta definição pode ser feita indutivamente, mas não entraremos em detalhes nisto
pois, não é o objetivo deste texto. Na seguinte proposição enunciamos as propriedades
satisfeitas pela função +, para isto assumiremos que o conjunto dos numéros naturais
contem o 0, isto é, N = {0, 1, 2, 3, ...}.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
112
Proposição A.2.1 A função + : N × N−→N satisfaz:
i) Associatividade: (a+b)+c=a+(b+c)
ii) Neutro: a+0=0+a=a ∀a, b, c ∈ N
iii) Comutatividade: a+b=b+a
Então, diremos que (N, +) tem uma estrutura algébrica conhecida como Grupoide.
Aqui fica claro a falta de elemento inverso, isto é, para qualquer elemento a ∈ N. Será
que existe um número a′ ∈ N tal que a + a′ = 0?.
Para tentar resolver este problema, consideremos a seguinte relação R0 em N × N tal
que: Sejam a, b, c, d ∈ N então
(a, b)R0 (c, d) ⇔ a + d = b + c
Não é difı́cil verificar que esta relação R0 , é Reflexiva, Simétrica e Transitiva (exercicio), logo é uma relação de equivalência. Mostremos agora algumas classes :
[1, 1] = {(a, b) ∈ N × N/1 + b = 1 + a} = {(1, 1), (2, 2), ...} = 0
[2, 1] = {(a, b) ∈ N × N/2 + b = 1 + a} = {(2, 1), (3, 2), ...} = 1
[1, 2] = {(a, b) ∈ N × N/1 + b = 2 + a} = {(1, 2), (2, 3), ...} = −1
Definição A.2.1 Chamaremos de conjunto dos número inteiros, o conjunto cujos elementos são as classes de equivalência determinados pela relação R0 , que denotaremos
por:
Z = {..., −3, −2, −1, 0, 1, 2, 3...}
Como cada classe de equivalência é um número inteiro, podemos definir a seguinte
função ⊕ : Z × Z−→Z dada por ⊕(x, y) = x ⊕ y, que vistos como classes temos
⊕([x1 , x2 ], [y1, y2 ]) = [x1 + y1 , x2 + y2 ]. Por exemplo −1 ⊕1 = [1, 2] ⊕[2, 1] = [1 + 2, 2 + 1] =
[3, 3] = [1, 1] = 0 como querı́amos. Estamos usando o sı́mbolo ⊕ só para diferenciar da
soma usual em N, mas sem medo a ter confusão usaremos o sı́mbolo + no lugar de ⊕.
Então vejamos agora as propriedade desta soma de inteiros na seguinte proposição.
Proposição A.2.2 Sejam x, y, z ∈ Z, então são válidas:
i) Associatividade: (x + y) + z = x + (y + z)
ii) Neutro: ∃0 ∈ Z tal que 0 + x = x + 0 = x
iii) Inverso: ∀x ∈ Z, ∃ − x ∈ Z tal que x + −x = −x + x = 0
iv) Comutatividade: x + y = y + x
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
113
Assim como temos definido a soma em Z, nas classes de equivalência dadas por R0 ,
podemos definir o produto em Z, da seguinte forma:
⊙ : Z × Z−→Z
dada por ⊙(x, y) = ⊙([x1 , x2 ], [y1 , y2]) = [x1 y1 + x2 y2 , x1 y2 + x2 y1 ] = x ⊙ y, onde
x = [x1 , x2 ], y = [y1 , y2 ] ∈ Z. As propriedades deste produto estão dadas pela seguinte
proposição.
Proposição A.2.3 Sejam x, y, z ∈ Z, então são válidas:
i) Associatividade: (x ⊙ y) ⊙ z = x ⊙ (y ⊙ z)
ii) Neutro: ∃1 ∈ Z tal que 1 ⊙ x = x ⊙ 1 = x
iii) Comutatividade: x ⊙ y = y ⊙ x
E relacionando as duas operações temos:
iv) Distributividade à direita: x ⊙ (y + z) = x ⊙ y + x ⊙ z
v) Distributividade à esquerda: (x + y) ⊙ z = x ⊙ z + y ⊙ z
Veja que nem todo número inteiro tem um inverso multiplicativo, i.e., dado um x 6=
0, 1 ∈ Z, não é possı́vel achar um inteiro y ∈ Z tal que x ⊙ y = 1, por exemplo, se
consideramos o 2 ∈ Z não é possı́vel achar um inteiro x tal que 2 ⊙ x = 1. O conjunto
(Z, +, ⊙) é dito um Anel comutativo com unidade. No produto definido acima, fica
implı́cita a noção de divisibilidade, ou seja, o inteiro a divide o inteiro b se existe um
inteiro c tal que a = b ⊙ c. Para não carregar muito a notação faremos x ⊙ y = xy.
Existem certos inteiros que merecem destaque, como a noção de um inteiro ser primo, isto
é, diremos que um número inteiro p, diferente de 1, −1, é primo se os únicos divisores dele
são ±1, ±p. Um resultado muito importante é que todo número inteiro α pode-se escrever
como o produto de um número finito de números primos, ou seja, α = pα1 1 · pα2 2 · · · pαt t ,
onde p1 , ..., pt são números primos e α1 , ..., αt ∈ N.
Fazendo uma analogia com a construção dos números inteiros a partir de classes de
equivalência, podemos fazer a construção de um novo conjunto númerico, que veremos a
seguir.
Consideremos primeiro o conjunto Z∗ = Z − {0} = {..., −3, −2, −1, 1, 2, 3, ...}, então
definamos a seguinte relação R1 no conjunto Z × Z∗ , onde (a, b)R1 (c, d) ⇔ ad = bc. Esta
relação é uma relação de equivalência, ou seja R1 é Reflexiva, Simétrica e Transitiva.
Então calculemos algumas classes de equivalencias dadas pela relação R1 .
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
114
Exemplo A.2.2 Seja R1 como antes :
1. Calculemos a classe dada pelo par (1, 2) que denotaremos por [1, 2] ou por 12 :
1
= [1, 2] = {(a, b)/(a, b)R1 (1, 2)}
2
1
= {(a, b)/2a = b} = {(±1, ±2), (±2, ±4), (±3, ±6), ....}
2
2. Calculemos a classe dada pelo par (0, 1):
0
= [0, 1] = {(0, ±1), (0, ±2), (0, ±3), ...}
1
Em geral temos que a classe de um par (x, y) ∈ Z × Z∗ é dada por:
x
= [x, y] = {(a, b) ∈ Z × Z∗ /(a, b)R1 (x, y)}
y
Logo, temos a seguinte definição.
Definição A.2.2 Chamaremos de conjunto dos números racionais, que denotaremos por
Q, o conjunto formado por todas as classes de equivalência geradas pela relação R1 , isto
é:
x x
Q = { / é a classe de equivalência determinada por R1 }
y y
Vejamos a seguir as definições de soma e produto em Q.
Definição A.2.3 Sejam ab , dc ∈ Q. Usaremos o sı́mbolo ⊕ e ⊙ para denotar a soma e o
produto em Q, dados como segue:
a c
ad + bc
a c
ac
⊕ =
e
⊙ =
b d
bd
b d
bd
Na notação ab o inteiro a e chamado de numerador, e o inteiro b é chamado de
denominador, então como quociente pode ser visto como a comparação, ou razão, de
dois números inteiros. Temos usado a notação ⊕ e ⊙ para denotar a soma e produto
de números racionais, mas se considerarmos os denominadores iguais a 1, temos que
estaremos com as operações de soma e produto usuais de N e de Z, então de agora em
diante usaremos a notação usual de soma e produto. Vejamos agora as propriedades tanto
da soma como o produto de números racionais na seguinte proposição.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
115
Proposição A.2.4 Sejam x, y, z ∈ Q, então são válidas com a soma:
i) Associatividade: (x + y) + z = x + (y + z)
ii) Neutro: ∃0 ∈ Q tal que 0 + x = x + 0 = x
iii) Inverso: ∀x ∈ Q, ∃ − x ∈ Q tal que x + −x = −x + x = 0
iv) Comutatividade: x + y = y + x
Agora com o produto são válidas:
v) Associatividade: (x ⊙ y) ⊙ z = x ⊙ (y ⊙ z)
vi) Neutro: ∃1 ∈ Q tal que 1 ⊙ x = x ⊙ 1 = x
vii) Inverso: ∀x 6=∈ Q, ∃y 6=∈ Q tal que x · y = y · x = 1
viii) Comutatividade: x ⊙ y = y ⊙ x
E relacionando as duas operações temos:
ix) Distributividade à direita: x ⊙ (y + z) = x ⊙ y + x ⊙ z
x) Distributividade à esquerda: (x + y) ⊙ z = x ⊙ z + y ⊙ z
O conjunto dos números Racionais (Q, +, ·) com as propriedades dadas pela proposição
anterior é dito de Corpo comutativo com unidade.
A.2.1
Exercı́cios
1. Mostre que a relação R0 , que define os Inteiros Z, é uma relação de equivalência.
2. Mostre que dadas duas classes de equivalência quaisquer definidas por R0 são disjuntas.
3. Represente geometricamente as classes [1, 4], [9, 1]e [5, 9] dadas por R0 .
4. Usando a notação das classes em Z, mostre as propriedades da soma e produto em
Z.
5. Mostre que a relação R1 que define os números racionais Q, é uma relação de
equivalência.
6. Mostre que dadas duas classes de equivalências quaisquer, definidas por R1 são
disjuntas.
7. Represente geometricamente as classes [1, 4], [9, 1] e [5, 9] das por R1 .
8. Mostre as propriedades da soma e do produto dos racionais enunciadas na proprosição 1.2.4.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
A.3
116
Reais e Complexos
Na seção anterior vimos que (Q, +, ·) tem uma estrutura algébrica chamada de corpo.
Muitos filósofos, antes de Cristo, em especial Pitagoras, pensavam que esses eram todos
os possı́veis números, ou que dado qualquer medida de segmento sempre era
possı́vel achar dois inteiros positivos (também medidas de segmentos) tal que
na comparação era a medida do segmento inicial. Tentaram por muito tempo
provar esta afirmação até que se depararam com uma medida, a qual mostrava que esta
afirmação era realmente falsa, esta medida √
era dada pela diagonal de um quadrado, de
lado um, ou seja em nomenclatura de hoje, 2, então mostremos a seguinte proposição.
√
Proposição A.3.1 2 não é Racional.
Dem. Vamos mostrar isto por absurdo,
isto é, vamos supor que existem inteiros, sem
√
a
fatores em comum a, b ∈ Q tal que 2 = b . Então segue que:
2=
a2
↔ 2b2 = a2
b2
Como os inteiros a, b não tem fatores em comum, e dois é primo, temos que o 2 divide
a , logo divide a, isto é, a = 2q para algum q ∈ Q, logo temos que:
2
a2 = 4q 2 ↔ 2b2 = a2 = 4q 2 ↔ b2 = 2q 2
De maneira análoga, segue que 2 divide b2 , ou seja b também é múltiplo de 2, mostrando
que
√ os inteiros a, b tem um fator em comum (que é 2), o que é uma contradição. Portanto,
2 não é racional.
A partir da proposição anterior vemos que construir números, que não podem ser dados
como quociente de dois inteiros, é relativamente fácil. Estes números são conhecidos como
Irracionais e denotaremos por
a
I = {x/∄a, b ∈ Z; x = }
b
o conjunto
dos número Irracionais. Seguindo a linha de conjuntos denotaremos por R =
S
Q I o conjunto dos números Reais (este conjunto é muito usado e trabalhado nas aulas
de Cálculo). Usando as operações de soma e produto de Q podemos induzir operações
de soma e produto em R, então desta forma R tem uma estrutura algébrica de corpo.
Será que existe um outro corpo que contenha o corpo R?. E porque deveria existir, se
existisse?. Na verdade, quando trabalhamos numa estrutura como um corpo, podemos
trabalhar na busqueda de soluções a problemas de tipo algébricos, como achar soluções
de equações algébricas de segundo grao dada por ax2 + bx + c = 0, onde a, b, c ∈ R por
exemplo. Então, gostarı́amos que as soluções de uma equação definida em R, como a
anterior, tenha todas as suas soluções também em R, mas basta considerar a equação
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
117
x2 + 1 = 0 e vemos que isto não acontece (não existe nenhum número real tal que seu
quadrado seja negativo). Então consideremos o seguinte conjunto :
C = {z = a + bi/a, b ∈ R, i2 = −1}
onde a denota a parte real de z ∈ C, e b a parte imaginária de z ∈ C. O conjunto C é
chamado de conjunto dos números Complexos.
O conjunto dos números complexos C pode ser identificados com o plano cartesiano
2
R = {(x, y)/x, y ∈ R}, onde a primeira coordenada é identificada com a parte real, e a
segunda coordenada é identificada com a parte imaginaria do complexo z = x + yi ∈ C.
Consideremos z = x + yi ∈ C, então chamaremos de conjugado de z o complexo z =
x − yi, que é o simétrico ao complexo z, com relação ao eixo x, vistos geometricamente
em R2 .
Definamos agora a soma em C, que denotaremos por ⊕ da seguinte forma :
⊕ : C × C−→C
onde ⊕(z1 , z2 ) = z1 ⊕ z2 = (a1 + a2 ) + (b1 + b2 )i, e z1 = a1 + b1 i ; z2 = a2 + b2 i.
Na proposição a seguir são dadas as propriedades satisfeitas por esta soma em C.
Proposição A.3.2 Seja (C, ⊕) e sejam z1 = a1 + b1 i , z2 = a2 + b2 i, z3 = a3 + b3 i ∈ C.
Então são válidas:
i) Associatividade: (z1 ⊕ z2 ) ⊕ z3 = z1 ⊕ (z2 ⊕ z3 )
ii) Neutro: ∃0 = 0 + 0i ∈ C tal que 0 ⊕ z1 = z1 ⊕ 0 = z1
iii) Inverso: ∀z = a + bi ∈ C, ∃ − z = −a + (−b)i ∈ C tal que z ⊕ (−z) = (−z) ⊕ z =
0 + 0i = 0
iv) Comutatividade: z1 ⊕ z2 = z2 ⊕ z1
A partir da proposição anterior podemos concluir que (C, ⊕) é um grupo abeliano.
Definamos agora o produto em C, que denotaremos por ⊙, da seguinte forma: Sejam
z1 = a1 + b1 i ; z2 = a2 + b2 i ∈ C
⊙ : C × C−→C
onde ⊙(z1 , z2 ) = z1 ⊙ z2 = a1 a2 − b1 b2 + (a1 b2 + a2 b1 )i. Na seguinte proposição daremos
as propriedades satisfeitas por este produto.
APÊNDICE A. INTRODUÇÃO À ESTRUTURAS ALGÉBRICAS
118
Proposição A.3.3 Seja (C, ⊙) e sejam z1 = a1 + b1 i , z2 = a2 + b2 i, z3 = a3 + b3 i ∈ C.
Então são válidas:
i) Associatividade: (z1 ⊙ z2 ) ⊙ z3 = z1 ⊙ (z2 ⊙ z3 )
ii) Neutro: ∃1 = 1 + 0i ∈ C tal que 1 ⊙ z1 = z1 ⊙ 1 = z1
iii) Inverso: ∀z = a + bi ∈ C, ∃ z ′ =
1 + 0i = 1
a
a2 +b2
− a2bi
= z ⊙ z ∈ C tal que z ⊙ z ′ = z ′ ⊙ z =
+b2
iv) Comutatividade: z1 ⊙ z2 = z2 ⊙ z1
E relacionando as duas operações temos:
v) Distributividade à direita: z1 ⊙ (z2 ⊕ z3 ) = z1 ⊙ z2 ⊕ z1 ⊙ z3
vi) Distributividade à esquerda: (z1 ⊕ z2 ) ⊙ z3 = z1 ⊙ z3 ⊕ z2 ⊙ z3
Portanto, temos que (C, ⊕, ⊙) é um corpo, onde toda equação algébrica em C tem
todas as suas soluções em C, e o corpo com esta propriedade se diz ser Algebricamente
fechado. De agora em diante, sem medo a cometer erro, assumiremos z ⊕ z1 = z + z1 e
z ⊙ z1 = zz1 ∀ z, z1 ∈ C.
A.3.1
Exercı́cios
1. Mostre que a relação ≤ em R, é uma relação Reflexiva, antissimétrica e transitiva
(estas relações são conhecidas como relações de ordem).
2. Mostre que todo complexo z = x+yi ∈ C pode-se escrever como z = r(cos α+i sin α)
√
−−−−−−−→
onde r = zz e α é o angulo formado pelo vetor (0, 0)(x, y).
3. Mostre as propriedades da soma e produto em C.
√
√
√ L
√
4. Seja Q( 2) = {a√
+ b 2/a, b ∈ Q}, onde a soma é dada
por
(a
+
b
2)
(c
+
d
2) =
√ J
√
(a + c) +√
(b + d) 2 e o produto é dado √
por (a + b 2) (c + d 2) = (ac + 2bd) +
(ad + bc) 2. Mostre que o conjunto Q( 2) é um corpo comutativo com unidade.
2
5. Calcule a seguinte expressão:
2+i
3−4i
6. Mostre que z1 + z2 = z1 + z2 ∀z1 , z2 ∈ C.
7. Resolva a equação iz + 2z + 1 − i = 0.
8. Seja z ∈ C uma solução da equação x2 + bx + c = 0 onde b, c ∈ R, então mostre que
z também é solução da equação anterior.
√
9. Seja K o conjunto de todos os números que podem ser escritos na forma a + b 2,
onde a e b são números racionais. Mostre que K é um corpo.
Referências Bibliográficas
[B]
M. Barone. Álgebra Linear. IME-USP, 3a ed.,1988.
[CL]
F. U. Coelho e M. L. Lourenço. Um Curso de Álgebra Linear. Ed. USP, São Paulo,
2001.
[H]
P. Halmos. Uma Teoria Ingenua de Conjuntos. Ed. Polı́gono, São Paulo, 1973.
[H1]
P.Halmos. Espaços Vetoriais de Dimensão finita. Ed. Campus, Rio de Janeiro,
1978.
[HK] K. Hofmmann e R. Kunze. Álgebra Linear. Ed. LTC., Rio de Janeiro, 1979.
[GS]
A. Gonçalves e M. R. Lopes de Souza. Introdução à Álgebra Linear. Ed. Edgard
Blücher. São Paulo, 1977.
[JAP] De la Peña, Jose Antonio. Álgebra en Todas Partes. México,DF. Ed. Fondo de
Cultura Economica, 1999.
[JAP1] De la Peña, Jose Antonio. Álgebra Lineal avanzada. México,DF. Ed. Fondo de
Cultura Economica, 1996.
Cristian Patricio Novoa Bustos
Depto. de Matemática e Fı́sica
Universidade Católica de Goiás
Av. Universitária s/n. St. Universitário
Goiânia-Goiás. Brasil
[email protected]
119
Download

Apostila de Álgebra Linear