Álgebra Linear
Resumo das aulas teóricas e práticas
Paulo R. Pinto
http://www.math.ist.utl.pt/∼ppinto/
Lisboa, Novembro de 2011
Conteúdo
1 Matrizes e sistemas lineares
1.1 Álgebra das Matrizes . . . . . . . . . .
1.2 Operações elementares. Caracterı́stica .
1.3 Sistemas de Equações Lineares . . . . .
1.4 Cálculo da matriz inversa . . . . . . .
1.5 Exercı́cios . . . . . . . . . . . . . . . .
.
.
.
.
.
1
1
4
8
12
14
2 Determinantes
2.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
24
3 Espaços Lineares (ou Vectoriais)
3.1 Subespaços lineares – p. ex.: núcleo, espaço colunas e linhas de
3.2 Independência linear . . . . . . . . . . . . . . . . . . . . . . .
3.3 Bases e dimensão de Espaços Lineares . . . . . . . . . . . . .
3.4 Coordenadas de um vector numa base . . . . . . . . . . . . . .
3.5 Matriz mudança de base . . . . . . . . . . . . . . . . . . . . .
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
26
28
34
35
43
43
44
4 Valores Próprios, Vectores Próprios e diagonalização de Matrizes
4.1 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
56
5 Transformações Lineares
5.1 Representação matricial de uma transformação linear . . . . . . . . .
5.2 Transformações injectivas, sobrejectiva e bijectivas – equações lineares
5.3 Valores e vectores próprios de transformações lineares . . . . . . . . .
5.4 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
58
61
64
69
69
.
.
.
.
76
81
83
87
91
.
.
.
.
.
.
.
94
94
95
97
98
99
100
102
6 Produtos Internos
6.1 Bases ortogonais . . . . . . . . . . . .
6.2 Complementos e projecções ortogonais
6.3 Diagonalização de matrizes simétricas .
6.4 Exercı́cios . . . . . . . . . . . . . . . .
7 Algumas Aplicações
7.1 Formas quadráticas . . . . . . .
7.2 Mı́nimos quadrados . . . . . . .
7.3 Equações diferenciais ordinárias
7.3.1 Um processo de difusão .
7.4 Genes ligados ao sexo . . . . . .
7.5 Redes e grafos . . . . . . . . . .
7.6 Exercı́cios . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
uma
. . .
. . .
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
matriz
. . . .
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
Matrizes e sistemas lineares
1.1
Álgebra das Matrizes
As matrizes1 são uma ferramenta fundamental no estudo de álgebra linear.
Definição 1.1 Uma matriz A, do tipo m × n (m
dispostos em m linhas e n colunas:

a11 a12 · · ·
 a21 a22 · · ·

A =  ..
..
 .
. ···
am1 am2 · · ·
por n), é uma tabela de mn números
a1n
a2n
..
.



.

amn
A matriz linha i de A é:
ai1 ai2 · · ·
para cada i = 1, ..., m. A matriz coluna j de A

a1j
 a2j

 ..
 .
amj
ain
,
é:





para cada j = 1, ..., n. Usa-se também a notação A = [aij ]m×n na qual aij é a entrada (i, j)
da matriz A.
Se m = n, diz-se que A é uma matriz quadrada do tipo n × n e as entradas a11 , a22 , ...,
ann formam a chamada diagonal principal de A. Seja Mm×n (R) o conjunto de todas
as matrizes do tipo m × n com entradas em R. Mais geralmente, sendo K um conjunto,
Mm×n (K) designa o conjunto de todas as matrizes do tipo m × n com entradas em K.
Exemplo 1.2 As matrizes


4
 3 
1 −1
1 2 3 4

A=
, B=
, C= 0 0 7 eD=
 2 
−2 2
2 0 −2 0
1
são dos seguintes tipos: A é 2 × 2, B é 2 × 4, C é 1 × 3, A é 4 × 1. Tem-se, por exemplo,
a21 = −2, b13 = 3, c12 = 0 e d41 = 1.
Dizemos que as matriz A = [aij ] do tipo m × n e a matriz B = [bij ] do tipo p × q são
iguais se m = p, n = q e aij = bij para todos i, j.
Definição 1.3
1. A soma matricial de uma matriz A = [aij ] do tipo m × n com outra
matriz B = [bij ] do tipo m × n é a matriz A + B do mesmo tipo cuja entrada (i, j) é
aij + bij .
2. O produto de uma matriz A = [aij ] do tipo m × n por escalar λ é a matriz λA = [λaij ].
1
O termo Matriz foi utilizado pela primeira vez por James Sylvester (1814-1897) em 1850
1
3. O produto matricial A = [aij ] do tipo m × p com outra matriz B = [bij ] do tipo p × n
é uma matriz C = cij do tipo m × n, designada por AB, cuja entrada (i, j) é dada por
cij = ai1 b1j + ai2 b2j + ... + aip bpm =
p
X
aik bkj .
k=1
4. A transposta da matriz A = [aij ] de tipo m × n é a matriz AT = [aji ] de tipo n × m.
Exemplo 1.4 Sejam
A=
1 4
−3 2
Tem-se A+B =
e
1
1


−1
√ −1
0 −3 2
,B=
, C =  −1/2  e D = −2
3 .
6
4 −1 −5
2
1 1
−2 −8 2
e não é possı́vel somar C com D. Temos −2A =
1 1
6 −4 −12


1 −3
1
T
T
2 
A = 4
e
C = −1 −
2 .
2
−1 6
Não é possı́vel efectuar, por exemplo, AB. Os produtos AC e CD são possı́veis e tem-se:
√ 

2
−√ 3
−5
AC =
e CD =  1 − √3/2  .
14
−4 2 3
Observação 1.5 O produto de matrizes não é comutativo. Por exemplo, para
0 1
0 −1
1 0
−1 0
A=
eB=
tem-se AB =
e BA =
.
1 0
1 0
0 −1
0 1
Logo AB 6= BA.
Teorema 1.6 Sejam A, B, C e D matrizes de tipos apropriados, α e β escalares. São
válidas as seguintes propriedades para as operações matriciais.
1. (Comutatividade da soma) A + B = B + A.
2. (Associatividade da soma) A + (B + C) = (A + B) + C.
3. (Elemento neutro da soma) Existe uma única matriz 0 do tipo m×n tal que A+0 = A,
para toda a matriz A do tipo m × n. À matriz 0, cujas entradas são todas iguais a
zero, chama-se matriz nula.
4. (Simétrico) Para cada matriz A existe uma única matriz B tal que A + B = 0. Esta
matriz B denota-se por −A.
5. (Associatividade do produto por escalares) α (βA) = (αβ) A.
6. (Distributividade) (α + β) A = αA + βA.
7. (Distributividade) α (A + B) = αA + αB.
2
8. (Associatividade do produto de matrizes) A (BC) = (AB) C.
9. (Distributividade) A (B + C) = AB + AC
e (B + C) D = BD + CD.
10. α (AB) = (αA) B = A (αB).
T
11. AT = A.
12. (A + B)T = AT + B T .
13. (αA)T = αAT .
14. (AB)T = B T AT .
15. (A1 A2 ...An )T = ATn ...AT2 AT1 , com A1 , A2 , ..., An matrizes de tipos apropriados.
16. À matriz, do tipo n × n,



I=


1 0 ··· 0
0 1 ··· 0 

..
. . .. 
. . 
.
0 0 ··· 1
chama-se matriz identidade (de ordem n) e é tal que
AI = A
e
IB = B,
para todas as matrizes A = [aij ]m×n e B = [bij ]n×m .
Definição 1.7 Seja A uma matriz quadrada n × n. A matriz A é invertı́vel se existir uma
matriz B tal que
AB = BA = I.
Teorema 1.8 Caso exista, a inversa de uma matriz quadrada é única, que designamos por
A−1 .
A matriz nula não é invertı́vel e a matriz identidade é invertı́vel, tendo-se I −1 = I.
Teorema 1.9 Sejam A e B matrizes invertı́veis e α escalar não nulo. Então AB, AT e αA
também são invertı́veis e
1
(AB)−1 = B −1 A−1 ,
(αA)−1 = A−1 ,
(AT )−1 = (A−1 )T .
α
Seja A uma matriz quadrada e k ∈ N. Chamamos potência de expoente k de A, e
designa-se por Ak , à matriz A · · · A multiplicando a mesma matriz k-vezes (por exemplo,
A2 = AA, A3 = AAA = (AA)A = A(AA)). Coloca-se A0 = I se A for não nula. Se A for
invertı́vel, então pelo último teorema Ak também é invertı́vel e
(Ak )−1 = A−1 · · · A−1
onde A−1 aparece k-vezes nesta multiplicação. Portanto podemos definir A−k com sendo
(Ak )−1 .
Definição 1.10 Seja A = [aij ] ∈ Mn×n (R).
1. A é simétrica se A = AT , isto é, se aij = aji , para i, j = 1, ..., n.
2. A é anti-simétrica se A = −AT , isto é, se aij = −aji , para i, j = 1, ..., n.
3. A é ortogonal se A for invertı́vel e AT = A−1 .
3
1.2
Operações elementares. Caracterı́stica
Seja A uma matriz n×m. Operações elementares sobre as linhas de A cada uma das seguinte
tipo de operação:
1. permutação (i.e. troca) de duas linhas
2. multiplicação de uma linha por um escalar não nulo
3. adição de uma linha a uma outra.
Combinando as operações 2) e 3) obtém-se a chamada operação de Jacobi, que consiste
em adicionar a uma linha uma outra previamente multiplicada por um escalar. Por abuso de
forma, usaremos a operaçãode Jacobi como sendo uma operação elementar (substituindo a
3) acima descrita. Vamos adoptar as seguintes notações para as transformações elementares
sobre as linhas de uma matriz:
1. Li ↔ Lj , para representar que se efectuou a troca das linhas Li e Lj
2. αLi → Li , para representar que a linha Li foi multiplicada pelo escalar α 6= 0.
3. kLj + Li → Li , para representar que a nova linha Li é obtida somando à linha Li a
linha Lj previamente multiplicada por um escalar k.
Se a matriz A foi transformada na matriz B do uma operação elementar, então usamos
a seguinte notação (respectivamente)
A −→ B,
Li ↔Lj
A −→ B,
αLi →Li
A
−→
Li +kLj →Li
B.
Dizemos então que a matriz A foi condensada na matriz U se U for obtida por sucessiva
aplicação de operações elementares de tal forma que a matriz U está em escada de linhas:
isto é, por baixo do primeiro elemento não nulo de cada linha (e na mesma coluna) todos
os elementos são nulos. Chama-se método de eliminação de Gauss a este algoritmo de
condensação da matriz A.
Este processo de condensação aplica-se naturalmente a qualquer matriz A e ao número
de linhas não nulas no final deste processo – que é independente da via da condensação
escolhida – chama-se caracterı́stica de A e designa-se por car(A). Veremos no teorema
3.38 que car(A) = car(AT ).
À primeira entrada não nula em cada linha da uma matriz U em escada de linhas
chamamos pivô.
Exemplo 1.11 Vamos transformar em



0 0
3 −9
A =  5 15 −10 40  −→ 
L1 ↔L3
1 3 −1 5
escada de linhas a seguinte matriz A:



1 3 −1 5
1 3 −1 5
5 15 −10 40  1 −→  1 3 −2 8 
0 0
3 −9 5 L2 →L2 0 0 3 −9

−→
−L1 +L2 →L2



1 3 −1 5
1 3 −1 5
 0 0 −1 3 
 0 0 −1 3  = U.
−→
3L2 +L3 →L3
0 0 3 −9
0 0 0 0
Em particular, conclui-se que car(A) = 2, pois a matriz U tem 2 linhas não nulas e as
entradas (1, 1) e (2, 3) são os pivôs de U .
4
Definição 1.12 Uma matriz elementar do tipo n × n é uma matriz obtida da matriz
identidade I através de uma única operação elementar.
(i) A matriz Pij , chamada matriz de permutação, é a matriz elementar obtida por
troca da linha i com a linha j da matriz I. Tem-se:


1 0 ···
··· 0
.. 
 0 ... ...
. 

 . .

 .. . . 1





0
1

 ←i


1




.
.
Pij = 
.

.




1



 ←j
1
0



. . . .. 
1
. 

 .

..
..
 ..
.
. 0 
0 ···
···
0
1
(ii) A matriz Ei (α) é a matriz elementar obtida da matriz I através do produto do escalar
α 6= 0 pela linha i da matriz I. Tem-se:


1 0 ···
··· 0

.. 
 0 ... ...
. 

 .

 . ...
.
1




α
Ei (α) = 
 ←i .


.
.

. . .. 
1


 ..
.
.
.. 0 
..

 .
0 ···
··· 0 1
(iii) A matriz Eij (α) é a matriz elementar obtida da matriz I por soma da linha j com
um múltiplo α da linha i. Tem-se:


1 0 ···
··· 0
.. 
 0 ... ...
. 

 . .

 .. . . 1
 ←i




...
Eij (α) = 
.



. . .. 

. .  ←j
α
1

 .

..
..
 ..
.
. 0 
0 ···
··· 0 1
Exemplo 1.13 As matrizes elementares do tipo 2 × 2 são:
P12 = P21 =
0 1
1 0
, E1 (α) =
α 0
0 1
, E2 (α) =
com α 6= 0,
E12 (α) =
1 0
α 1
e E21 (α) =
5
1 α
0 1
.
1 0
0 α
,
Teorema 1.14 Sejam E uma matriz elementar do tipo m × m e A uma matriz qualquer do
tipo m × n. Então, EA é a matriz obtida de A através da mesma operação elementar que
originou E. Isto é, aplicar uma operação elementar a uma matriz corresponde a multiplicar
essa matriz à esquerda por uma matriz elementar.
Exemplo 1.15 Consideremos a matriz


0 0
3 −9
A =  5 15 −10 40  .
1 3 −1 5
A operação elementar:




0 0
3 −9
1 3 −1 5
 5 15 −10 40  −→  5 15 −10 40  ,
L1 ↔L3
1 3 −1 5
0 0
3 −9
corresponde à seguinte

0 0
 0 1
1 0
multiplicação (à esquerda):

 

1
0 0
3 −9
1 3 −1 5
0   5 15 −10 40  =  5 15 −10 40  .
0
1 3 −1 5
0 0
3 −9
A operação elementar:




1 3 −1 5
1 3 −1 5
 5 15 −10 40  −→  1 3 −2 8  ,
1
0 0
3 −9 5 L2 →L2 0 0 3 −9
corresponde à seguinte multiplicação (à esquerda):


 

1 0 0
1 3 −1 5
1 3 −1 5
 0 1/5 0   5 15 −10 40  =  1 3 −2 8  .
0 0 1
0 0
3 −9
0 0 3 −9
A operação elementar:




1 3 −1 5
1 3 −1 5
 1 3 −2 8 
 0 0 −1 3  ,
−→
−L1 +L2 →L2
0 0 3 −9
0 0 3 −9
corresponde à seguinte multiplicação


1 0 0
1
 −1 1 0   1
0 0 1
0
(à esquerda):
 

3 −1 5
1 3 −1 5
3 −2 8  =  0 0 −1 3  .
0 3 −9
0 0 3 −9
Finalmente, a operação elementar:




1 3 −1 5
1 3 −1 5
 0 0 −1 3 
 0 0 −1 3  ,
−→
3L2 +L3 →L3
0 0 3 −9
0 0 0 0
6
corresponde à seguinte multiplicação


1 0 0
1
 0 1 0  0
0 3 1
0
(à esquerda):
 

3 −1 5
1 3 −1 5
0 −1 3  =  0 0 −1 3  .
0 3 −9
0 0 0 0
Tem-se então:

 

0 0
3 −9
1 3 −1 5
1
P13  5 15 −10 40  =  0 0 −1 3  .
E23 (3) E12 (−1) E2
5
1 3 −1 5
0 0 0 0
Note-se que as matrizes elementares são invertı́veis, sendo
Pij−1 = Pij ,
1
Ei (α)−1 = Ei ( ),
α
e Eij (α)−1 = Eij (−α).
Uma matriz diz-se matriz triangular superior (triangular inferior) se as entradas por
baixo (por cima, respectivamente) da diagonal principal são todas nulas.
Seja A uma matriz quadrada e considere-se a sua transformação em matriz em escada de
linhas Ak (que é triangular superior) usando matrizes elementares E1 , ...., Ek :
A −→ A1 −→ A2 −→ .... −→ Ak .
E1
E2
E3
Et
Por aplicação repetida do Teorema 1.14 temos
(Et ...E2 E1 )A = Ak ,
(1)
e obtém-se
A = (Ek .....E2 E1 )−1 Ak = (E1−1 ...Ek−1 )Ak .
Se as matrizes elementares E1−1 , ...Ek−1 não são de permutação, então a matriz L := E1−1 ...Ek−1
é uma matriz triangular inferior (o produto de matrizes triangulares inferiores é uma matriz
triangular inferior) e U := Ak é uma matriz triangular superior. Temos assim a decomposição
A = LU da matriz inicial A como produto de duas matrizes triangulares.
Todavia há matrizes para as quais não é possı́vel efectuar a decomposição A = LU .
Nestes casos, efectuamos todas as trocas de linhas no inı́cio da condensação obtendo uma
matriz de permutação P (produto de matrizes elementares associadas a troca de linhas).
Como as trocas foram todas realizadas no inı́cio, podemos então transformar a matriz P A
numa matriz em escada de linhas sem recorrer a mais trocas de linhas.
Teorema 1.16 (Factorização triangular). Seja A uma matriz do tipo n × n. Então ou
A admite a factorização A = LU ou existe uma matriz de permutação P tal que P A admite
a factorização P A = LU , onde L e U são respectivamente uma matriz triangular inferior e
uma matriz triangular superior.
Veremos aplicações desta factorização, p.ex, na Secção 1.3.


1 1 1
Exemplo 1.17 Seja A =  2 1 4 . Tem-se:
2 3 5


1 1 1
E23 (1)E13 (−2)E12 (−2)A =  0 −1 2  .
0 0 5
7
Logo,


1 1 1
A = (E12 (−2))−1 (E13 (−2))−1 (E23 (1))−1  0 −1 2  .
0 0 5
Isto é,


1 1 1
A = E12 (2)E13 (2)E23 (−1)  0 −1 2  ,
0 0 5
ou ainda,
A = LU ,
com


1 0 0
L = E12 (2)E13 (2)E23 (−1) =  2 1 0 
2 −1 1
1.3


1 1 1
e U =  0 −1 2  .
0 0 5
Sistemas de Equações Lineares
O estudo dos sistemas lineares remonta aos Matemáticos da Babilónia (c.2000 a.C.) e da
China (c.200 a.C.) e tomou a sua forma actual no século XIX, destacando-se os trabalhos de
Arthur Cayley (1821-1895) e James Sylvester.
Definição 1.18 Uma equação linear com n incógnitas x1 , x2 , ..., xn é uma equação da
forma
a1 x1 + a2 x2 + ... + an xn = b,
em que a1 , a2 , ..., an e b são escalares (reais ou complexos).
Definição 1.19 Um sistema de m equações lineares com n incógnitas é um conjunto
de equações lineares da forma

a11 x1 + a12 x2 + ... + a1n xn = b1



a21 x1 + a22 x2 + ... + a2n xn = b2
(2)
...



am1 x1 + am2 x2 + ... + amn xn = bm
em que aij e bk são escalares (reais ou complexos), para i, k = 1, ..., m e j = 1, ..., n.
Sempre que os aij e bk forem todos coeficientes reais, as incógnitas (ou variáveis) x1 , ..., xn
do sistema (2) também se consideram variáveis reais (por defeito). Usando o produto de
matrizes definido na Secção 1.1, o sistema linear (2) pode ser escrito como uma equação
matricial
Ax = b,
em que



A=

a11
a21
..
.
a12
a22
..
.
am1 am2
···
···
···
···
a1n
a2n
..
.




,



x=

amn
x1
x2
..
.
xn
8






e


b=

b1
b2
..
.
bm



.

A matriz A é designada por matriz dos coeficientes das incógnitas, x matriz-coluna das
incógnitas e b matriz-coluna dos termos independentes dos sistema linear (2). O sistema
anterior também pode ser representado por


a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 


[A|b] =  ..
..
..
.. 
 .
. ···
.
. 
am1 am2 · · · amn bn
dizendo-se que esta matriz
é a matriz aumentada do sistema.


s1
 s2 


Dizemos que s =  ..  é uma solução do sistema linear (2) se todas as equações de (2)
 . 
sm
forem satisfeitas, quando substituı́mos x1 = s1 , ...., xn = sn , portanto

a11 s1 + a12 s2 + ... + a1n sn = b1



a21 s1 + a22 s2 + ... + a2n sn = b2
.
(3)
...



am1 s1 + am2 s2 + ... + amn sn = bm
Na forma matricial, todavia equivalente, s é solução do sistema linear (2) se As = b. Ao
conjunto S de todos as soluções de (2) damos o nome de conjunto-solução ou solução geral
do sistema, i.e.


s1
 s2 


n
S = {s = (s1 , ..., sn ) ∈ R : A  ..  = b}.
 . 
sm
Pretendemos uma descrição (algébrica e geométrica) do conjunto-solução. O método de
eliminação de Gauss (ver Secção 1.2) permite obter essa descrição, que consiste em aplicar
as operações elementares na matriz aumentada, obtendo sistemas lineares equivalentes ao
inicial (i.e. com o mesmo conjunto-solução) mas de resolução simplificada. Facilmente se
prova que se a matriz aumentada [A1 |b1 ] é obtida da matriz aumentada [A|b] usando uma
operação elementar, então os 2 sistemas lineares associados têm o mesmo conjunto-solução.
Exemplo 1.20 O sistema linear

x+z =3





x + 2y + 2z = 6





3y + 3z = 6
na forma matricial é
Consideremos

1 0
 1 2
0 3

   
1 0 1
x
3
 1 2 2  y  =  6 .
0 3 3
z
6
então a matriz aumentada e


1 | 3
1 0


2 | 6
0 2
−→
−L1 +L2 →L2
3 | 6
0 3
o consequente método de eliminação de Gauss:



1 0 1 | 3
1 | 3
 0 2 1 | 3 .
1 | 3  3 −→
− 2 L2 +L3 →L3
0 0 32 | 23
3 | 6
9
Logo o sistema linear inicial é equivalente ao sistema


x
+
z
=
3
x=2










2y + z = 3 ⇔
y=1






 3



3
z
=
z = 1.
2
2
Exemplo 1.21 O sistema linear

3z − 9w = 6





5x + 15y − 10z + 40w = −45





x + 3y − z + 5w = −7
é equivalente a




x
0 0
3 −9 
6

 5 15 −10 40   y  =  −45  .
 z 
1 3 −1 5
−7
w


Consideremos então a matriz aumentada e o consequente método de eliminação de Gauss:




1 3 −1 5 | −7
0 0
3 −9 | 6
 5 15 −10 40 | −45  −→  1 3 −2 8 | −9 
−→
−L1 +L2 →L2
L1 ↔L3
0
0
3
−9
|
6
1 3 −1 5 | −7
1
L →L2
5 2




1 3 −1 5 | −7
1 3 −1 5 | −7
 0 0 −1 3 | −2  .
−→  0 0 −1 3 | −2 
−→
3L2 +L3 →L3
0 0 3 −9 | 6
0 0 0 0 | 0
Logo,

 x + 3y − z + 5w = −7

⇔
−z + 3w = −2

 x = −3y − 2w − 5

z = 3w + 2.
As incógnitas y e w são livres (isto é podem tomar valores arbitrários) e as incógnitas x e z
são não livres. A solução geral do sistema é:


 
x
−3y − 2w − 5
 y  

y
=
,
X=

 z  
3w + 2
w
w
para quaisquer y, w ∈ R, isto é, o conjunto solução é dado por:
S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R} .
Neste exemplo o sistema tem infinitas soluções
Dado um sistema linear na forma matricial Ax = b, importa investigar o seu conjunto
solução.
Notamos que se x0 e x1 forem soluções de Ax = b tais que x0 6= x1 , então x0 + λ(x1 − x0 )
também é solução de Ax = b, para cada escalar λ. Portanto se um sistema linear tiver duas
soluções distintas então tem infinitas soluções.
Podemos assim classificar (quando ao tipo solução) os sistemas lineares da seguinte forma:
10
1. Impossı́veis (os que têm o conjunto-solução vazio)
2. Possı́veis:
(a) Determinados (os que têm uma única solução)
(b) Indeterminados (os que têm um número infinito de soluções)
Em particular, podemos concluir que não há sistemas lineares com precisamente 2 soluções,
por exemplo.
Observação 1.22 Seja [A | b] a matriz aumentada associada a um sistema linear com n
incógnitas.
1. Se car A = car [A | b] = n então o sistema é possı́vel e determinado (tem uma única
solução).
2. Se car A = car [A | b] < n então o sistema é possı́vel e indeterminado (tem um no
infinito de soluções).
3. Se car A < car [A | b] então o sistema é impossı́vel (não tem solução).
4. Podemos escolher como incógnitas livres (podem tomar valores arbitrários) do sistema aquelas que correspondem às colunas, que não contenham pivôs, da matriz em
escada de linhas obtida de A através de operações elementares.
5. As incógnitas não livres do sistema são aquelas que correspondem às colunas, que
contenham pivôs, da matriz em escada de linhas obtidas de A através de operações
elementares.
6. car A = n o de linhas não nulas da matriz em escada de linhas obtidas de A = no de
pivôs = no de incógnitas não livres.
Teorema 1.23 Se A for uma matriz quadrada e invertı́vel, então o sistema Ax = b é possı́vel
e determinado. Além disso a única solução é x = A−1 b.
Na Secção 1.2 desenvolvemos um método para factorizar uma matriz quadrada A na
forma A = LU , com L uma matriz triangular inferior e U matriz triangular superior. Ora,
o sistema Ax = b pode ser escrito da seguinte forma
LU x = b.
Em seguida definimos uma nova variável y tal que U x = y. Resolvemos o sistema Ly = b
e finalmente determinamos os valores de x usando a equação U x = y.
Embora a decomposição LU converta o problema de resolver um único sistema Ax = b
no problemas de resolver dois sistemas Ly = b e U x = y, esses sistemas são de resolução
imediata porque as matrizes dos coeficientes das incógnitas são triangulares. Uma outra
vantagem nas aplicações é que esta decomposição só usa a matriz A e não a matriz b, pelo
que uma vez conhecida essa decomposição, podemos utilizá-la para para resolver Ax = b
para vários valores de b.
Se não existir a decomposição A = LU , então sabemos que existe uma matriz de permutação P tal que podemos efectuar a decompisição P A = LU . Pelo que a resolução do
sistema Ax = b é análoga ao anterior uma vez que as soluções de P Ax = P b são as mesmas
do sistema Ax = b.
11
Sistemas homogéneos
Ao sistema Ax = 0 chamamos sistema homogéneo, onde a matriz-coluna dos termos independentes é a matriz-coluna nula. Note-se que o sistema homogéneo Ax = 0 é sempre
possı́vel, uma vez que A0 = 0. O próximo resultado indica-nos que o estudo de sistema
lineares possı́veis reduzem-se ao estudo dos sistemas homogéneos associados, sabendo uma
solução particular.
Teorema 1.24 Seja S o conjunto solução do sistema Ax = b e x1 ∈ S. Seja ainda S0 o
conjunto-solução dos sistema homogéneo associado Ax = 0. Então temos
S = x1 + S0 .
A prova deste Teorema é simples: Dado x0 solução de Ax = 0 facilmente se conclui que
x1 + x0 é solução de Ax = b. Mais, se x2 é solução de Ax = b então (x2 − x1 ) é solução do
sistema Ax = 0.
No Exemplo 1.20 o conjunto-solução obtido foi
S = {(−3y − 2w − 5, y, 3w + 2, w) : y, w ∈ R} .
Cada solução neste sistema pode ser escrito da seguinte forma (separando a parte que tem
as variáveis livres):
(−3y − 2w − 5, y, 3w + 2, w) = (−5, 0, 2, 0) + (−3y − 2w, y, 3w, w).
Facilmente se verifica que {(−3y − 2w, y, 3w, w) : y, w ∈ R} é o conjunto-solução S0 do sistema homogéneo e que (−5, 0, 2, 0) é uma solução particular de Ax = b e portanto
S = (−5, 0, 2, 0) + S0 .
Já vimos que o vector nulo é solução do sistema homogéneo. O próximo resultado dá-nos
uma ideia da estrutura crucial que está presente em Álgebra Linear.
Teorema 1.25 Se x0 e x1 são soluções do sistema homogéneo Ax = 0 e λ escalar, então
x0 + x1 e λx0 também são soluções do mesmo sistema homogéneo.
1.4
Cálculo da matriz inversa
Nesta Secção, vamos fornecer dois algoritmos para determinar a inversa (ver Definição 1.7).
10 algoritmo para a determinar a inversa de uma matriz
Na equação (1), se a matriz em escada de linhas Ak tem uma linha Li toda nula, então
At não é invertı́vel uma vez que a linha Li de Ak B é sempre nula, e portanto Ak B 6= I.
Se At tiver todas as linhas não nulas, então com Ak está em escada de linhas e a matriz
Ak é quadrada conclui-se que as entradas de diagonal de Ak são todas não nulas. Pelo
que podemos prosseguir com as operações elementares a partir da matriz Ak por forma a
transforma-la na matriz identidade I:
A −→ A1 −→ A2 −→ .... −→ Ak −→ Ak+1 −→ ... −→ I.
E1
E2
E3
Ek
Ek+1
Concluimos que
(Es ...Ek .....E2 E1 )A = I,
em particular concluimos que A é invertı́vel e que
12
Ek+2
Es
Teorema 1.26
1. A−1 = Es ...Ek .....E2 E1 .
2. car(A) = n se e só se A é invertı́vel.
2o algoritmo para calcular a inversa: método de Gauss-Jordan2
Note-se que se A for invertı́vel, aplicando o método de eliminação de Gauss, podemos transformar matriz aumentada [A|b] numa matriz do tipo [I|c], em que a matriz coluna c será
naturalmente a solução de Ax = b.
Se a matriz A do tipo n × n. Pretendemos determinar uma matriz X tal que AX = I.
Ora esta equação matricial pode ser resolvida através da resolução de n sistemas lineares:
 
 
 
1
0
0
 0 
 1 
 0 
 
 
 
Ax1 =  ..  , Ax2 =  ..  , ..., Axn =  ..  ,
 . 
 . 
 . 
0
0
1
em que x1 é a primeira coluna de X, ..., xn é a n-ésima coluna de X. Estes n sistemas
podem ser resolvidos em simultânea considerando a matriz aumentada [A|I]. pelo que foi
exposto em cima, podemos transformar esta matriz aumentada numa matriz [I|C], caso A
seja invertı́vel. Desta forma obtém-se a inversa de A como sendo A−1 = C.
Este algoritmo para obter a inversa de uma matriz chama-se método de Gauss-Jordan
e consiste na continuação do método de eliminação de Gauss agora aplicado a
[ matriz triangular superior | ∗]
efectuando-se as eliminaç ões de baixo para cima de modo a obter-se [I | A−1 ].


1 1 1
Exemplo 1.27 (i) Seja A =  2 1 4 . Tem-se
2 3 5




1 1 1 | 1 0 0
1 1 1 | 1 0 0
 0 −1 2 | −2 1 0 
[A | I] =  2 1 4 | 0 1 0 
−→
−→
−2L1 +L2 −→L2
L2 +L3 −→L3
2 3 5 | 0 0 1 −2L1 +L3 −→L3 0 1 3 | −2 0 1




1 1 1 |
1
0
0
1 1 1 | 1 0 0
1
0 
−→
−→  0 −1 2 | −2 1 0  1 −→  0 −1 2 | −2
−2L3 +L2 −→L2
L
−→L
3
3
0 0 1 | −4/5 1/5 1/5
0 0 5 | −4 1 1 5
−L3 +L1 −→L1


1 1 0 | 9/5 −1/5 −1/5
−→  0 −1 0 | −2/5 3/5 −2/5 
−→
L2 +L1 −→L1
0 0 1 | −4/5 1/5
1/5


1 0 0 | 7/5 2/5 −3/5
−→  0 −1 0 | −2/5 3/5 −2/5  −→
−L2 −→L2
0 0 1 | −4/5 1/5 1/5


1 0 0 | 7/5
2/5 −3/5
−→  0 1 0 | 2/5 −3/5 2/5  .
0 0 1 | −4/5 1/5
1/5
2
O 3o algoritmo para calcular a inversa de uma matriz invertı́vel será dado no Capı́tulo 2
13

Portanto A é invertı́vel e

1

(ii) Seja A = 1
0

1 2 3

[A | I] = 1 1 2
0 1 1
2
1
1
|
|
|

7/5
2/5 −3/5
A−1 =  2/5 −3/5 2/5  .
−4/5 1/5
1/5

3
2 . Tem-se
1



1 0 0
1 2
3 | 1 0 0
 0 −1 −1 | −1 1 0 
0 1 0 
−→
−→
−L1 +L2 −→L2
L2 +L3 −→L3
0 0 1
0 1
1 | 0 0 1


1 2
3 | 1 0 0
−→  0 −1 −1 | −1 1 0  .
0 0
0 | −1 1 1
Logo, A não é invertı́vel e como tal não é invertı́vel.
1.5
Exercı́cios
Números complexos
E1.1 Verifique, com exemplos, que as inclusões N ⊆ Z ⊆ Q ⊆ R ⊆ C são todas estritas.
Será que isto implica que, p.ex., #N 6= #Z??
E1.2 Escreva na forma a + bi os seguintes números complexos:
(a) (2 − i)2
(b)
2
4−3i
(c)
1+i
1−i
(d) (i)n , n ∈ N.
E1.3 Escreva os seguintes números na forma polar z = ρeiθ :
(a) 7
(b) −2i
(c) (1 + i) · i
(d) (1 + i)4 .
E1.4 Seja p(z) = a0 + a1 z + a2 z 2 + · · · + an z n um polinómio de coeficientes reais (i.e. todos
os coeficientes ak ∈ R) e na variável complexa z.
(a) Mostre que p(z̄) = p(z) para qualquer z ∈ C.
(b) Conclua que se λ = a + ib, com a, b ∈ R e b 6= 0, é raiz de p(z), então λ̄ também o é.
(c) Mostre que se n = 3 e p(z) tem uma raiz com parte imaginária não nula, então p possui
três raizes distintas.
(d) Calcule todas as raizes de p(z) = 5 + 9z + 8z 2 + 4z 3 .
Álgebra de matrizes
E1.5 Escreva
 a matriz A = [aij ]i,j=1,··· ,4 definida por
 1 se i = j,
−aji para todo i, j
2
−1 se j = i + 1,
(a) aij =
(b) aij = j
(c) aij =
j para j > i.

0 caso contrário.
E1.6 Verifique se a matriz A = [aij ] ∈ M2×2 (R) definida por aij = 3i + 2j é simética.
14
1 π √
−1
−1 2 3
π
E1.7 Sejam A =
, B=
, C= 1 2 , D=
.
3 2 −1
3
2 3
3
(a) Calcule, se possı́vel, A + B, 2A, CD, AB, AC, DC, CB e AD.
(b) Calcule, se possı́vel, AT , AT B, DT C T , C T C, CC T e (CC T )T .
E1.8 Seja A =
1
1
. Calcule A2 .
−1 −1
E1.9 (a) Encontre matrizes A e B do tipo 2 × 2 tais que AB 6= BA. Será que (A + B)2 =
A2 + 2AB + B 2 ?
(b) Prove que (A + B)2 = A2 + 2AB + B 2 se e só se AB = BA.
(c) Prove que dadas duas matrizes quadradas A e B tais que AB = B e BA = A então
temos A2 = A.
1 1
0 0
Resolução: (a) Há muitas – use por exemplo as seguintes A =
eB=
.
0 0
1 1
E1.10 Seja A ∈ M2×2 (R) tal que Au = 0 para qualquer u ∈ M2×1 (R). Prove que A = 0.
E1.11 Sejam u, v ∈ Mn×1 (R): uT v 6= −1. Sejam A = I + uv T e B = I − 1+u1 T v uv T . Calcule
AB e BA.
Sistemas lineares e eliminação de Gauss
E1.12 Quais das
em x, y e z?
√ seguintes equações são equações lineares
2
−1
(a) x + π y + 2z = 0,
(b) x + y + z = 1,
(c) x + y + z = 0,
(d) xy + z = 0.
E1.13 Determine todos os polinómios p(x) de grau menor ou igual a 2 tais que p(1) =
1, p(2) = 0 e p(3) = 1.
E1.14 Decida quais dos seguintes pontos (0, 0, 0, 0), (1, −1, 0, 0), (1, −1, 0, π), (0, −1, 1, 3),
(0,
−1, 0, 3) pertencem ao conjunto solução do sistema linear, nas incógnitas (x, y, z, w):
x + y + 2z = 0
−x − 2y − z = 1.
E1.15 Determine a intersecção entre as rectas y + x = 1 e y − 2x = 12 .
E1.16 A conversão entre graus Celsius, C, e graus Fahrenheit, F , é governada pela equação
linear:
F = 95 C + 32. Determine a único valor da temperatura cuja conversão não altera o seu valor
(isto é quando F = C).
E1.17 Determine valores para x, y, z e w de modo a que nas reacções quı́micas seguintes os
elementos quı́micos envolventes ocorram em iguais quantidades em cada lado da respectiva
equação (isto é, equilibre as equações quı́micas):
(a) xC3 H8 + yO2 → zCO2 + wH2 O
(b) xCH4 + yO2 → zCO2 + wH2 O
15
E1.18 Resolva cada um dos sistemas de equações lineares, utilizando o método de Eliminação
de Gauss:


 x + y + 2z = 8
 3x + 2y = 1
x+y+z+w =1
−x − 2y + 3z = 1
6x + 4y = 0
(a)
(b)
(c)
2x + 2y + 2z + 3w = 1,


3x − 7y + 4z = 10,
9x + 6y = 1,



 2x + 8y + 6z = 20
 2x + 8y + 6z = 20
 y+z =2
4x + 2y − 2z = −2
4x + 2y − 2z = −2
3y + 3z = 6
(d)
(e)
(f )



3x − y + z = 11,
−6x + 4y + 10z = 24,
y + x + y = 0.
E1.19 Escreva cada sistema linear do Problema 1.18 na forma matricial e aplique o método
de Eliminação de Gauss, à matriz aumentada, para confirmar o resultado obtido no Problema
1.18. Indique o conjunto solução.
E1.20 Interprete geometricamente cada conjunto solução obtido no Problema 1.18.
E1.21 Para cada parâmetro
real α, considere
o sistema de equações lineares cuja matriz


1 4 2 10
aumentada é dado por  2 7 2 20 .
1 5 α 10
(a) Discuta em termos de α a existência ou não de solução do sistema de equações lineares
anterior.
(b) Para α = 4, determine o conjunto solução do sistema de equações lineares correspondente.
E1.22 Discuta, em função do parâmetros α e β, a solução de cada sistema linear cuja matriz
aumentada é:




α 0 β 2
α 1 1 1
(b)  α α 4 4 
(a)  1 α 1 1 
1 1 α 1
0 α 2 β
Solução (a) Para α 6= 1 e α 6= −2 o sistema é possı́vel e determinado. Para α = 1 sistema
é possı́vel e indeterminado. Finalmente para α = −2, o sistema é impossı́vel.
(b) O sistema é possı́vel e determinado se α 6= 0 e β 6= 2. É impossı́vel para α = 0 e β 6= 2.
Nos restantes casos, o sistema linear é possı́vel e indeterminado (i.e. β = 2 e qualquer α).


1 2 −α 1
E1.23 Considere o sistema Ax = b cuja matriz matriz aumentada é  2 −1 −1 β .
9 −2 1 −1
(a) Calcule as caracterı́sticas de A e da matriz aumentada [A|b] em função dos parâmetros
α e β.
(b) Discuta o tipo de solução do sistema em função dos parâmetros α e β.
Resolução: Usando eliminação de Gauss temos

1
 2
9
2
−1
−2
−α
−1
1


1
1
−→
β  −2L1 +L2  0
−1 −9L1 + L3
0
2
−α
−5 2α − 1
−20 1 + 9α


1
1
−→
 0
β−2 
−4L2 + L3
−10
0
2
−5
0

−α
1
2α − 1
β − 2 .
α + 5 −4β − 2
(a) Donde
car A =
3, α 6= −5
,
2, α = −5

α 6= −5, β ∈ R
 3,
3, α = −5 e β 6= −1/2 .
car [A|b] =

2, α = −5 e β = −1/2
(b) Analisando novamente a matriz em escada de linhas obtida em a) concluı́mos que o
sistema é impossı́vel quando α = −5 e β 6= −1/2. É determinado quando α 6= −5 (e
qualquer β). Indeterminado quando α = −5 e β = −1/2.
16
E1.24 Indique a caracterı́stica de cada uma
escada
 de linhas?




1 1 1
1 0 0
1





(a) 1 1 1
(b) 0 1 0
(c) 0
1
1
1
0
0
1




 0
3 1 −1
3 1 −1
0





(f) 0 0 0
(g) 0 0 1
(h) 0
0 0 1
0 0 0
0
das seguintes matrizes. Quais é que estão em





0 0
0 1 0
0 1 0
1 0  (d)  0 0 1  (e)  0 0 1 
0 0
0 0 0  
0 0 1
0
0
0 0 0


0
(i)
(j) 0  (k) 0 0 1
0 0 0
0
1
E1.25 Determine o conjunto solução de cada sistema homogéneo Au = 0 associado a cada
matriz A do Problema 1.18, indicando o número de variáveis livres.
E1.26 Seja Ax = b um sistema linear escrito na forma matricial e B a matriz que se obtém
de A usando uma operação elementar. Será que podemos garantir que o conjunto solução
do sistema Ax = b coincide com o conjunto solução do sistema By = b? Justifique a sua
resposta.


1
1
1 5
E1.27 Considere o sistema linear cuja matriz aumentada é:  2 −1 −1 1 .
−3 2
2 0
(a) Determine o conjunto solução deste sistema.
(a) Verifique que x = 2, y = i, z = 3−i é uma solução deste sistema. Há alguma contradição?
(b) Se um sistema linear Ax = b for determinado com A e b matrizes reais, então será
indiferente considerar as incógnitas reais ou complexas? Justifique.
E1.28 Sejam x0 e x1 duas soluções do sistema linear Ax = b. Prove que:
(a) Para qualquer real λ seja xλ = λx0 + (1 − λ)x1 . Prove que xλ é solução de Ax = b,
(b) xλ − xλ0 é solução do sistema homogéneo associado Ax = 0 para quaisquer λ, λ0 ∈ R.
Conclua que se Ax = b tiver duas soluções distintas, então o conjunto solução é infinito.
E1.29 Sendo A uma matriz quadrada e b uma matriz coluna não nula, decida o valor lógica
de cada uma das seguintes afirmações:
(a) Seja x1 solução do sistema Ax = b e y1 solução do sistema homogéneo associado Ay = 0,
então x1 − y1 é solução de Ax = b.
(b) Se x1 e x2 são duas soluções de Ax = b, então x1 − x2 é solução de Ax = b.
(c) Se x1 e x2 são duas soluções de Ax = b, então x1 − x2 é solução de Ax = 0.
(d) Se A é invertı́vel, então x = 0 é a única solução de Ax = 0.
E1.30 Determine o conjunto solução do sistema
 linear
1 1
0 1 1
0 0 0 0
(b)
(c)  0 1
(a)
0 0 0 0
0 0 1
0 0
cuja
 matriz aumentada é:
0
0 .
0
E1.31 Determine um sistema linear de equações cujo conjunto solução seja dado por S:
(a) S = {(1 + t, 1 − t) : t ∈ R}; (b) S = {(1, 0, 1)};
(c) S = {(t, 2t, 1) : t ∈ R}; (d) S = {(t, s, t + s) : t, s ∈ R};
(e) S = ∅.
"
#
" #
" #
α
E1.32 Sejam Aα = 1
0
−1
α
0
0
1
α
x1
1
, x = x2 ,
b = 1 onde α ∈ C é um parâmetro com1
x3
plexo. Considere a seguinte lista de afirmações:
17
I) Existe um único valor de α para o qual car(Aα ) 6= 3.
II) O sistema homogéneo Aα x = 0 é possı́vel para qualquer valor de α.
III) O sistema Aα x = b é possı́vel para qualquer valor de α.
IV) O sistema Aα x = b é determinado para infinitos valores de α.
A lista completa de afirmações correctas é
A) II e IV
B) II e III e IV
C) I e II e III e IV
D) I e II
Matrizes invertı́veis
E1.33 Sejam A e B duas matrizes quadradas 4 × 4 tais que AB = I. Calcule a matriz
BA2 − A.
1 0 0
E1.34 Seja A =
. Verifique que existe uma matriz B ∈ M3×2 (R) tal que AB = I,
0 1 0
mas que não existe nenhuma matriz C tal que CA = I. O que podemos concluir?
−1
a b
d −b
1
E1.35 Sejam a, b, c, d números reais. Prove que
= ad−cb
sempre que
c d
−c a
ad − cb 6= 0.
E1.36 (a) Sejam A, B, C matrizes n × n, tais que A e B são invertı́veis. Resolva a seguinte
equação matricial em X: AXB = C.
0 1
(b) Determine, caso existam, todas as matrizes A do tipo 2×2 tais que I−
A = −2A.
2 2

1 1 2
(c) Determine, caso existam, todas as matrizes A do tipo 3 × 3 tais que  0 1 −1  A −
0 0 2
2A = 3I.


1 1 2
(d) Determine, caso existam, todas as matrizes A do tipo 3 × 3 tais que  0 1 −1  A −
0 0 1
2A = 3I.
E1.37 (Matrizes nilpotentes) Seja A ∈ Mn×n (R) tal que Ak = 0 para algum k ∈ N, k 6= 1.
Prove que
(I − A)−1 = I + A + A2 + · · · + Ak−1 .


10
7
4
E1.38 Seja A =  −17 −12 −7  .
4
3
2
3
(a) Verifique que A é a matriz nula. Prove que A não é invertı́vel.
(b) Calcule (I + A + A2 )(I − A).
Resolução: (a) Calcule-se A3 por definição de produto de matrizes e concluir que A3 é a matriz nula. Supor que A é invertı́vel, então como o produto de matrizes invertı́veis é invertı́vel,
conluimos que A2 e A3 também são invertı́veis. Mas A3 não é invertı́vel. Alternativelmente,
verifique que car (A) = 2 6= 3. Donde A não é invertı́vel. (b) Use o Problema 1.37.
18
−1
E1.39 Seja A tal que (7A)
=
3 4
. Calcule A.
2 3
−1
−1 −1
−1 −1
Resolução: Note
que (7A) = C significa que 7 A = C, i.e. A = 7 C . Neste caso
3 −4
concreto, A = 17
.
−2 3
E1.40 Quando possı́vel, inverta as seguintes matrizes:

2
0 1 1
3
5
0
 −7
1 1
1 1
,
,  1 0 1  ,  −1 −2 −2  , 
 π
1 1
1 2
1 1 0
1
2
1
3

 

1
3
3
9

0 0
0 −2 

1 1 
0 0
Resolução: Usando o método de Gauss-Jordan temos
−→
−→
1 1 1 0
1 0 2 −1
1 1 1 0
.
1 2 0 1
0 1 −1 1
0 1 −1 1
−L1 + L2
−L2 + L1
2 −1
−1
Portanto A é invertı́vel porque car (A) = 2 e A =
. A matriz B não é
−1 1
invertı́vel pois car (B) = 1 6= 2. As matrizes C, D e E são invertı́veis.
E1.41 Em função do parâmetro real α, calcule a caracterı́stica e justifique, quais são
valores de α para os quais as seguintes matrizes são intertı́veis: 




1 −1 α
0
1 0 α
0 α2 − 1 α + 1

α −1
−1 −α 1
0
α2
−α  (d) 
(a)
(b)  −1 α α  (c)  2
3

1 α
1 −1 α
0
0 α 1
2
1
1
1 −1 α 1 − α2
E1.42 Aproveite a matriz inversa de A do Problema 1.40 para resolver o sistema
os




x+y =8
x + 2y = 10
Resolução: Como A é invertı́vel, de Ax = b obtém-se x = A−1 b multiplicando à esquerda
por A−1 . Portanto pelo exercı́cio 1.40
x
2 −1
8
6
=
=
.
y
−1 1
10
2
E1.43 Dadas A, B matrizes do tipo n × n invertı́veis tais que A + B é invertı́vel, prove que
A−1 + B −1 também é invertı́vel e
(A−1 + B −1 )−1 = A(A + B)−1 B.
E1.44 Seja A = [aij ] uma matriz invertı́vel e B = [bij ] a inversa de A. Mostre que, para
cada k 6= 0, a matriz [k i−j aij ] é invertı́vel e a sua inversa é [k i−j bij ].
19
2
Determinantes
Definição 2.1 Dados os números naturais 1, 2, ..., n chama-se permutação desses n números
a qualquer lista em em que os mesmos sejam apresentados por ordem arbitrária.
Definição 2.2 Seja (i1 i2 ...in ) uma permutação dos números naturais 1, 2, ..., n. Diz-se que
um par (ij ik ) é uma inversão quando (j − k) (ij − ik ) < 0 (isto é, quando ij e ik aparecerem
na permutação por ordem decrescente).
Definição 2.3 Uma permutação (i1 i2 ...in ) diz-se par (ı́mpar) quando o no máximo de
inversões incluı́das fôr par (ı́mpar).
Exemplo 2.4 A permutação (21453) é ı́mpar pois contem as inversões (21), (43) e (53).
Definição 2.5 Seja A matriz n × n. Chama-se determinante3 de A, e escreve-se |A| ou
det(A), o número que se obtém do seguinte modo:
(i) Formam-se todos os produtos possı́veis de n factores em que intervenha um elemento
de cada linha e, simultaneamente, um elemento de cada coluna de A.
(ii) Afecta-se cada produto do sinal + ou do sinal − conforme as permutações (dos
números naturais 1, 2, ..., n) que figuram nos ı́ndices de linha e de coluna tenham a mesma
paridade ou não.
(iii) Somam-se as parcelas obtidas.
Em resumo:
X
det(A) = |A| =
(−1)σ a1j1 a2j2 ...anjn ,
(j1 j2 ...jn )
permutação de 1,2,...,n
em que
σ=

 0 se (j1 j2 ...jn ) é par

1 se (j1 j2 ...jn ) é ı́mpar.
Observação 2.6 Podemos ainda escrever de modo equivalente:
X
|A| =
(−1)σ ai1 1 ai2 2 ...ain n ,
(i1 i2 ...in )
permutação de 1,2,...,n
em que
σ=

 0 se (i1 i2 ...in ) é par

3
1 se (i1 i2 ...in ) é ı́mpar.
O Determinante de uma matriz foi pela primeira vez considerado por Talakazu Seki 1642–1708
20
Teorema 2.7 Seja A matriz 2 × 2. Então
a
a
|A| = 11 12
a21 a22
= a11 a22 − a12 a21 .
(ii) Seja A matriz 3 × 3. Então
a11 a12 a13
|A| = a21 a22 a23
a31 a32 a33
= a11 a22 a33 + a12 a23 a31 + a21 a32 a13 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .
Exemplo 2.8 (i)
1 −1
2 −2
= 1(−2) − (−1)2 = 0.
(ii)
1 2
1
3 −1 2
2 1 −3
= 1(−1)(−3) + 3 + 8 − 1(−1)2 − 6(−3) − 2 = 32.
Observação 2.9 i) A área do paralelogramo definido pelos vectores (a1 , b1 ), (a2 , b2 ) de R2
é
a1 b 1
A = | det
|.
a2 b 2
ii) O volume do paralelipı́pedo definido pelos vectores (a1 , b1 , c1 ), (a2 , b2 , c2 ), (a3 , b3 , c3 ) de R3
é dado por


a1 b 1 c 1
A = | det  a2 b2 c2  |.
a3 b 3 c 3
Observação 2.10 Se A é do tipo n × n então |A| tem n! parcelas, pelo que p.ex. se aplicarmos a definição de determinante a uma matriz 4 × 4, teremos 4! = 24 parcelas. Em seguida
vamos estudar métodos mais expeditos para o cálculo do determinante de uma matriz evitando o cálculo através desta definição.
Podemos facilmente calcular o determinante de cada matriz elementar:
det(Pij ) = −1 (sei 6= j), det(Ei (α)) = α e det(Eij (α)) = 1.
21
Teorema 2.11 Sejam A, B matrizes n × n. Seja λ ∈ R.
(i) det (AB) = det A det B.
(ii) Se A fôr uma matriz triangular superior ou triangular inferior então det A = produto
dos elementos da diagonal principal de A.
(iii) Se A tiver uma linha nula então det A = 0.
(iv) Se B fôr obtida de A multiplicando uma linha de A por um número real λ então
det B = λ det A.
(v) Se B fôr obtida de A somando a uma linha de A um múltiplo real λ de uma outra
linha de A então det B = det A.
(vi) Se duas linhas de A forem iguais então det A = 0.
(vii) Se B fôr obtida de A trocando duas linhas de A então det B = − det A.
(viii) det AT = det A.
(ix) Se A fôr invertı́vel det (A−1 ) =
1
.
det A
(x) det (λA) = λn det A.
(xi) det (AB) = 0 ⇒ det A = 0 ou det B = 0.
(xii) det (AB) = det (BA).
(xiii) det(A) 6= 0 se e só se A invertı́vel.
Observação 2.12 (i) Para estabelecer parte (i) do teorema 2.11, sugere-se provar esse
resultado para matrizes elementares.
(ii) Em geral, det(A + B) 6= det(A) + det(B).
Definição 2.13 Seja A = (aij ) ∈ Mn×n (R), com n > 1. Seja Aij a matriz do tipo (n −
1) × (n − 1) que se obtém de A suprimindo a linha i e a coluna j de A. Chama-se a Aij o
menor-ij da matriz A.
Teorema 2.14 (Fórmula de Laplace4 .) Seja A ∈ Mn×n (R), com n > 1. Tem-se
det A =
n
X
aij (−1)i+j det Aij .
j=1
Observação 2.15 Seja A ∈ Mn×n (R), com n > 1. Tem-se
det A =
n
X
aij (−1)i+j det Aij .
i=1
4
Pierre-Simon Laplace 1749–1827
22
Exemplo 2.16
1 0 −2 3 1 −2 3
2 1 −1 4 3+2
= (−1)(−1) 2 −1 4
0 −1 0 −2 1 −2 −3
1 0 −2 −3 1 0 −2
3+4
+ (−2)(−1) 2 1 −1
1 0 −2
=
= (−1)(−3) + (−2)4 + 2(−2)3 − (−1)3 − (−2)2(−3) − 4(−2) + 2 [(−2) − (−2)] = −18
Definição 2.17 Seja A = (aij ) ∈ Mn×n (R), com n > 1. Seja a0ij = (−1)i+j det Aij onde
Aij é o menor-ij da matriz A. Chama-se a a0ij o cofactor-ij da matriz A e à matriz
cof A = (a0ij ) ∈ Mn×n (R), com n > 1, a matriz dos cofactores de A.
Teorema 2.18 Para qualquer matriz A ∈ Mn×n (R), com n > 1, tem-se
A (cof A)T = (det A) I.
Se det A 6= 0 então A é invertı́vel e
A−1 =
Exemplo 2.19 Seja A =
a b
c d
A
−1
1
(cof A)T .
det A
∈ M2×2 (R) tal que det A 6= 0. Então A é invertı́vel e
1
=
ad − bc
d −b
−c a
.
Note que ad − bc = det A.
(ii) Podemos usar o teorema 2.18 para calcular não só a inversa de uma matriz (não
singular) mas também entradas concretas dessa inversa. Seja


1 0 0
A =  4 5 6 .
7 8 9
A entrada (2, 3) da matriz A−1 é dada por
1
1
1 1 0
T
−1
3+2
(A )23 =
=
(cof A)
(−1) det A32 =
− det
= 2.
4 6
det A
det A
−3
23


a11 a12 a13
Exemplo 2.20 Seja A =  a21 a22 a23 . Então
a31 a32 a33


a22 a33 − a23 a32
−(a21 a33 − a23 a31 )
a21 a32 − a22 a31
a11 a33 − a13 a31
−(a11 a32 − a12 a31 )  .
cof(A) =  −(a12 a33 − a13 a32 )
a12 a23 − a13 a22
−(a11 a23 − a13 a21 )
a11 a22 − a12 a21
Apelando aos teoremas 2.7 e 2.18, podemos escrever a inversa de cada matriz invertı́vel 3×3.
23
Teorema 2.21 (Regra de Cramer5 .) Seja A ∈ Mn×n (R) tal que A é invertı́vel. Então
a única solução do sistema de equações lineares AX = B é dada por
1
(cof A)T B.
det A
T
T
. . . xn
e B = b1 . . . bn
tem-se
X = A−1 B =
Isto é, sendo X =
x1
n
xj =
det Bj
1 X 0
,
akj bk =
det A k=1
det A
onde Bj é a matriz obtida de A substituindo a coluna j de A pela matriz coluna B dos
termos independentes.
Exemplo 2.22 O sistema de equações lineares

2x + y = 8





−x + 2y + 4z = 7





−x + z = 1
pode ser resolvido usando a regra de Cramer:
8 1 0 2 8 0
7 2 4 −1 7 4
1 0 1 −1 1 1
= 13,
x= y=
2 1 0 2 1 0
−1 2 4 −1 2 4
−1 0 1 −1 0 1
2.1
= −18
e
z=
2
−1
−1
2
−1
−1
1
2
0
1
2
0
8
7
1
0
4
1
= 14.
Exercı́cios
E2.1 Sejam A e B matrizes n × n. Decida se cada afirmação seguinte é verdadeira:
(a) Seja B a matriz que se obtém de A fazendo uma troca de linhas Li ←→ Lj com i 6= j.
Então det(A) = det(B).
(b) Seja B a matriz que se obtém de A multiplicando uma linha de A por um escalar não
nulo k. Então det(A) = k1 det(B).
(c) Seja B a matriz que se obtém de A substituindo a linha Li de A por Li + αLj , para
qualquer escalar α. Então det(A) = det(B).
(d) Sendo AT a matriz transposta de A, det(A) = det(AT ).
(e) det(αA) = αn det(A).
5
Gabriel Cramer 1704–1752
24


a b c
E2.2 Seja A =  d e f  tal que det(A) = −5. Calcule
g h i


a g d
(a) det(3A) (b) det(A−1 ) (c) det(−2A−1 ) (d) det((−2A)−1 ) (e) det(A3 ) (f) det  b h e 
c i f


b+c a+c a+b
b
c  = 0 para quaisquer a, b, c ∈ R. Será que A é
E2.3 Mostre que det  a
1
1
1
invertı́vel para algum a, b, c ∈ R?
E2.4 Para
 que valores
 de k a matriz A é invertı́vel?
1 2 4
k
−
2
−2
(a) A =  3 1 6 
(b) A =
.
−2 k − 2
k 3 2
E2.5

1
 0
3
Calcular os determinantes


1 −2 3
π −1
 1 0
0
2 0 , 
 0 −3 1
4 5
0 2 −1

0
0 −1
 1
0
3
E2.6 Seja A = 
 −2
1 −2
0 −2
1
das matrizes


0 5
0
 0 3

−1 
,  1 0
4  
 −1 0
0
−1 3

1
−3 
. Prove que
2 
0
1
2
2
3
2
 
0 2
5 4 3


1 −1   2 4 4

0 0 
,  3 4 4
2 1   7 4 5
1 −1
5 2 5
2
2
2
3
1
1
1
1
1
1



.


det(A6 − A5 ) = 3.
E2.7 Seja A ∈ Mn×n (R) tal que AAT = I.
(a) Prove que det(A) = ±1.
(b) Encontre uma matriz A tal que AAT = I e det(A) = −1.


1 −2 3
7 −1 .
E2.8 Seja A =  6
−3 1
4
(a) Calcule det(A) e justifique que A é invertı́vel.
(b) Determina a entrada (1,3) da matriz inversa A−1 .


4 3 2 1
2 3 1 1
−1

E2.9 Seja A = 
2 2 2 1 . Justifique que A é invertı́vel e calcule a entrada (4, 2) de A .
1 2 3 1


−1 α
0 −1
 α −1 −α
0 
 , com α ∈ R.
E2.10 Seja Aα = 
 0
0
1
1 
−1 α
0 −α
(a) Calcule det(Aα ) e determine os valores de α para os quais Aα é invrrtı́vel.
(b) Para cada n ∈ N, calcule det(An0 + An+2
), onde A0 é a matriz Aα para α = 0.
0
(c) Considerando os valores de α para os quais Aα é invertı́vel, calcule a entrada (3, 1) da
matriz A−1
α .
25
E2.11 Resolva os seguintes 
sistemas de equações lineares usando a regra de Cramer.
 x − 3y + z = 4
7x − 2y = 3
2x − y = −2
(a)
(b)
3x + y = 5

4x − 3z = −2
"
#
a
b
c
E2.12 Seja A = a 1 2 . Sabendo que det(A) = 5, considere a seguinte lista de afirmações:
b
"
a
1
b
4b 8
I) det a
2
c
16
2
4
#
= −20.
II) 2a 6= b.
III) det(−3A) = −135.
A lista completa de afirmações correctas é
A) I
B) II
C) I e II e III
D) I e II


3
2
1
1 2 2
E2.13 Seja A = 3 4 4
3
1
0
−1
0
.
0
0
Considere a seguinte lista de afirmações:
I) A matriz A é não invertı́vel.
II) A entrada (1,4) da matriz inversa de A é igual a 0.
III) A matriz 13 A2 é invertı́vel.
A lista completa de afirmações correctas é
A) I
B) II e III
C) II
D) III
E2.14 Seja A, B matrizes n × n invertı́veis.
(a) Prove que adj(adj(A))=|A|n−2 A.
(b) Prove que adj(AB) =adj(B)adj(A).
3
Espaços Lineares (ou Vectoriais)
No final do século XIX e no começo do século XX tornou-se claro – graças a Grassmann6 ,
Peano7 e a Weyl8 – que o desenvolvimento axiomático da geometria Euclideana podia ser feito
apelando a estruturas matemáticas — Espaços Vectoriais e Euclidianos — que desempenham
um papel determinante noutras áreas da matemática e de outras ciências. O estudo das
estruturas matemáticas independente quer dos contextos que lhes deram origem quer dos
contextos em que aplicam constitui uma das ideias mais ricas da matemática do século XX
e é indissociável da matemática Emmy Noether9 . A Álgebra linear é basicamente o estuda
dessas estruturas.
6
Hermann Grassmann 1809–1877
Giuseppe Peano 1858–1932
8
Hermanm Weyl 1885–1955
9
Emmy Noether 1882–1935
7
26
Definição 3.1 Um conjunto não vazio V é um espaço linear (real) se existirem duas
operações associadas a V , uma soma de elementos de V e um produto de escalares (números
reais) por elementos de V , com as seguintes propriedades:
(a) (Fecho da soma). Para quaisquer u, v ∈ V tem-se u + v ∈ V .
(b) (Fecho do produto por escalares). Para quaisquer α ∈ R e u ∈ V tem-se αu ∈ V .
(c) (Comutatividade da soma). Para quaisquer u, v ∈ V , u + v = v + u.
(d) (Associatividade da soma). Para quaisquer u, v, w ∈ V , u + (v + w) = (u + v) + w.
(e) (Elemento neutro da soma). Existe um elemento de V designado por 0 tal que, para
qualquer u ∈ V , u + 0 = u.
(f ) (Simétrico). Para cada (qualquer) u ∈ V existe v ∈ V tal que u + v = 0. A v
chama-se o simétrico de u e denota-se por −u.
(g) (Associatividade do produto por escalares). Para quaisquer α, β ∈ R e u ∈ V ,
α (βu) = (αβ) u.
(h) (Distributividade em relação à soma de vectores). Para quaisquer α ∈ R e u, v ∈ V ,
α (u + v) = αu + αv.
(i) (Distributividade em relação à soma de escalares). Para quaisquer α, β ∈ R e u ∈ V ,
(α + β) u = αu + βu.
(j) Para qualquer u ∈ V , 1u = u.
Observação 3.2 Aos elementos de V chamaremos vectores.
Exemplo 3.3 Exemplos de espaços lineares:
(i) Rn , com as operações usuais:
(u1 , u2 , ..., un ) + (v1 , v2 , ..., vn ) = (u1 + v1 , u2 + v2 , ..., un + vn ),
α(u1 , u2 , ..., un ) = (αu1 , αu2 , ..., αun ).
(ii) Mm×n (R) (conjunto de todas as matrizes reais do tipo m × n), com as operações
(usuais): A + B e αA.
(iii) O conjunto de todas as funções reais de variável real definidas num conjunto não
vazio S ⊆ R, com as operações usuais:
(f + g)(x) = f (x) + g(x),
(αf )(x) = αf (x).
(iv) O conjunto P de todos os polinómios reais, com as operações usuais.
(v) O conjunto Pn (por vezes designado por Pn ) de todos os polinómios reais de grau
menor ou igual a n (incluindo o polinómio nulo), com as operações usuais.
27
Observação 3.4 Um mesmo conjunto pode servir para formar espaços lineares diferentes:
(i) O conjunto dos números reais R, com a soma definida por
u v = u + v + 1,
e o produto por escalares definido por
α · u = αu + α − 1,
é um espaço linear. (Neste caso o elemento neutro é −1.)
(ii) O conjunto dos números reais maiores do que zero, com a soma definida por
u v = uv,
e o produto por escalares definido por
α · u = uα ,
é um espaço linear. (Neste caso o elemento neutro é 1.)
Observação 3.5 Alterações nos conjuntos considerados anteriormente podem resultar em
conjuntos que não são espaços lineares.
(i) O conjunto {(x, y) ∈ R2 : x ≥ 0 e y ≥ 0}, com as operações usuais, não é um espaço
linear. Por exemplo, os simétricos não estão no conjunto.
(ii) O conjunto V = {a0 + a1 t + ... + an tn : a0 , a1 , ..., an ∈ R e an 6= 0}, com as operações
usuais, não é um espaço linear. Por exemplo:
tn , −tn + t ∈ V , mas tn + (−tn + t) = t ∈
/ V.
(iii) O conjunto U = {f : R −→ R tais que f (1) = 2}, com as operações usuais, não é
um espaço linear. Por exemplo, se f1 , f2 ∈ U ,
(f1 + f2 ) (1) = f1 (1) + f2 (1) = 2 + 2 = 4 6= 2.
Logo, f1 + f2 ∈
/ U.
3.1
Subespaços lineares – p. ex.: núcleo, espaço colunas e linhas
de uma matriz
Definição 3.6 Seja V um espaço linear. Diz-se que U é um subespaço de V se U é um
subconjunto de V e se U , com as operações de V , fôr um espaço linear.
28
Observação 3.7 No entanto, para mostrar que um certo conjunto S ⊂ V é um subespaço
do espaço linear V , não será necessário verificar os 10 axiomas da definição 3.1, como se
pode ver no seguinte teorema.
Teorema 3.8 Um subconjunto não vazio U de um espaço linear V é um subespaço linear
de V se e só se:
(i) Para quaisquer u, v ∈ U tem-se u + v ∈ U .
(ii) Para quaisquer α ∈ R e u ∈ U tem-se αu ∈ U .
Exemplo 3.9 Exemplos de subespaços:
(i) Os únicos subespaços do espaço linear R, com as operações usuais, são {0} e R.
(ii) Os subespaços do espaço linear R3 , com as operações usuais, são: {(0, 0, 0)}, R3 ,
todas as rectas que passam pela origem e todos os planos que passam pela origem.
(iii) O conjunto de todas as matrizes (reais) triangulares superiores (do tipo n × n) é um
subespaço do espaço linear Mn×n (R), com as operações usuais.
(iv) O conjunto de todas as funções reais definidas e contı́nuas em I ⊂ R (I é um
intervalo) é um subespaço do espaço linear de todas as funções f : I −→ R, com as operações
usuais.
(v) Seja A uma matriz (real) do tipo m × n. O conjunto
C(A) = {b ∈ Rm : Au = b tem pelo menos uma solução u}
é um subespaço do espaço linear Rm , com as operações usuais, ao qual se dá o nome de
espaço das colunas de A.
(vi) Seja A uma matriz (real) do tipo m × n. O conjunto
N (A) = {u ∈ Rn : Au = 0}
é um subespaço do espaço linear Rn , com as operações usuais, ao qual se dá o nome de
espaço nulo ou núcleo de A. (Confronte com o teorema 1.25)
Observação 3.10 (i) Se A é invertı́vel então N (A) = {0}.
(ii) Se N (A) = {0} então A é invertı́vel.
(iii) Poderemos obter subespaços de um espaço linear através de combinações lineares
de vectores desse espaço.
29
Definição 3.11 Seja S um subconjunto não vazio de um espaço linear V . Diz-se que um
vector u é combinação linear finita dos elementos de S, se existir um no finito de elementos
de S, u1 , ..., uk , e de escalares λ1 , ..., λk tais que
u = λ1 u1 + ... + λk uk =
k
X
λi ui .
i=1
Ao cojunto de todas as combinações lineares finitas de elementos de S chama-se expansão
linear de S e designa-se por L(S). Se S é o conjunto vazio ∅, escreve-se L(∅) = {0}.
Teorema 3.12 Seja S um subconjunto não vazio de um espaço linear V . A expansão linear
L(S) de S é o menor subespaço de V que contém S. Deste modo, a L(S) também se chama
o subespaço gerado por S, e diz-se que S gera L(S).
Observação 3.13 Seja S e T dois subconjuntos não vazios de um espaço linear V , com
S ⊂ T . Se L(S) = V então L(T ) = V .
Exemplo 3.14 (i) O espaço linear R2 é gerado por qualquer dos seguintes conjuntos de
vectores:
{(1, 0), (0, 1)}, {(1, 2), (−1, 11)} e {(23, 8), (6, 14)}.
(ii) O subespaço {(x, y) ∈ R2 : y = 2x} do espaço linear R2 é gerado por qualquer dos
seguintes conjuntos de vectores:
{(1, 2)}, {(−2, −4)} e {(77, 154)}.
(iii) O espaço linear Pn de todos os polinómios de grau menor ou igual a n, é gerado
por qualquer dos seguintes conjuntos de vectores:
{1, t, t2 , ..., tn }, {1, 1 + t, (1 + t)2 , ..., (1 + t)n } e {1,
tn
t t2
, , ..., }.
1! 2!
n!
(iv) O espaço linear P de todos os polinómios, é gerado pelo conjunto infinito de vectores:
{1, t, t2 , ...}.
(v) O espaço linear V de todas as funções f : R → R diferenciáveis tais que f 0 (x) = af (x)
é gerado pela função f1 (x) = eax , i.e. V = L({f1 }).
(vi) Seja A uma matriz (real) do tipo m × n. O espaço das colunas de A,
C(A) = {b ∈ Rm : Au = b tem pelo menos uma solução u} ,
é o subespaço (do espaço linear Rm ) gerado pelas colunas de A, uma vez que:

 







b1
a11 a12 · · · a1n
u1
a11
a12
a1n
 b2   a21 a22 · · · a2n   u2 
 a21 
 a22 
 a2n

 







 ..  =  ..
..
..   ..  = u1  ..  + u2  ..  + ... + un  ..
 .   .
 . 
 . 
 .
.  . 
. ···
bm
am1 am2 · · · amn
un
am1
am2
amn
30



.

(vii) Seja A uma matriz (real) do tipo m × n. Ao subespaço linear de Rn gerado pelas
linhas de A dá-se o nome de espaço das linhas de A e designa-se por L(A).
(viii) Sejam
A=
0 0 0
0 0 0




1 −3 1
−1 2
, B =  0 0 7  , C =  2 −4 
0 0 0
−2 4
e D=
2 0
0 −1
.
Tem-se
C(A) = {(0, 0)}, N (A) = R3
e L(A) = {(0, 0, 0)}.
C(B) = L ({(1, 0, 0) , (1, 7, 0)}) , N (B) = L ({(3, 1, 0)}) e L(B) = L ({(1, −3, 1) , (0, 0, 7)}) .
C(C) = L ({(−1, 2, −2)}) , N (C) = L ({(2, 1)}) e L(C) = L ({(−1, 2)}) .
C(D) = L ({(2, 0) , (0, −1)}) , N (D) = {(0, 0)} e L(D) = L ({(2, 0) , (0, −1)}) .
(ix) Seja U = {A ∈ M3×2 (R) : a12 = a21 = a32 = 0 e
A ∈ U,


 

−2a31 0
−2
a11 a12





0
a22 = a31
0
A = a21 a22 =
a31
0
1
a31 a32
a11 + 2a31 = 0}. Tem-se, para



0
0 0
0  + a22  0 1  ,
0
0 0
com a31 , a22 ∈ R. Logo,

 

0 0 
 −2 0
U = L  0 0 , 0 1  .


1 0
0 0
(x) Seja U = {p(t) = a0 + a1 t + a2 t2 ∈ P2 : p(1) = p(0)}. Tem-se, para p(t) ∈ U ,
p(1) = p(0) ⇐⇒ a0 + a1 + a2 = a0 ⇐⇒ a1 + a2 = 0 ⇐⇒ a1 = −a2 .
Logo,
p(t) = a0 − a2 t + a2 t2 = a0 1 + a2 −t + t2 ,
com a0 , a2 ∈ R. Assim,
U =L
1, −t + t2
.
Teorema 3.15 Se U e V são subespaços do espaço linear W , então:
(i) O conjunto U ∩ V é um subespaço linear de W .
(ii) O conjunto U + V = {u + v : u ∈ U e v ∈ V } é um subespaço de W . É o menor
subespaço de W que contém U ∪ V . O conjunto U ∪ V em geral não é um subespaço. Tem-se
U + V = L(U ∪ V ).
Se U ∩ V = {0} então dizemos que U e V estão em soma directa e escrevemos U ⊕ V
para designar U + V .
31
Exemplo 3.16 (i) Em R3 , considere os subespaços:
U = {(x, y, z) ∈ R3 : x + y − 2z = 0} e V = L ({(1, 1, −1), (1, 2, 1)}) .
Seja v ∈ V , então
v = α(1, 1, −1) + β(1, 2, 1) = (α + β, α + 2β, −α + β),
com α, β ∈ R. Para que v esteja também em U é preciso que:
(α + β) + (α + 2β) − 2 (−α + β) = 0.
A última equação é equivalente a 4α + β = 0 ⇐⇒ β = −4α. Logo,
U ∩ V = {(−3α, −7α, −5α) : α ∈ R} = {α(−3, −7, −5) : α ∈ R} = L ({(3, 7, 5)}) .
(ii) Em R3 , considere os subespaços:
U = L ({(1, −1, 1), (1, 2, 2)})
e V = L ({(2, 1, 1), (−1, 1, 3)}) .
Seja v ∈ U , então
v = α(1, −1, 1) + β(1, 2, 2) = (α + β, −α + 2β, α + 2β),
com α, β ∈ R. Para que v esteja também em V é preciso que:
(α + β, −α + 2β, α + 2β) = λ(2, 1, 1) + µ(−1, 1, 3) =
= (2λ − µ, λ + µ, λ + 3µ) ,
com λ, µ ∈ R. Deste modo,

α + β = 2λ − µ





−α + 2β = λ + µ





α + 2β = λ + 3µ.
Considerando a matriz aumentada tem-se






1 1 | 2λ − µ
1 1 | 2λ − µ
1 1 | 2λ − µ
 0 3 |

 −1 2 | λ + µ 
 0 3 |

3λ
3λ
−→
−→
L1 +L2 →L2
− 31 L2 +L3 →L3
0 0 | −2λ + 4µ
1 2 | λ + 3µ −L1 +L3 →L3 0 1 | −λ + 4µ
Logo,


α
+
β
=
2λ
−
µ
α=µ










β=λ
β = 2µ
⇐⇒










0 = −2λ + 4µ.
λ = 2µ.
Assim,
α(1, −1, 1) + β(1, 2, 2) = µ(1, −1, 1) + 2µ(1, 2, 2) = (3µ, 3µ, 5µ) = µ(3, 3, 5).
Logo,
U ∩ V = {(3µ, 3µ, 5µ) : µ ∈ R} ={µ(3, 3, 5) : µ ∈ R} = L ({(3, 3, 5)}) .
32
Observação 3.17 Neste exemplo (ii), os subespaços U e V poderiam ter sido apresentados
inicialmente na forma:
U = {(x, y, z) ∈ R3 : 4x + y − 3z = 0} e V = {(x, y, z) ∈ R3 : 2x − 7y + 3z = 0},
uma vez que
U = {(x, y, z) ∈ R3 : 4x + y − 3z = 0} = L ({(1, −4, 0), (0, 3, 1)}) = L ({(1, −1, 1), (1, 2, 2)})
e
V = {(x, y, z) ∈ R3 : 2x−7y+3z = 0} = L ({(7, 2, 0), (−3, 0, 2)}) = L ({(2, 1, 1), (−1, 1, 3)}) .
(iii) Sejam W = Mn×n (R), U o subespaço (de W ) das matrizes triangulares superiores,
V o subespaço (de W ) das matrizes triangulares inferiores. Então
U +V =W
e
U ∩ V = subespaço das matrizes diagonais.
(iv) Sejam W = R2 , U = L({(1, 0)}) e V = L({(0, 1)}). O conjunto
U ∪ V = {(x, y) ∈ R2 : x = 0 ∨ y = 0}
não é um espaço linear:
/ U ∪V
(1, 0) + (0, 1) = (1, 1) ∈
| {z } | {z }
∈U
∈V
Teorema 3.18 Se U e V subespaços do espaço linear W , então U ∪ V é subespaço de W
se e só se U ⊂ V ou V ⊂ U .
Teorema 3.19 Sejam W1 e W2 subespaços de um espaço linear V tais que
W1 ∩ W2 = {0}.
Se V = W1 + W2 então todo o vector v ∈ V pode ser escrito de modo único na forma
v = w1 + w2
com w1 ∈ W1 e w2 ∈ W2 . Neste caso escreve-se V = W1 ⊕ W2 e diz-se que V é a soma
directa dos espaços W1 e W2 .
Teorema 3.20 O espaço das linhas L(A) e o núcleo N (A) de uma matriz A ∈ Mm×n (R)
mantêm-se invariantes por aplicação do método de eliminação de Gauss. Isto é, sendo A0 a
matriz em escada que se obtem de A por aplicação desse método, tem-se
L(A) = L(A0 ) e N (A) = N (A0 ).
Observação 3.21 Seja A ∈ Mm×n (R). Se A0 fôr a matriz em escada que se obtém de A
por aplicação do método de eliminação de Gauss, tem-se
C(A) 6= C(A0 ).
Teorema 3.22 Seja A ∈ Mm×n (R). Tem-se
C(A) = L(AT ) e L(A) ∩ N (A) = {0}.
33
3.2
Independência linear
Definição 3.23 Seja V um espaço linear. Seja S = {v1 , v2 , ..., vk } ⊂ V . Diz-se que o
conjunto S é linearmente dependente se e só se algum dos vectores de S se escrever como
combinação linear dos restantes, isto é, se e só se existir algum i ∈ {1, 2, ..., k} e escalares
λ1 , λ2 , ..., λi−1 , λi+1 , ..., λk ∈ R tais que
vi = λ1 v1 + λ2 v2 + ... + λi−1 vi−1 + λi+1 vi+1 + ... + λk vk .
Definição 3.24 Seja V um espaço linear. Seja S = {v1 , v2 , ..., vk } ⊂ V . Diz-se que o
conjunto S é linearmente independente se e só se nenhum dos vectores de S se puder
escrever como combinação linear dos restantes, isto é, se e só a única solução do sistema
homogéneo
λ1 v1 + λ2 v2 + ... + λk vk = 0
fôr a solução trivial, ou seja, λ1 = λ2 = ... = λk = 0.
Se V = Rn , sendo A a matriz cujas colunas sã os vectores de S, entaão S é linearmente
independente se e só se N (A) = {0} se e só se car(A) = k.
Teorema 3.25 Seja A0 uma matriz em escada de linhas.
(i) As colunas de A0 que contêm pivôs são linearmente independentes.
(ii) As linhas não nulas de A0 são linearmente independentes.
(iii) O no de linhas independentes e o no de colunas independentes (de A0 ) são ambos
iguais à caracterı́stica de A0 .
Observação 3.26 (i) Assim, atendendo ao teorema anterior, a independência linear de
S = {v1 , v2 , ..., vk } ⊂ Rn pode ser decidida aplicando o método de eliminação à matriz A
cujas colunas são os vectores de S, de modo a colocá-la em escada de linhas. Sendo A0 essa
matriz em escada, tem-se pelo teorema 3.20
N (A) = N (A0 ) (*).
Uma vez que as colunas de A0 que contêm pivôs são linearmente independentes então, devido
a (*), as colunas de A nas posições correspondentes também serão linearmente independentes.
(ii) Em R, quaisquer dois vectores são linearmente dependentes.
(iii) Em R2 , dois vectores são linearmente independentes se não forem colineares.
(iv) Em R3 , três vectores são linearmente independentes se não forem coplanares.
(v) Qualquer conjunto que contenha o vector nulo (elemento neutro) é linearmente dependente. Em particular, o conjunto {0}, formado apenas pelo vector nulo, é linearmente
dependente.
(vi) O conjunto vazio ∅ é linearmente independente.
34
Teorema 3.27 Sejam S1 e S2 dois subconjuntos finitos de um espaço linear, tais que S1 ⊂
S2 .
(i) Se S1 é linearmente dependente então S2 também é linearmente dependente.
(ii) Se S2 é linearmente independente então S1 também é linearmente independente.
Observação 3.28 Sejam S1 e S2 dois subconjuntos finitos de um espaço linear, tais que
S1 ⊂ S2 .
(i) Se S2 fôr linearmente dependente então S1 tanto pode ser linearmente dependente
como linearmente independente.
(ii) Se S1 fôr linearmente independente então S2 tanto pode ser linearmente dependente
como linearmente independente.
Exemplo 3.29 Seja S = {(1, 0, 2), (2, 0, 4), (0, 1, 2)}. Tem-se






1 2 0
1 2 0
1 2 0
 0 0 1 
 0 0 1  = A0 .
A= 0 0 1 
−→
−→
−2L1 +L3 →L3
−2L2 +L3 →L3
2 4 2
0 0 2
0 0 0
Logo, como apenas existem dois pivôs e portanto uma variável livre, as três colunas de A
são linearmente dependentes, isto é, o conjunto S é linearmente dependente. O subconjunto
de S:
{(1, 0, 2), (2, 0, 4)}
também é linearmente dependente. No entanto, uma vez que a 1a e 3a colunas de A são
independentes pois correspondem às colunas da matriz em escada A0 que contêm os pivôs, o
subconjunto de S:
{(1, 0, 2), (0, 1, 2)}
é linearmente independente.
3.3
Bases e dimensão de Espaços Lineares
Definição 3.30 Chama-se base de um espaço linear V a qualquer subconjunto S de V que
verifique as duas condições:
(i) S gera V , isto é, L(S) = V .
(ii) S é linearmente independente.
O seguinte resuldado foi provado por George Hamel10 .
Teorema 3.31 Qualquer espaço linear V 6= {0} tem pelo menos uma base.11
10
George Hamel 1877—1954
A prova deste teorema é dificı́l e nela intervêm de maneira crucial o facto de os escalares envolvidos
serem R ou C, isto é, os escalares têm que ser um corpo, portanto têm que conter fracções (o que não sucede
com os naturais ou inteiros).
11
35
Observação 3.32 Qualquer espaço linear V 6= {0} tem um no infinito de bases. Por exemplo, se S = {u1 , ..., uk } fôr uma base de V então para cada α 6= 0 o conjunto {αu1 , ..., αuk }
é também uma base de V .
Teorema 3.33 Todas as bases de um espaço linear V 6= {0} têm o mesmo no de vectores.
Prova:
• Suponhamos que n < m e cheguemos a uma contradição.
Como u1 , ..., um ∈ V e {v1 , ..., vn } é uma base de V , existem escalares aij :

u1 = a11 v1 + a12 v2 + ... + a1n vn
..
.


A=

,
um = am1 v1 + am2 v2 + ... + amn vn
a11
a21
..
.
a12
a22
..
.
am1 am2
···
···
···
···
a1n
a2n
..
.



 ∈ Mm×n

amn
O sistema homogéneo AT x = 0 é indeterminado porque n < m.
Seja (α1 , ...., αm ) uma solução não nula desse sistema:


a11 α1 + a21 α2 + ... + am1 αm = 0


 a12 α1 + a22 α2 + ... + am2 αn = 0
.
..

.


 a α + a α + ... + a α = 0
1n
1
2n
2
mn
m
Tem-se:
α1 u1 + α2 u2 + · · · + αm um =
= α1 (a11 v1 + a12 v2 + · · · + a1n vn ) + · · · + αm (am1 v1 + am2 v2 + · · · + amn vn ) =
(a11 α1 + a21 α2 + · · · + am1 αm )v1 + · · · + (a1n α1 + a2n α2 + ... + amn αm )vn =
= 0v1 + · · · + 0vn = 0,
isto é, os vectores u1 , ..., um são linearmente dependentes,
o que contradiz a hipótese de {u1 , ..., um } ser uma base!!
• O caso m < n é análogo ao caso n < m.
Conclusão: n = m
Consequência: a caracterı́stica de uma matriz A fica bem definida:
car(A) = dim L(A) .
Definição 3.34 Chama-se dimensão de um espaço linear V 6= {0} ao no de vectores de
uma base qualquer de V , e escreve-se dim V . Se V = {0} então dim V = 0 uma vez que
o conjunto vazio ∅ é base de {0}. Um espaço linear terá dimensão finita se uma sua base
tiver um no finito de vectores.
Exemplo 3.35 (i) O conjunto {1} é uma base de R, chamada base canónica ou natural de
R. Logo,
dim R = 1.
36
(ii) O conjunto {(1, 0), (0, 1)} é uma base de R2 , chamada base canónica ou natural de
R2 . Logo,
dim R2 = 2.
(iii) O conjunto {(1, 0, 0), (0, 1, 0), (0, 0, 1)} é uma base de R3 , chamada base canónica
ou natural de R3 . Logo,
dim R3 = 3.
(iv) O conjunto
1 0 0
0 1 0
0 0 1
0 0 0
0 0 0
0 0 0
,
,
,
,
,
0 0 0
0 0 0
0 0 0
1 0 0
0 1 0
0 0 1
é uma base de M2×3 (R), chamada base canónica ou natural de M2×3 (R). Logo,
dim M2×3 (R) = 6.
(v) Tem-se
dim Rn = n e dim Mm×n (R) = mn.
(vi) O conjunto {1, t, t2 , ..., tn } é uma base de Pn (espaço linear de todos os polinómios
reais de grau menor ou igual a n, incluindo o polinómio nulo), chamada base canónica ou
natural de Pn . Logo,
dim Pn = n + 1.
(vii) O conjunto {1, t, t2 , ...} é uma base de P (espaço linear de todos os polinómios
reais), chamada base canónica ou natural de P. Logo,
dim P = ∞.
Exemplo 3.36 O conjunto dos números complexos E = C é um espaço linear tanto sobre
R como sobre C. Mais, dimC (E) = 1 e {1} é uma base; dimR (E) = 2 e {1, i} é uma base.
Observação 3.37 Chama-se nulidade à dimensão do núcleo ou espaço nulo de uma matriz
A e escreve-se nul A.
Teorema 3.38 Seja A uma matriz do tipo m × n.
(i) Tem-se
car(A) = car(AT ),
dim C(A) = dim L(A) = car A.
(ii) Tem-se
car A + nul A = n.
37
Vamos provar que car(A)=car(AT ).
Podemos transformar a matriz A numa matriz em escada de linhas U . Seja k = car(A),
R1 , ...Rk as linhas não nulas de U e L1 , ..., Lm as linhas de A. Como L(A) = L(U ), existem
escalares cij tais que
L1 = c11 R1 + ... + c1k Rk ,
..., Lm = cm1 R1 + ... + cmk Rk .
Para i = 1, ..., m, sejam aij e rij as componentes j das linhas Li e Ri respectivamente. Assim
tem-se,
a1j = c11 r1j + ... + c1k rkj , ..., amj = cm1 r1j + ... + cmk rkj ,
ou matricialmente






a1j
c11
c1k
 .. 
 . 
 . 
 .  = r1j  ..  + ... + rkj  ..  .
amj
cmk
cmk


a1j


Como  ...  é a coluna j de A, a última igualdade prova que dimC(A) ≤ dimL(A), uma
amj
vez que cada vector coluna de A é combinação linear de k vectores e dimL(A)=dimL(U ) = k.
Aplicando esta desigualdade à matriz AT obtém-se dimC(AT ) ≤ dimL(AT ), i.e. dimL(A) ≤
dimC(A). Portanto dimC(A) = dimL(A).
Teorema 3.39 (Teorema de Steinitz) Sejam v1 , ..., vk um conjunto de vectores linearmente independentes num espaço linear V de dimensão finita. Então existe uma base de V
que inclui os vectores v1 , ..., vk .
Para vectores em Rn , considere u1 , ..., up uma base para V e seja A a matriz cujas colunas
são formadas pelos vectores v1 , ...., vk , u1 , .., up (escritos por esta ordem e em coluna). Então
V = C(A) e uma base para C(A) inclui os vectores v1 , ..., vk pois as colunas na matriz
final em escada de linhas tem pivôs nas primeiras k colunas (pois v1 , ..., vk são linearmente
independentes).
Teorema 3.40 Sejam W1 e W2 dois subespaços de dimensão finita de um espaço linear V .
Então,
dim (W1 + W2 ) = dim W1 + dim W2 − dim (W1 ∩ W2 ) .
(4)
Para subespaços de Rn podemos considerar uma base {u1 , ..., up } de W1 ∩W2 . Em seguida
completamos esta base e assim obter {u1 , ..., up , v1 , ...vk } base W1 e {u1 , ..., up , w1 , ...wr } base
de W2 . Considerando a matriz cujas colunas são os vectores u1 , ..., up v1 , ...vk , w1 , ...wr e
aplicando o Teorema 3.38 temos a equação (4).
Teorema 3.41 Sejam V um espaço linear de dimensão finita e W um subespaço de V .
(i) Seja S = {u1 , ..., uk } ⊂ V . Se S é linearmente independente então S será um subconjunto de uma base de V e ter-se-á dim V ≥ k.
(ii) Se dim V = n, então quaisquer m vectores de V , com m > n, são linearmente
dependentes.
38
(iii) Se dim V = n, então nenhum conjunto com m vectores de V , em que m < n, pode
gerar V .
(iv) O subespaço W tem dimensão finita e dim W ≤ dim V .
(v) Se dim W = dim V , então W = V .
(vi) Se dim V = n, então quaisquer n vectores de V linearmente independentes constituem uma base de V .
(vii) Se dim V = n, então quaisquer n vectores geradores de V constituem uma base de
V.
Observação 3.42 O no de elementos de uma base de um espaço linear é igual ao no mı́nimo
de vectores possam constituir um conjunto gerador desse espaço e é também igual ao no
máximo de vectores que possam constituir um conjunto linearmente independente nesse
espaço.
Exemplo 3.43 Seja A ∈ Mm×n (R). Como L(A) e N (A) são subespaços de Rn então
L(A) + N (A) = L (L(A) ∪ N (A))
é também um subepaço de Rn . Por outro lado, atendendo a que
L(A) ∩ N (A) = {0}
(teorema 3.22), tem-se
dim (L(A) ∩ N (A)) = 0.
Assim,
dim (L(A) + N (A)) = dim L(A) + dim N (A) − dim (L(A) ∩ N (A)) =
= car A + nul A − 0 =
= n.
Logo, pelo teorema 3.41 (v), tem-se
Rn = L(A) ⊕ N (A),
isto é Rn = L(A) + N (A) e L(A) ∩ N (A) = {0}.
Exemplo 3.44 (i) Os seguintes conjuntos são todos os subespaços de R:
{0} e R.
(ii) Os seguintes conjuntos são todos os subespaços de R2 :
{(0, 0)} , todas as rectas que contêm a origem e R2 .
(iii) Os seguintes conjuntos são todos os subespaços de R3 :
{(0, 0, 0)} , todas as rectas que contêm a origem, todos os planos que contêm a origem e R3 .
39
Observação 3.45 O método de eliminação de Gauss permite determinar a dimensão e uma
base quer para o espaço das linhas L(A) quer para o espaço das colunas C(A) de uma matriz
A. Seja A0 a matriz em escada que se obtém de A por aplicação do método de eliminação
de Gauss. Então,
(i) Uma base para L(A) será formada pelas linhas não nulas de A0 .
(ii) Uma base para C(A) será formada pelas colunas de A que correspondem às posições
das colunas de A0 que contêm os pivôs.
A parte (ii) carece de uma prova: considere uma sequência de operações elementares que
transforma a matriz numa matriz em escada de linhas U :
A → ··· → U
(∗)
Seja k=car(A). Claro que dim(C(A)) = k e portanto k vectores linearmente independentes
em C(A) formam uma base de C(A).
Seja A0 a matriz que se obtém de A removendo as colunas de A que correspondem às
colunas de U sem pivô. (Analogamente, podemos definir a matriz U 0 ). Assim, A0 e U 0 são
matrizes m × k. Além disso, podemos usar a mesma sequência de operações de (*) e concluir
que A0 → U 0 e car(A0 ) = k, isto é, o conjunto de todas as k colunas de A0 é linearmente
independente.
Exemplo 3.46 Seja


2
1 1 1
2 3 3 .
A= 4
−6 −3 1 1
Tem-se






2
1 1 1
2 1 1 1
2 1 1 1
 0 0 1 1 
 0 0 1 1  = A0 .
2 3 3 
A= 4
−→
−→
−2L1 +L2 →L2
−4L2 +L3 →L3
−6 −3 1 1
0 0 4 4
0 0 0 0
3L1 +L3 →L3
Logo, {(2, 1, 1, 1), (0, 0, 1, 1)} é uma base de L(A) e {(2, 4, −6), (1, 3, 1)} é uma base de C(A).
Assim,
dim L(A) = 2 = dim C(A)
e
L(A) = L ({(2, 1, 1, 1), (0, 0, 1, 1)}) , C(A) = L ({(2, 4, −6), (1, 3, 1)}) .
Por outro lado,




 
x
 y  
 
N (A0 ) =
(x, y, z, w) ∈ R4 : A0 
 z =



w
= {(x, −2x, −w, w) : x, w ∈ R} =
= L{(1, −2, 0, 0), (0, 0, −1, 1)}.


0 


0 
 =
0 


0
Como o conjunto {(1, −2, 0, 0), (0, 0, −1, 1)} é linearmente independente e gera N (A0 ) então
é uma base de N (A0 ). Finalmente, uma vez que N (A) = N (A0 ), o conjunto
{(1, −2, 0, 0), (0, 0, −1, 1)}
40
é uma base de N (A) e portanto dim N (A) = 2, com
N (A) = L{(1, −2, 0, 0), (0, 0, −1, 1)}.
Exemplo 3.47 Seja S = {1, 2, −1), (2, 1, 1), (−1, −2, 1), (0, 1, 0)} ⊂ R3 . Determinemos uma
base para L(S).
Considere a seguinte matriz cujas colunas

1 2
 2 1
−1 1
são os vectores de S:

−1 0
−2 1  .
1 0
Tem-se






1 2 −1 0
1 2 −1 0
1 2 −1 0
 2 1 −2 1 
 0 −3 0 1  −→  0 −3 0 1  .
−→
−2L1 +L2 →L2
L2 +L3 →L3
−1 1 1 0
0 3
0 0
0 0
0 1
L1 +L3 →L3
Logo, S 0 = {1, 2, −1), (2, 1, 1), (0, 1, 0)} é uma base de L(S). Como dim R3 = 3, então tem-se
mesmo: L(S) = R3 e S 0 é uma base de R3 .
Resolução alternativa: Considere a seguinte matriz cujas linhas são os vectores de S:


1
2 −1
 2
1
1 


 −1 −2 1  .
0
1
0
Tem-se


1
2 −1
 2
1
1 


 −1 −2 1  −2L1−→
+L2 →L2
L1 +L3 →L3
0
1
0





1 2 −1
1 2 −1
 0 −3 3 



 −→  0 −3 3 
 0 0
0  L3 ↔L4  0 1
0 
0 1
0
0 0
0
−→
1
L +L3 →L3
3 2

1 2 −1
 0 −3 3 

.
 0 0
1 
0 0
0
Logo, S 0 = {1, 2, −1), (0, −3, 3), (0, 0, 1)} é uma base de L(S). Como dim R3 = 3, então
tem-se mesmo: L(S) = R3 e S 0 é uma base de R3 .
Exemplo 3.48 Seja Sa,b = {1, 0, 1), (0, 1, a), (1, 1, b), (1, 1, 1)} ⊂ R3 . Determinemos os valores dos parâmetros a e b para os quais Sa,b não gere R3 .
Considere a seguinte matriz cujas colunas são os vectores de S:


1 0 1 1
 0 1 1 1 .
1 a b 1
Tem-se






1 0 1 1
1 0
1
1
1 0
1
1
 0 1 1 1 
 0 1
 0 1
1
1 
1
1 .
−→
−→
−L1 +L3 →L3
−aL2 +L3 →L3
1 a b 1
0 a b−1 0
0 0 b − a − 1 −a
Logo, Sa,b não gera R3 se e só se b − a − 1 = 0 e −a = 0, isto é, se e só se a = 0 e b = 1.
41
Teorema 3.49 (i) Seja A ∈ Mm×n (R). As colunas de A geram Rm se e só se car A = m.
(ii) Seja A ∈ Mm×n (R). As colunas de A são linearmente independentes se e só se
car A = n.
(iii) Seja A ∈ Mn×n (R). A matriz A é invertı́vel se e só se as colunas de A (ou as linhas
de A) formarem uma base de Rn . No caso de A ser invertı́vel tem-se
C(A) = L(A) = Rn .
Observação 3.50 Seja A ∈ Mm×n (R) e considere o sistema de equações lineares Au = b.
(i) O sistema Au = b é impossı́vel (não tem solução) se e só se b ∈
/ C(A), isto é, se e só
se car A < car [A | b].
(ii) O sistema Au = b é possı́vel e indeterminado (tem um no infinito de soluções) se
e só se b ∈ C(A) e as colunas de A forem linearmente dependentes, isto é, se e só se car A =
car [A | b] < n, isto é, se e só se car A = car [A | b] e nul A 6= 0.
(iii) O sistema Au = b é possı́vel e determinado (tem uma única solução) se e só
se b ∈ C(A) e as colunas de A forem linearmente independentes, isto é, se e só se car A =
car [A | b] = n, isto é, se e só se car A = car [A | b] e nul A = 0.
Observação 3.51 Seja A ∈ Mm×n (R) e considere o sistema de equações lineares Au = b.
(i) Existência de solução: Se m ≤ n então o sistema Au = b tem pelo menos uma
solução u para cada b ∈ Rm se e só se car A = m.
(ii) Unicidade de solução: Se m ≥ n então o sistema Au = b tem no máximo uma
solução u para cada b ∈ Rm se e só se car A = n, isto é, se e só se nul A = 0.
(iii) Existência e unicidade de solução: Se m = n então o sistema Au = b tem
solução única u para cada b ∈ Rm se e só se A fôr invertı́vel.
Teorema 3.52 Seja A ∈ Mn×n (R). As seguintes afirmações são equivalentes.
(i) A é não singular.
(ii) A é invertı́vel.
(iii) N (A) = {0}.
(iv) nul A = 0.
(v) Au = 0 tem apenas a solução trivial u = 0.
(vi) Au = b tem solução única u para cada b ∈ Rn .
(vii) A caracterı́stica de A é máxima, isto é, car A = n.
(viii) As colunas de A geram Rn .
(ix) As colunas de A são independentes.
(x) As linhas de A geram Rn .
(xi) As linhas de A são independentes.
42
3.4
Coordenadas de um vector numa base
Definição 3.53 Seja S = {v1 , v2 , ..., vk } uma base ordenada de um espaço linear V e seja u
um vector de V . Chamam-se coordenadas do vector u na base ordenada S aos escalares
λ1 , λ2 , ..., λk da combinação linear:
u = λ1 v1 + λ2 v2 + ... + λk vk .
Designamos por uS as coordenadas de u na base S, i.e. uS = (λ1 , · · · , λk ).
Teorema 3.54 Seja V um espaço linear.
(i) Um conjunto S de vectores não nulos de V é uma base de V se e só se todo o vector
de V puder ser escrito de modo único como combinação linear dos vectores de S.
(ii) Se dim V = n, então dados u, w ∈ V e S = {v1 , v2 , . . . , vn } uma base ordenada de
V , tem-se u = w se e só se as coordenadas de u e de w na base S forem iguais.
Exemplo 3.55 (i) Sejam S1 = {e1 , e2 } e S2 = {v1 , v2 } duas bases de R2 , onde e1 =
(1, 0), e2 = (0, 1), v1 = (1, 1) e v2 = (1, −1). Seja ainda u = (11, 3).
Então uS1 = (11, 3) enquanto uS2 = (7, 4).
(ii) Seja V o subespaço de R3 gerado pelos vectores v1 = (1, 1, 1) e v2 = (1, 0, 1). Claro
que B = {v1 , v2 } é uma base de F , uma vez que os vectores v1 , v2 são linearmente independentes. Sendo u = (3, 1, 3) ∈ F , então as coordenadas uB de u na base B são uB = (1, 2),
uma vez que λ1 = 1, λ2 = 2 é a única solução de u = λ1 v1 + λ2 v2 .
(iii) Considerando a mesma base B de ii), sabendo que as coordenadas de um vector u
na base B são uB = (2, 1), então o vector u = 2v1 + 1v2 = (3, 2, 3).
3.5
Matriz mudança de base
Teorema 3.56 Seja V um espaço linear de dimensão n. Sejam S1 = {v1 , v2 , . . . , vn } e
S2 = {w1 , w2 , . . . , wn } duas bases ordenadas de V . Seja SS1 →S2 a matriz cujas colunas são
as coordenadas dos vectores de S1 em relação à base S2 . Isto é,
SS1 →S2 = (sij )n×n
com vj =
n
X
sij wi
para todo o j = 1, ..., n.
i=1
A matriz SS1 →S2 é invertı́vel e chama-se matriz de mudança de base (da base S1 para
S2 ). Assim, se tivermos
n
X
u=
λi vi ,
i=1
isto é, se (λ1 , ..., λn ) forem as coordenadas do vector u na base S1 então as coordenadas
(µ1 , ..., µn ) de u na base S2 são dadas por




µ1
λ1
 .. 
 . 
 .  = SS1 →S2  ..  .
µn
λn
43
Dem. Tem-se
u=
n
X
µi w i =
i=1
n
X
λj vj =
j=1
n
X
λj
n
X
j=1
sij wi =
i=1
n
n
X
X
i=1
!
sij λj
wi .
j=1
Atendendo ao teorema 3.54 (i), as coordenadas de um vector u numa base são únicas. Logo,
!
n
X
µi =
sij λj ,
j=1
para todo o i = 1, ..., n. Isto é,


µ1

 .. 
 .  = SS1 →S2 
µn


λ1
..  .
. 
λn
Observação 3.57 Tem-se
SS2 →S1 = (SS1 →S2 )−1 .
Exemplo 3.58 Seja Bc = {(1, 0), (0, 1)} a base canónica de R2 . Seja B = {(1, 2), (2, 1)} uma
outra base ordenada de R2 . Sejam (2, 3) as coordenadas de um vector u na base canónica Bc
e determinemos as coordenadas de u na base B usando a matriz de mudança de base SBc →B .
Tem-se
−1/3 2/3
SBc →B =
,
2/3 −1/3
uma vez que
2
2
1
1
(1, 0) = − (1, 2) + (2, 1) e (0, 1) = (1, 2) − (2, 1).
3
3
3
3
Logo, as coordenadas de u na base B são dadas por
2
−1/3 2/3
2
4/3
SBc →B
=
=
.
3
2/3 −1/3
3
1/3
Logo, (4/3, 1/3) são as coordenadas de (2, 3) na base ordenada B, isto é
1
4
(2, 3) = (1, 2) + (2, 1).
3
3
3.6
Exercı́cios
Subespaços lineares
E3.1 Diga, justificando, quais dos seguintes conjuntos são espaços lineares (considere as
operações usuais de adição de vectores e multiplicação por escalares):
(a) {(0, 0)},
(b) {(x, y) ∈ R2 : x − 2y = 0},
(c) {(x, y) ∈ R2 : x + y = π},
(d) {(x, y) ∈ R2 : ax + by = k}.
(e) {(x, y) : x ∈ N0 , y ∈ R},
(f) {(x, y) ∈ R2 : x2 + y 2 ≤ π},
(g) {(x, y) ∈ R2 : y ≥ 0},
(h) {(x, y) ∈ R2 : xy ≥ 0}.
44
E3.2 Considere o espaço linear V = R3 com as operações usuais. Diga, justificando, quais
dos seguintes subconjuntos de R3 são subespaços lineares de V :
(a) {(x, y, z) ∈ R3 : z = 1},
(b) {(x, y, z) ∈ R3 : xy = 0},
(c) {(x, y, z) ∈ R3 : x + y + 2z = 0, x − y = 0},
(d) {(x, y, z) ∈ R3 : x + y + z = 0, −x + y + 3z = 0}.
E3.3 Considere o conjunto F = {(x, y, z, w) ∈ R4 : x+y+z+w = 0, x−z+w = 0, x−w = 0}.
(a) Quais os vectores u1 , u2 e u3 pertencem a F , onde u1 = (0, 0, 0, 0), u2 = (1, −4, 2, 1) e
u3 = (1, 4, 2, 1),
(b) Prove que F é um subespaço de R4 .

E3.4 (a) Seja A uma matriz real n×m. Prove que V = {(x1 , · · · , xm ) ∈ Rm : A
x1
x2
..
.
xm


=
0
0
..
.
0
é um subespaço linear de Rm .
(b) Use (a) para resolver o Problema 3.3 (b).
E3.5 Sejam A, B ∈ M2×2 (R).
(a) Prove que N (B) ⊆ N (AB).
(b) Se A fôr invertı́vel, então prove que N (B) = N (AB).
E3.6 Considere V o espaço linear das funções reais de variável real t. Diga, justificando,
quais dos seguintes subconjuntos de V são subespaços lineares de V :
(a) {f ∈ V : f (t) = f (−t)},
(b) {f ∈ V : f contı́nua},
(c) {f :∈ V : f diferenciável e f 0 (t) = f (t)} onde f 0 designa a derivada de f ,
(d) {f ∈ V : f é 3 vezes diferenciável e f 000 (t) − f 00 (t) + πf 0 (t) = 0, ∀t}
(e) {p ∈ V : p polinómino},
P
(f) Pn := {p(t) = ni=1 αi ti : grau de p ≤ n} onde n é fixo,
(g) {p ∈ Pn : grau p = n},
(h) {p ∈ Pn : grau de p ≤ n e p(1) = 0}.
E3.7 Considere V = Mn×n (R) os espaço linear das matrizes n × n. Diga, justificando, quais
dos seguintes subconjuntos de V são subespaços lineares de V :
(a) {matrizes triagulares superiores},
(b) {X ∈ V : X é invertı́vel},
(c) {X ∈ V : T r(X) = 0},
(d) {X ∈ V : X T = X} onde X T designa a transposta
da matriz X,
0 1
(e) {X ∈ M2×2 (R) : AX = XA}, onde A =
.
−1 0
Vectores geradores. Independência linear
E3.8 Considere em R2 o conjunto de vectores S = {(1, 1), (−1, −1)}.
(a) Mostre que o vector (3, 3) é combinação linear de vectores de S.
(b) Mostre que o vector (0, 1) não é combinação linear de vectores de S.
45

}
E3.9 No espaço linear R3 considere os vectores v1 = (1, 2, 1), v2 = (1, 0, 2) e v3 = (1, 1, 0).
Mostre que os seguintes vectores são combinações lineares de v1 , v2 e v3 :
(a) v = (3, 3, 3)
(b) v = (2, 1, 5)
(c) v = (−1, 2, 0).
E3.10 Determine o valor de k para o qual o vector v = (1, −2, k) ∈ R3 é combinação linear
dos vectores v1 = (3, 0, −2) e v2 = (2, −1, −5).
E3.11 Decida quais dos seguintes conjuntos geram R3 :
(a) {(1, 1, 1), (1, 0, 1)}.
(b) {(1, 1, 1), (1, 0, 1), (0, 0, 1)}.
(c) {(1, 1, 1), (1, 0, 1), (0, 0, 1), (2, 1, 3)}.
E3.12 Considere, no espaço linear P2 dos polinómios de grau menor ou igual a 2, os vectores
p1 (t) = 2 + t + 2t2 , p2 (t) = −2t + t2 , p3 (t) = 2 − 5t + 5t2 e p4 (t) = −2 − 3t − t2 . O vector
p(t) = 2 + t + t2 pertence à expansão linear L({p1 , p2 , p3 , p4 })? Verifique se p1 , p2 , p3 e p4
geram P2 ?
1 1
0 −1
0 0
0 0
E3.13 Considere A1 =
, A2 =
, A3 =
e A4 =
no
1 1
1 1
1 1
0 1
espaço
linearV = M2×2 (R). Prove que S = {A1 , A2 , A3 , A4 } gera V , i.e. L(S) = V . Escreva
1 0
A=
como combinação linear de matrizes de S.
3 4
E3.14 Quais dos seguintes conjuntos de vectores são linearmente independentes:
Em R2 :
a) {(0, 0)}, (b) {(1, 1)}, (c) {(1, 1), (2, 2)}, (d) {(1, 1), (1, 2)},
Em R3 :
(e) {(2, −1, 4), (3, 6, 2), (2, 10, −4)}, (f) {(6, 0, −1), (1, 1, 4)},
(g) {(4, 4, 0, 0), (0, 0, 6, 6), (−5, 0, 5, 5)}.
E3.15 Determine o único valor de a que torna os seguintes vectores linearmente dependentes:
v1 = (1, 0, 0, 2), v2 = (1, 0, 1, 0), v3 = (2, 0, 1, a).
E3.16 Quais dos seguintes conjuntos de vectores são linearente independentes:
Em P3 :
(a) {2 − t, 1 + t}, (b) {1 + t, 1 + t2 , 1 + t + t2 },
(c) {1 + t + t3 , 1 − t − t2 + t3 , t2 },
{1, t, t2 , t3 },
No espaço das funções reais de variável real:
(e) {cos2 (t), sin2 (t), 2}, (f) {t, cos(t)},
Em M2×2 (R):
0 0
1 1
0 −1
0 0
(g) {A1 =
, A2 =
, A3 =
, A4 =
}.
1 1
1 1
1 1
0 1
(d)
E3.17 (a) Seja {v1 , v2 , · · · , vk } um conjunto de vectores linearmente independente de Rn
(com k ≤ n) e A ∈ Mn×n (R) uma matriz invertı́vel. Prove que {Av1 , Av2 , · · · , Avk } também
é um conjunto de vectores linearmente independente (escrevendo os vectores v1 , ..., vk como
vectores-coluna).
(b) Sejam v1 , v2 e v3 vectores linearmente independentes em R3 e sejam w1 = v1 + v2 + v3 ,
w2 = 2v2 + v3 , w3 = −v1 + 3v2 + 3v3 . Prove que w2 , w2 e w3 são vectores linearmente
independentes.
46
Bases e dimensão de espaços lineares
E3.18 Indique uma base e a respectiva dimensão para cada espaço linear:
(a) {(x, y) ∈ R2 : x + y = 0} (b) {(x, y, z) ∈ R3 : x + y = 0}
(c) {(x, y, z) ∈ R3 : x + y + z = 0, x − y = 0} (d) {(x, y, z, w) ∈ R4 : x + y + z = 0, x − y =
0, y + w = 0}.
E3.19 Determine uma base e a dimensão para o subespaço linear U de R3 gerado por
u1 = (1, 2, 1), u2 = (2, 4, 3), u3 = (3, 6, 4), u4 = (−1, −2, −1), i.e. U = L({u1 , u2 , u3 , u4 }).


1 5 9
 2 6 10 

E3.20 Seja A = 
 3 7 11 . Determine a dimensão dos seguintes espaços lineares, indi4 8 12
cando uma base em cada caso:
(a) Núcleo de A
(b) Espaço linhas de A
(c) Espaço colunas de A.
E3.21 Encontre a caracterı́stica, bases para o núcleo, espaço das linhas e das colunas
cada matriz:



1 −3 2 2 1


1 2 −1
 0 3
1 5
6 0 −2
 2 4 3  
1 5 9
1 −4
0 0 0 




,
,
, 2 6 ,
, 2 −3 −2 4 4
2 6 10
3 −12
0 0 0
0 0 −2  
 3 −3 6 6 3
3 7
4 8 12
5 −3 10 10 5
Para cada matriz A verifique que: dim N (A)+ car(A)= número de colunas de A.


1 0 1
E3.22 Seja A =  0 1 1 .
1 −1 0
(a) Determine uma base para N (A).
(b) Determine uma base de R3 que inclua duas colunas de A.
(c) Determine uma base para L (A) ∩ C (A).
de



.


E3.23 Encontre bases e respectivas dimensões para os seguintes espaços lineares:
(a) V = {p ∈ P3 : p(1) = 0};
(b) V = {p
∈ P2 :p(0) = p(1) = 0};
a b
(c) V = {
∈ M2×2 (R) : a + 2b = 0};
c d
(d) {A ∈ M2×2 (R) : A = AT }; 0 −1
0 −1
(e) {A ∈ M2×2 (R) : A
=
A}.
1 1
1 1
E3.24 Sejam V1 = L({(1, 1, 1), (1, 2, 2)}) e V2 = {(x, y, z) ∈ R3 : 3x − y − z = 0}.
(a) Determine uma equação ax + by + cz = 0 tal que V1 = {(x, y, z) ∈ R3 : ax + by + cz = 0}.
(b) Determine dois vectores v1 , v2 tais que V2 = L({v1 , v2 }).
E3.25 Sejam V1 = L({(1, 1, 1), (1, 2, 2)}) e V2 = L({(0, 1, −1), (1, 1, 2)}).
(a) Calcule dim(V1 ∩ V2 ) e dim(V1 + V2 ).
(b) Determine bases para V1 ∩ V2 e para V1 + V2 .
47
E3.26 Determine as dimensões de E ∩ F e E + F :
(a) E = L({(1, 1, −1, −1), (1, 1, 1, 1), (1, 1, 2, 2)}) e F = L({(1, 0, 0, 1), (0, 1, 1, 1), (1, 1, 0, 1)});
(b) E = {(x, y, z, w) ∈ R4 : x + y + z = 0} e F = ({(x, y, z, w) ∈ R4 : x + w = 0, y + w = 0};
(c) E = L({1 + t + t2 , 1 + t2 }) e F = L({3 + 2t + 3t2 }) em P2 .
E3.27 Determine uma base para V1 ∩ V2 , onde
V1 = {p(t) ∈ P2 : p(−1) = 2p(0) − p(1)}
e
V2 = L({−1 + t, 1 − t2 }).
E3.28 Sejam A, B ∈ Mn×m (R). Prove que LA+B ⊆ LA + LB . Será que em geral LA+B =
LA + LB ?
E3.29 Determine uma base para R4 que inclua os vectores (1, −1, −1, 1) e (−1, 0, 0, 1).
E3.30 Considere o seguinte subespaço de R4 : U = {(x, y, z, w) ∈ R4 : x + y + z + w = 0}.
(a) Determine uma base para U .
(b) Determine uma base para U que inclua os vectores (1, −1, −1, 1) e (−1, 0, 0, 1).
E3.31 Seja V = {(x, y, z) ∈ R3 : x − z = 0}. Considere a seguinte lista de afirmações:
I) O conjunto {(1, 0, 1), (0, 2, 0)} é uma base de V .
II) dim(V ) = 2 e {(1, 0, −1), (0, 1, 0)} forma uma base de V .
1 0 1
III) V = N (A) onde A =
.
0 1 0
1 0 −1
IV) V = N (A) onde A =
.
3 0 −3
A lista completa de afirmações correctas é
A) I e III
B) II e III
C) I e IV
D) II e IV
E3.32 Para cada β seja Vβ = {(x, y) ∈ R2 : x − βy = 1 − β 2 ,
a seguinte lista de afirmações:
−βx + y = 1 − β}. Considere
I) O conjunto Vβ é um subespaço linear de R2 para um único valor de β.
II) dim(V1 ) = 1 e {(1, 1)} é uma base de V1 (onde V1 designa Vβ fazendo β = 1).
, a+b
).
III) As coordenadas de v = (a, b) na base ordenada {(1, 1), (1, −1)} são ( a−b
2
2
A lista completa de afirmações correctas é
A) I
B) I e II
C) II e III
D) I e III
48
Coordenadas de um vector numa base
E3.33 (a) Seja Bc = {(1, 0), (0, 1)} e B = {(1, 1), (−1, 0)} duas bases de R2 .
(a) Encontre as coordenadas vBc do vector v = (3, 4) na base Bc, assim como as coordenadas
vB do mesmo vector na base B.
(b) Determine a matriz mudança de base SBc→B da base canónica para a base B.
(c) Use a matriz mudança de base apropriada e determine vB a partir de vBc .
(d) Determine o vector w = (a, b) de tal forma que wB = (1, 1).
E3.34 Considere V = L({v1 , v2 , v3 }) onde v1 = (1, 1, 1, 1), v2 = (0, 1, 1, −1) e v3 = (1, 2, 2, 0).
(a) Encontre uma base para V e indique a respectiva dimensão.
(b) Quais são as coordenadas do vector v = (2, 4, 4, 0) na base ordenada de (a)?
E3.35 Encontre as coordenadas do vector v = (1, 2, −3) numa base do espaço linear E =
{(x, y, z) ∈ R3 : x + y + z = 0} à sua escolha.
E3.36 Seja B = {v1 , v2 } a base do subespaço linear W de R3 , onde v1 = (1, 1, 1) e v2 =
(1, 0, 1). Considere a seguinte lista de afirmações:
I) (1, 2, 1) ∈ W .
II) W = {(x, y, z) : x − z = 0}.
III) As coordenadas vB do vector v = (2, 3, 2) na base B são vB = (2, 1).
IV) Se vB = (3, −1) são as coordenadas de v na base B, então v = (2, 3, 2).
A lista completa de afirmações correctas é
A) I e IV
B) II e III
C) I, II e IV
D) I, III e IV
E3.37 Considere em R2 as bases ordenadas B1 e B2 em que B1 = {(1, −1), (0, 1)}. Seja
1 −1
SB1 →B2 =
0 1
a matriz de mudança da base B1 para a base B2 . Determine as coordenadas do vector (1, 1)
em B2 .
1 1
0 −1
0 0
0 0
E3.38 (a) Prove que A1 =
, A2 =
, A3 =
e A4 =
1 1
1 1
1 1
0 1
constituem uma base para o espaço linear V = M2×2 (R).
(b) Determine a matriz mudança de base S da base canónica de M2×2 (R) para a base
{A1 , A2 , A3 , A4 }.
a b
(c) Encontre as coordenadas de A =
na base canónica de M2×2 (R) e na base
c d
{A1 , A2 , A3 , A4 }.
E3.39 Seja A matriz real 3 × 3 qualquer, não nula, tal que A2 = 0. Prove que car(A) = 1.
49
4
Valores Próprios, Vectores Próprios e diagonalização
de Matrizes
Neste Capı́tulo, discutiremos equaçõs lineares da forma Ax = x e, mais geralmente, equações
da forma Ax = λx, onde λ é um escalar. Estas equações aparecem numa variedade de
aplicações importantes e constituem um tema recorrente ao longo da disciplina.
Definição 4.1 Seja A uma matriz n × n. Chama-se a
p(λ) = det(A − λI),
o polinómio caracterı́stico da matriz A.
Teorema 4.2 (Teorema Fundamental da Álgebra(∗) ). Seja p(λ) um polinómio de grau
n com coeficientes em C. Então p(λ) tem n raı́zes, eventualmente repetidas.
Observação 4.3 (i) Note-se que p(λ) = det(A − λI) é de facto um polinómio, de grau n,
e o coeficiente do termo de grau n é (−1)n e o termo constante é p(0) = det A.
(ii) Um polinómio com coeficientes em R não tem necessariamente todas as suas raı́zes
(zeros) em R — exemplo: p(λ) = 1 + λ2 .
Definição 4.4 Seja A ∈ Mn×n (R). Chama-se valor próprio de A a qualquer escalar λ tal
que A − λI seja singular (não invertı́vel), isto é, tal que det(A − λI) = 0. Chama-se vector
próprio de A, associado ao valor próprio λ de A, a qualquer vector não nulo v que verifique
(A − λI)v = 0.
Observação 4.5 Seja A ∈ Mn×n (R). O escalar λ = 0 é valor próprio de A se e só se A fôr
singular. Isto é, a matriz A é invertı́vel se e só se 0 não fôr valor próprio de A.
Definição 4.6 Sejam A, B ∈ Mn×n (R). As matrizes A e B dizem-se semelhantes se
existir uma matriz S invertı́vel tal que
B = SAS −1
Teorema 4.7 Sejam A, B ∈ Mn×n (R). Se A e B forem semelhantes então A e B têm o
mesmo polinómio caracterı́stico. Em particular, se A e B forem semelhantes então A e B
têm os mesmos valores próprios.
Dem. Tem-se
det(SAS −1 − λI) =
det(SAS −1 − λSS −1 ) =
det(S(A − λI)S −1 ) =
det S det(A − λI) det S −1 =
1
=
= det S det(A − λI)
det S
= det(A − λI).
det(B − λI) =
=
=
=
50
Teorema 4.8 Seja A matriz n × n. Sejam λ1 , ..., λk valores próprios distintos de A e e
u1 , ..., uk vectores próprios associados a cada um destes valores próprios, respectivamente.
Então u1 , ..., uk são vectores linearmente independentes.
Definição 4.9 Seja A ∈ Mn×n (R). Se existir uma matriz P invertı́vel tal que
D = P AP −1 ,
com D matriz diagonal, então diz-se que A é uma matriz diagonalizável e que S (matriz
de mudança de base, ver mais sobre este assunto na Secção 6.1) é a matriz diagonalizante.
Teorema 4.10 Seja A ∈ Mn×n (R). A matriz A é diagonalizável se e só se existir uma base
de Rn constituı́da por vectores próprios de A. Neste caso, as entradas da diagonal principal
dessa matriz diagonal serão os valores próprios associados aos vectores próprios da base de
Rn pela ordem da mesma. Sendo λ1 , ..., λn são os valores próprios de A então a matriz
diagonal é:


λ1 0 ... 0
. . . . . . .. 

. 
 0
D= . .
.
..
 ..
0 
0 ... 0 λn
Construindo uma base para cada espaço proóprio Eλ1 , Eλ2 , ... obtém-se uma base de Rn
juntando os vectores próprios de cada base de cada espaço próprio. Se A for diagonalizável,
então temos uma base Bvp de Rn formada por vectores próprios de A. A coluna j da matriz
P −1 é o vector número j de Bvp colocado em coluna.
O mesmo se aplica em Cn .
Em particular, se A tiver n valores próprios distintos λ1 , ..., λn então a matriz A é diagonalizável.
Observação 4.11 12 Seja A a matriz n × n.
(1) Seja p(λ) o polinómio caracterı́stico de A. Para cada raiz λ1 de p(λ), a sua multiplicidade enquanto raiz do polinómio chama-se mutliplicidade algébrica de λ1 e denota-se por
ma (λ1 ). Mais precisamente, λ0 tem tem multiplicidade algébrica m quando
p(λ) = (λ − λ1 )m q(λ)
e q(λ1 ) 6= 0.
(2) Chamamos espectro de A ao conjunto de todos os valores próprios da matriz A, e
denota-se por σ A .
(3) À dimensão de N (A − λ1 I) chama-se multiplicidade geométrica e designa-se por
mg (λ1 ).
(4) A matriz A ∈ Mn×n é diagonalizável se e só se
X
dimN (A − λI) = dim(V ).
λ valores próprios
Ou seja, existe uma base de V na qual a representação matricial de T é uma matriz diagonal
sse
dim Eλ1 + · · · + dim Eλk = n,
onde λ1 , · · · , λk (k ≤ n) são os valores próprios de T .
12
Para algumas aplicações, ver secções 7.3, 7.3.1, 7.4, 7.5
51
Observação 4.12 i) Claro que qualquer matriz diagonal D é automaticamente diagonalizável,
pondo S = I.
ii) Veja a Secção 6.3 para encontrar mais matrizes diagonalizáveis.
Exemplo 4.13 (i) Uma matriz com valores próprios distintos.


1
5 −1
A =  0 −2 1 
−4 0
3
O polinómio caracterı́stico é dado por
1−λ
5
−1 −2 − λ
1 =
det(A − λI) = 0
−4
0
3−λ = (1 − λ) (−2 − λ) (3 − λ) − 20 + 4 (2 + λ) =
= (1 − λ) (−2 − λ) (3 − λ) + 4λ − 12 =
= (3 − λ) [(λ − 1) (λ + 2) − 4] =
= (3 − λ) λ2 + λ − 6 =
= (3 − λ) (λ − 2) (λ + 3) .
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 3, λ2 = 2 e λ3 = −3.
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de N (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 3. Tem-se


−2 5 −1
N (A − λ1 I) = N  0 −5 1  = L ({(0, 1, 5)}) .
−4 0
0
Logo, o subespaço próprio Eλ1 é dado por
Eλ1 = N (A − λ1 I) = L ({(0, 1, 5)}) .
Os vectores próprios de A associados ao valor próprio λ1 = 3 são
u = (0, s, 5s) , com s ∈ R\ {0} .
Determinemos os vectores próprios de A

−1


0
N (A − λ2 I) = N
−4
associados ao valor próprio λ2 = 2. Tem-se

5 −1
−4 1  = L ({(1, 1, 4)}) .
0
1
52
Logo, o subespaço próprio Eλ2 é dado por
Eλ2 = N (A − λ2 I) = L ({(1, 1, 4)}) .
Os vectores próprios de A associados ao valor próprio λ2 = 2 são
u = (s, s, 4s) , com s ∈ R\ {0} .
Determinemos os vectores próprios de A

4
N (A − λ3 I) = N  0
−4
associados ao valor próprio λ3 = −3. Tem-se

5 −1
1 1  = L ({(3, −2, 2)}) .
0 6
Logo, o subespaço próprio Eλ3 é dado por
Eλ3 = N (A − λ3 I) = L ({(3, −2, 2)}) .
Os vectores próprios de A associados ao valor próprio λ3 = −3 são
u = (3s, −2s, 2s) , com s ∈ R\ {0} .
Atendendo a que os valores próprios de A são distintos, pelo teorema 4.8, os vectores
próprios de A associados a esses valores próprios são linearmente independentes. Como
dim R3 = 3, então 3 vectores em R3 linearmente independentes formarão desde logo uma
base de R3 . Logo, o conjunto
S = {(0, 1, 5) , (1, 1, 4) , (3, −2, 2)}
é uma base de R3 . Deste modo, temos uma base de R3 formada só por vectores próprios de
A. Logo, a matriz A é diagonalizável, isto é, existe uma matriz invertı́vel S diagonalizante
tal que a matriz P AP −1 é diagonal, tendo-se

 

λ1 0 0
3 0 0
D = P AP −1 =  0 λ2 0  =  0 2 0  ,
0 0 λ3
0 0 −3
com

P −1

0 1 3
=  1 1 −2  .
5 4 2
Note que cada coluna de S −1 é formada pelo vector próprio associado ao valor próprio
respectivo e na posição respectiva.
(ii) Uma matriz com valores próprios repetidos mas diagonalizável.


2 1 1
A= 2 3 2 
3 3 4
O polinómio caracterı́stico é dado por
2−λ
1
1
3−λ
2 =
det(A − λI) = 2
3
3
4−λ = (2 − λ) (3 − λ) (4 − λ) + 6 + 6 − 3 (3 − λ) − 6 (2 − λ) − 2 (4 − λ) =
= −λ3 + 9λ2 − 15λ + 7 =
= − (λ − 1) (λ − 1) (λ − 7) .
53
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 1 e λ2 = 7.
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de N (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 1. Tem-se


1 1 1
N (A − λ1 I) = N  2 2 2  = L ({(−1, 1, 0) , (−1, 0, 1)}) .
3 3 3
Logo, o subespaço próprio Eλ1 é dado por
Eλ1 = N (A − λ1 I) = L ({(−1, 1, 0) , (−1, 0, 1)}) .
Os vectores próprios de A associados ao valor próprio λ1 = 1 são
u = (−s − t, s, t) , com s, t ∈ R, não simultâneamente nulos.
Determinemos os vectores próprios de A

−5
N (A − λ2 I) = N  2
3
associados ao valor próprio λ2 = 7. Tem-se

1
1
−4 2  = L ({(1, 2, 3)}) .
3 −3
Logo, o subespaço próprio Eλ2 é dado por
Eλ2 = N (A − λ2 I) = L ({(1, 2, 3)}) .
Os vectores próprios de A associados ao valor próprio λ2 = 7 são
u = (s, 2s, 3s) , com s ∈ R\ {0} .
Atendendo a que
dim Eλ1 + dim Eλ2 = 3,
podemos ter a seguinte base de R3 formada só por vectores próprios de A
S = {(−1, 1, 0) , (−1, 0, 1) , (1, 2, 3)} .
Logo, a matriz A é diagonalizável, isto é, existe uma matriz
que a matriz P AP −1 é diagonal, tendo-se

 
1
λ1 0 0
D = P AP −1 =  0 λ1 0  =  0
0 0 λ2
0
com

P −1

−1 −1 1
0 2 .
= 1
0
1 3
54
invertı́vel P diagonalizante tal

0 0
1 0 ,
0 7
Note que cada coluna de P −1 é formada pelo vector próprio associado ao valor próprio
respectivo e na posição respectiva.
(iii) Uma matriz com valores próprios repetidos e não diagonalizável.


7 5 −1
A =  0 −2 1 
20 0
3
O polinómio caracterı́stico é dado por
7−λ
5
−1 −2 − λ
1 =
det(A − λI) = 0
20
0
3−λ = (7 − λ) (−2 − λ) (3 − λ) + 100 − 20 (2 + λ) =
= (3 − λ) [(7 − λ) (−2 − λ) + 20] =
= (3 − λ) λ2 − 5λ + 6 =
= (3 − λ) (λ − 3) (λ − 2) .
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 3 e λ2 = 2.
Os vectores próprios de A associados ao valor próprio λ são os vectores não nulos u ∈ R3
para os quais
(A − λI) u = 0,
isto é, são os vectores não nulos de N (A − λI).
Determinemos os vectores próprios de A associados ao valor próprio λ1 = 3. Tem-se


4 5 −1
N (A − λ1 I) = N  0 −5 1  = L ({(0, 1, 5)}) .
20 0
0
Logo, o subespaço próprio Eλ1 é dado por
Eλ1 = N (A − λ1 I) = L ({(0, 1, 5)}) .
Os vectores próprios de A associados ao valor próprio λ1 = 3 são
u = (0, s, 5s) , com s ∈ R\ {0} .
Determinemos os vectores próprios de A associados ao valor próprio λ2 = 2. Tem-se


5 5 −1
N (A − λ2 I) = N  0 −4 1  = L ({(1, −5, −20)}) .
20 0
1
Logo, o subespaço próprio Eλ2 é dado por
Eλ2 = N (A − λ2 I) = L ({(1, −5, −20)}) .
Os vectores próprios de A associados ao valor próprio λ2 = 2 são
u = (s, −5s, −20s) , com s ∈ R\ {0} .
55
Atendendo a que
dim Eλ1 + dim Eλ2 = 2 < 3,
não é possı́vel ter uma base de R3 formada só por vectores próprios de A. Logo, a matriz
A não é diagonalizável, isto é, não existe uma matriz invertı́vel P diagonalizante tal que a
matriz P AP −1 seja diagonal.
(iv) Uma matriz com apenas um valor próprio real.


1 0 0
A =  0 0 −1 
0 1 0
O polinómio caracterı́stico é dado por
1−λ 0
0
−λ −1
det(A − λI) = 0
0
1 −λ
=
= λ2 (1 − λ) + (1 − λ) =
= (1 − λ) λ2 + 1 .
Os valores próprios de A são os valores de λ para os quais det(A − λI) = 0. Logo, os valores
próprios de A são
λ1 = 1, λ2 = i e λ3 = −i.
Logo, a matriz A não é diagonalizável numa matriz de entradas reais, isto é, não existe
uma matriz invertı́vel P diagonalizante tal que a matriz P AP −1 seja diagonal com entradas
reais. No entanto e atendendo a que os três valores próprios são distintos, a matriz A é
diagonalizável numa matriz de entradas complexas:


1 0 0
 0 i 0 
0 0 −i
4.1
Exercı́cios
1 2
E4.1 Seja A =
. Considere ainda os vectores v1 = (0, 0), v2 = (2, 1), v3 = (−1, 1), v4 =
2 1
(2, 3) e v5 = (2, 2). Identifique os que são vectores próprios e A. Diga ainda quais são os
valores próprios associados.


0 1 0
E4.2 Seja A =  0 1 0 .
0 1 0
(a) Determine o polinómio caracterı́stico de A e o seus valores próprios.
(b) Mostre que os vectores v1 = (1, 0, 0), v2 = (1, 1, 1) e v3 = (0, 0, 1) determinam um base
de R3 constituı́da por vectores próprios de A.
1 1
E4.3 Determine os valores de a e b tais que (1, 1) é um vector de A =
e que λ = 0
a b
é um valor próprio de A.
56
E4.4 Para cada uma das seguintes matrizes, encontre os valores próprios e bases para
espaços próprios correspondenntes:

4 0
3 0
10 −9
0 3
3 0
0 0

(a)
, (b)
(c)
(d)
(e)
(f) −2 1
8 −1
4 −2
4 0
0 4
0 0
−2 0








0 0 2 0
2 2 2 −3
2 0 1
5 0 1
 1 0 1 0 
 6 1 1 −4 



(g)  0 2 0  (h)  1 1 0  (i) 
 0 1 −2 0  (j)  1 6 1 −4 
1 0 2
−7 1 0
0 0 0 1
1 1 6 −4
os

1
0 
1


2 2 −2
E4.5 Verifique que −λ3 é o polinómio caracterı́stico da matriz A =  5 −1 −3 . Justi1 5 −3
fique que A não é diagonalizável.
1 2
E4.6 Seja A =
.
0 3
(a) Determine o polinómio caracterı́stico de A.
(b) Determine os espaço próprios e indique as respectivas dimensões.
(c) Prove que A é diagonalizável e indique uma matriz P que diagonalize A, i.e. matriz P
tal que tal que P AP −1 é uma matriz diagonal.
(d) Calcule A9 .
E4.7 Considere as matrizes


0 0 0
A= 0 0 1 
10 −4 4


1 1 1
B =  1 1 1 .
1 1 1
(a) Determine os valores e vectores próprios de A e de B.
(b) Diga, justificando, se A ou B é diagonalizável.
(c) Encontre uma matriz diagonal D e uma matriz invertı́vel P tais que D = P BP −1 .
E4.8 Considere, para cada parâmetro real

α 0 0
1 0 0
Aα = 
2 0 0
3 0 0
α, a matriz Aα e o vector vα definidos por:

 
α
α



1
1 .
,
v
=
α
2
2
3
3
(a) Determine o escalar λ ∈ R, em função do parâmetro, tal que Aα vα = λvα .
(b) Discuta as dimensões do N (Aα ) e do espaço C(Aα ) gerado pelas colunas de Aα , em
função de α.
(c) Determine, em função de α, bases para N (Aα ) e C(Aα ).
(d) Determine, em função de α, os valores próprios de Aα .
(e) Identifique os valores de α para os quais Aα é diagonalizável.
E4.9 Considere o polinómio p(λ) = −λ(λ − 1)2 (λ + 1)3 (λ − 7). Encontre uma matriz A tal
que o polinómio caracterı́stica de A seja p(λ). Será A diagonalizável? Poderá escolher uma
matriz A não diagonalizável com este polinómio caracterı́stica?
57
E4.10 (a) Seja A uma matriz n × n invertı́vel, λ um valor próprio de A e v um vector próprio
associado ao valor próprio λ. Prove que então λ−1 é valor próprio da matriz inversa A−1 .
Indique um vector próprio associado a este valor próprio.
(b) Se v é um vector próprio comum às matrizes A e B, então prove que v é um vector
próprio de AB.
E4.11 Seja A matriz 2×2, v1 e v2 dois vectores próprios de A associados aos valores próprios
λ1 = 1 e λ2 = −1, respectivamente. Considere a seguinte lista de afirmações:
I) O vector −v1 − v2 não é vector próprio de A.
II) λ1 + λ2 é um valor próprio de A.
III) A matriz A é diagonalizável.
IV) A é invertı́vel.
A lista completa de afirmações correctas é
A) I e III
B) III e IV
C) I e II e III e IV
D) I e III e IV
E4.12 Uma matriz R ∈ Mn×n (R) diz-se de rotação se R for ortogonal (R−1 = RT ) e
det(R) = 1. Prove que para n ı́mpar, existe um vector não nulo u tal que Ru = u.
5
Transformações Lineares
Definição 5.1 Sejam U e V espaços lineares. Diz-se que
T :U →V
é uma transformação linear se e só se verificar as duas condições:
(i) T (u + v) = T (u) + T (v), para todos os u, v ∈ U .
(ii) T (λu) = λT (u), para todos os u ∈ U e λ ∈ R.
Observação 5.2 Sejam U e V espaços lineares. Sejam 0 o vector nulo de U e 00 o vector
nulo de V .
(i) Se T : U → V fôr uma transformação linear então T (U ) é um subespaço de V e
além disso tem-se T (0) = 00 . Logo, se T não verificar T (0) = 00 então T não será uma
transformação linear.
(ii) T : U → V é uma transformação linear se e só se
T (λu + µv) = λT (u) + µT (v),
para todos os λ, µ ∈ R e u, v ∈ U .
(iii) Seja T : U → V uma transformação linear e seja {v1 , v2 , . . . , vn } uma base de U .
Seja u ∈ U . Logo, existem λ1 , λ2 , ..., λn ∈ R tais que
u = λ1 v1 + λ2 v2 + ... + λn vn .
Tem-se então
T (u) = λ1 T (v1 ) + λ2 T (v2 ) + ... + λn T (vn ).
58
Exemplo 5.3 Consideremos a base canónica {(1, 0) , (0, 1)} de R2 . Seja T : R2 → R uma
transformação linear tal que T (1, 0) = 1 e T (0, 1) = 1.
Para qualquer (x, y) ∈ R2 tem-se
(x, y) = x(1, 0) + y(0, 1).
Então,
T (x, y) = T (x(1, 0) + y(0, 1)) = xT (1, 0) + yT (0, 1) = x + y.
2
Logo, T : R → R é a transformação linear definida explicitamente por
T (x, y) = x + y.
Teorema 5.4 Sejam U e V espaços lineares e seja {v1 , v2 , . . . , vn } uma base de U . Sejam
T1 , T2 : U → V duas transformações lineares.
Se T1 (vi ) = T2 (vi ) para todo o i = 1, . . . , n, então T1 (u) = T2 (u),
para todo o u ∈ U , isto é, T1 = T2 .
Exemplo 5.5 Sejam U e V espaços lineares e seja 0 o vector nulo de V .
(i) Seja O : U → V definida por
O(u) = 0,
para todo o u ∈ U . O é uma transformação linear e chama-se transformação nula.
(ii) Seja λ ∈ R. Seja Tλ : U → U definida por
Tλ (u) = λu,
para todo o u ∈ U . Tλ é uma transformação linear. Se λ = 1 então chama-se a T1 a
transformação identidade e denota-se por I. Tem-se I(u) = u, para todo o u ∈ U .
(iii) Seja
tr : Mn×n (R) → R
definida por
tr(A) = a11 + a22 + ... + ann
n
X
=
aii ,
i=1
para todo o A = (aij )n×n ∈ Mn×n (R). tr (traço) é uma transformação linear.
(iv) Seja A ∈ Mm×n (R). Seja
T : Rn → Rm
definida por
T (u) = Au,
para todo o u ∈ Rn . T é uma transformação linear.
(v) Seja E o espaço das funções diferenciáveis. Então T : E → E definida por
T (f ) = f 0
é uma transformação linear.
59
Definição 5.6 Sejam U e V espaços lineares e T1 , T2 : U → V transformações lineares. Seja
λ ∈ R. Sejam T1 + T2 , λT1 : U → V definidas por
(T1 + T2 ) (u) = T1 (u) + T2 (u) e (λT1 )(u) = λT1 (u),
para todo o u ∈ U .
Então T1 + T2 e λT1 são transformações lineares.
Definição 5.7 Sejam U, V e W espaços lineares e, T : U → V e S : V → W transformações
lineares. Seja S ◦ T (ou ST ): U → W definida por
(S ◦ T ) (u) = S (T (u)) ,
para todo o u ∈ U . S ◦ T é uma transformação linear. Chama-se a S ◦ T (ou ST ) a
composição de S com T .
Observação 5.8 A composição de transformações lineares é uma transformação linear; no
entanto S ◦ T 6= T ◦ S (em geral).
Teorema 5.9 (i) Sejam T : U → V, S : V → W e R : W → X. Então, tem-se
R ◦ (S ◦ T ) = (R ◦ S) ◦ T .
(ii) Sejam R, S : U → V e T : V → W . Seja λ ∈ R. Então, tem-se
T ◦ (R + S) = T ◦ R + T ◦ S e T ◦ (λR) = λ (T ◦ R) .
Se o contradomı́nio de Q estiver contido em U então
(R + S) ◦ Q = R ◦ Q + S ◦ Q e (λR) ◦ Q = λ (R ◦ Q) .
Definição 5.10 Define-se
T 0 = I e T k = T ◦ T k−1 , para todo o k = 1, 2, ....
Observação 5.11 Tem-se T m+n = T m ◦ T n para todos os m, n ∈ N.
60
5.1
Representação matricial de uma transformação linear
Teorema 5.12 Sejam U e V espaços lineares de dimensões finitas tais que dim U = n e
dim V = m. Sejam S1 = {u1 , u2 , . . . , un } e S2 = {v1 , v2 , . . . , vm } duas bases ordenadas de
U e V respectivamente. Seja T : U → V uma transformação linear. Considere-se a matriz
A = (aij )m×n ∈ Mm×n (R) cuja coluna j, para cada j = 1, ..., n, é formada pelas coordenadas
de T (uj ) na base S2 . Isto é,
m
X
T (uj ) =
aij vi .
i=1
Chama-se a esta matriz A a representação matricial de T em relação às bases S1 e S2 e
escreve-se
A = M (T ; S1 ; S2 ).
coordenadas de um vector v ∈ U na base ordenada S1
de T (v) ∈ V na base ordenada S2 são dadas por



α1

 α2 



 = M (T ; S1 ; S2 )  ..  .

 . 
βm
αn
Além disso, sendo α1 , α2 , ..., αn as
então as coordenadas β 1 , β 2 , ..., β m

β1
 β
 2
 ..
 .
Observação 5.13 (a) Seja V um espaço linear de dimensão finita, com dim V = n. Sejam
S1 = {u1 , u2 , . . . , un } e S2 = {v1 , v2 , . . . , vn } duas bases ordenadas de V . A representação
matricial da transformação identidade I : V → V em relação às bases S1 e S2 é igual à
matriz de mudança da base S1 para S2 . Isto é,
M (I; S1 ; S2 ) = SS1 →S2 .
(b) Quando a base de partida e chegada coincidem S2 = S1 , denota-se M (T ; S1 ; S2 ) simplesmente por M (T ; S1 ).
Teorema 5.14 Sejam Bcn = {e1 , e2 , . . . , en } e Bcm = {e01 , e02 , . . . , e0m } as bases canónicas
(ordenadas) de Rn e Rm respectivamente. Seja T : Rn → Rm uma transformação linear.
Considere-se a matriz A = (aij )m×n = M (T ; Bcn ; Bcm ) ∈ Mm×n (R) cuja coluna j, para cada
j = 1, ..., n, é formada pelas coordenadas de T (ej ) na base Bcm . Isto é,
 
 


0
1
a
1j
m
 0 
 .. 
X
  

 
T (ej ) =
aij e0i = a1j  ..  + ... + amj  .  =  ...  .




.
0
i=1
amj
0
1
Então, tem-se, para todo o u ∈ Rn ,
T (u) = Au.
Dem. Seja u ∈ Rn . Então, existem λ1 , λ2 , ..., λn ∈ R tais que
u = λ1 e1 + λ2 e2 + ... + λn en =
n
X
j=1
61
λj ej .
Uma vez que, para todo o j = 1, ..., n,
T (ej ) =
m
X
aij e0i ,
i=1
tem-se
T (u) = T
n
X
!
λj ej
j=1
=
n
X
j=1
a1j λj , ...,
=
T é linear
n
X
j=1
n
X
λj T (ej ) =
j=1
!
amj λj
n
X
j=1

a11
=
am1
···
···
···
λj
m
X
aij e0i =
i=1
i=1
a1n
amn
m
n
X
X



!
aij λj
e0i =
j=1

λ1
..  = Au.
. 
λn
Exemplo 5.15 (i) Seja T : R4 → R3 definida por T (x, y, z, w) = (3x + y − 2z, 0, x + 4z). T
é uma transformação linear e a matriz M (T ; Bc4 ; Bc3 ) que representa T em relação às bases
canónicas (ordenadas) Bc4 e Bc3 de R4 e R3 respectivamente, é dada por


3 1 −2 0
M (T ; Bc4 ; Bc3 ) =  0 0 0 0  ,
1 0 4 0
uma vez que T (1, 0, 0, 0) = (3, 0, 1), T (0, 1, 0, 0) = (1, 0, 0), T (0, 0, 1, 0) = (−2, 0, 4) e
T (0, 0, 0, 1) = (0, 0, 0). Tem-se então:


x
 y 

T (x, y, z, w) = M (T ; Bc4 ; Bc3 ) 
 z .
w
(ii) Sejam S1 = {1, t, t2 } e S2 = {1, t, t2 , t3 } as bases canónicas (ordenadas) de P2 e P3
respectivamente. Seja D : P2 → P3 tal que D(1) = 0, D(t) = 1 e D(t2 ) = 2t. D é uma
transformação linear e a matriz M (D; S1 ; S2 ) que representa D em relação às bases canónicas
S1 e S2 , é dada por


0 1 0
 0 0 2 

M (D; S1 ; S2 ) = 
 0 0 0 .
0 0 0
Teorema 5.16 Sejam U e V espaços lineares e T1 , T2 : U → V transformações lineares.
Seja B1 uma base de U , B2 uma base de V e λ um escalar. Então Então temos:
M (T1 + T2 ; B1 ; B2 ) = M (T1 ; B1 ; B2 ) + M (T2 ; B1 ; B2 ),
M (λT1 ; B1 ; B2 ) = λM (T1 ; B1 ; B2 ).
Teorema 5.17 Sejam U, V e W espaços lineares de dimensões finitas. Sejam S1 , S2 e S3
bases de U, V e W respectivamente. Sejam T : U → V e S : V, → W transformações lineares.
Então, tem-se
M (S ◦ T ; S1 ; S3 ) = M (S; S2 ; S3 )M (T ; S1 ; S2 ).
62
Teorema 5.18 Seja V um espaço linear de dimensão finita. Seja T : V → V uma transformação linear. Sejam S1 e S2 duas bases ordenadas de V . Seja M (T ; S1 ; S1 ) a matriz que
representa T em relação à base S1 .
Então, a matriz M (T ; S2 ; S2 ) que representa T em relação à base S2 , é dada por
M (T ; S2 ; S2 ) = SS1 →S2 M (T ; S1 ; S1 ) (SS1 →S2 )−1 ,
onde SS1 →S2 é a matriz de mudança da base S1 para S2 .
Além disso,
SS1 →S2 M (T ; S1 ; S1 ) = M (T ; S1 ; S2 )
e
M (T ; S2 ; S2 )SS1 →S2 = M (T ; S1 ; S2 ).
Isto é, o diagrama seguinte é comutativo.
(V, S1 )
SS1 →S2 ↓ I
(V, S2 )
M (T ;S1 ;S1 )
−→
T
T
−→
M (T ;S2 ;S2 )
(V, S1 )
I ↓ SS1 →S2
(V, S2 )
Teorema 5.19 (Caso geral.) Sejam U e V dois espaços lineares de dimensões finitas. Seja
T : U → V uma transformação linear. Sejam S1 e S10 duas bases ordenadas de U . Sejam S2
e S20 duas bases ordenadas de V . Seja M (T ; S1 ; S2 ) a matriz que representa T em relação às
bases S1 e S2 .
Então, a matriz M (T ; S10 ; S20 ) que representa T em relação às bases S10 e S20 , é dada por
−1
M (T ; S10 ; S20 ) = SS2 →S20 M (T ; S1 ; S2 ) SS1 →S10
,
onde SS2 →S20 e SS1 →S10 são as matrizes de mudança das bases S2 para S20 e de S1 para S10
respectivamente.
Além disso,
SS2 →S20 M (T ; S1 ; S2 ) = M (T ; S1 ; S20 )
e
M (T ; S10 ; S20 )SS1 →S10 = M (T ; S1 ; S20 ).
Isto é, o diagrama seguinte é comutativo.
(U, S1 )
SS1 →S10 ↓ I
(U, S10 )
M (T ;S1 ;S2 )
−→
T
T
−→
M (T ;S10 ;S20 )
(V, S2 )
I ↓ SS2 →S20
(V, S20 )
Observação 5.20 As demonstrações dos Teoremas 5.18 e 5.19 resultam do Teorema 5.17.
Exemplo 5.21 Seja T : R2 → R2 definida por T (x, y) = (y, x). T é uma transformação
linear. A matriz M (T ; Bc2 ; Bc2 ) que representa T em relação à base canónica (ordenada) Bc2
de R2 , é dada por
0 1
2
2
M (T ; Bc ; Bc ) =
.
1 0
63
Seja S = {(1, 1), (−1, 1)} uma base ordenada de R2 .
A matriz M (T ; S; S) que representa T em relação à base ordenada S de R2 , é dada por
1 0
M (T ; S; S) =
,
0 −1
uma vez que T (1, 1) = (1, 1) = 1(1, 1)+0(−1, 1) e T (−1, 1) = (1, −1) = 0(1, 1)+(−1)(−1, 1).
Vamos agora verificar que se tem
−1
.
M (T ; S; S) = SBc2 →S M (T ; Bc2 ; Bc2 ) SBc2 →S
Uma vez que (0, 1) = 21 (1, 1) + 12 (−1, 1) e (1, 0) = 21 (1, 1) − 12 (−1, 1), tem-se então
1/2 1/2
.
SBc2 →S =
1/2 −1/2
Logo,
SBc2 →S M (T ; Bc2 ; Bc2 )
SBc2 →S
−1
1/2 1/2
1/2 −1/2
1/2 1/2
=
−1/2 1/2
1 0
=
=
0 −1
= M (T ; S; S).
=
0 1
1 0
1 1
1 −1
1/2 1/2
1/2 −1/2
−1
=
=
Isto é,
M (T ; S; S) = SBc2 →S M (T ; Bc2 ; Bc2 ) SBc2 →S
−1
.
Além disso,
SBc2 →S M (T ; Bc2 ; Bc2 ) = M (T ; Bc2 ; S)
e
M (T ; S; S)SBc2 →S = M (T ; Bc2 ; S).
5.2
Transformações injectivas, sobrejectiva e bijectivas – equações
lineares
Definição 5.22 (i) T : U → V diz-se injectiva se e só se
T (u) = T (w) ⇒ u = w,
para todos os u, w ∈ U , isto é, se e só se
u 6= w ⇒ T (u) 6= T (w),
para todos os u, w ∈ U .
(ii) T : U → V diz-se sobrejectiva se e só se
T (U ) = V .
(iii) T : U → V diz-se bijectiva se e só se fôr injectiva e sobrejectiva.
64
Definição 5.23 Sejam U e V espaços lineares. Diz-se que U e V são isomorfos se e só se
existir um isomorfismo entre U e V , isto é, se e só se existir uma transformação linear
bijectiva T : U → V .
Teorema 5.24 Sejam U e V dois espaços lineares de dimensões finitas. U e V são isomorfos
se e só se dim U = dim V .
Observe que se B = {v1 , ..., vn } é uma base de um espaço linear real V , então T : V → Rn
definida por T (v) = vB é um isomorfismo. Assim, Pn ' Rn+1 , Mm×n (R) ' Rmn .
Teorema 5.25 Sejam U e V espaços lineares de dimensões finitas tais que dim U = dim V .
Seja T : U → V uma transformação linear. Então, T é injectiva se e só se T é sobrejectiva.
Definição 5.26 Sejam U e V espaços lineares e T : U → V uma transformação linear. Seja
0 o vector nulo de V .
(i) Chama-se contradomı́nio ou imagem de T ao conjunto
T (U ) = {T (u) : u ∈ U } ,
que também se denota por I(T ).
(ii) Chama-se núcleo ou espaço nulo de T ao conjunto
N (T ) = {u ∈ U : T (u) = 0} .
Teorema 5.27 Sejam U e V espaços lineares e T : U → V uma transformação linear.
Então, os conjuntos N (T ) e I(T ) são subespaços de U e V respectivamente.
Exemplo 5.28 Sejam U e V espaços lineares. Sejam 0 e 00 os vectores nulos de U e V
respectivamente.
(i) Considere a transformação nula O : U → V definida por
O(u) = 00 ,
para todo o u ∈ U . Tem-se
N (O) = U e I(O) = {00 } .
(ii) Considere a transformação identidade I : U → U definida por
I(u) = u,
para todo o u ∈ U . Tem-se
N (I) = {0} e I(I) = U .
65
Exemplo 5.29 Seja A ∈ Mm×n (R). Seja
T : Rn → Rm
definida por
T (u) = Au,
para todo o u ∈ Rn . Tem-se
N (T ) = N (A) e I(T ) = C(A).
Definição 5.30 Sejam U e V espaços lineares e T : U → V uma transformação linear.
(i) Chama-se caracterı́stica de T à dimensão de I(T ), isto é,
car T = dim I(T ).
(ii) Chama-se nulidade de T à dimensão de N (T ), isto é,
nul T = dim N (T ).
Teorema 5.31 Sejam U um espaço linear de dimensão finita e T uma transformação linear
definida em U . Então, o subespaço I(T ) tem dimensão finita e
dim N (T ) + dim I(T ) = dim U .
Teorema 5.32 Sejam T : Rn → Rm uma transformação linear. Sejam Bcn e Bcm as bases
canónicas (ordenadas) de Rn e Rm respectivamente. Seja A = M (T ; Bcn ; Bcm ) ∈ Mm×n (R) a
matriz que representa T em relação às bases Bcn e Bcm . Tem-se então:
(i) dim N (T ) = nul A;
(ii) dim I(T ) = car A;
(iii) T é injectiva se e só se nul A = 0, isto é, se e só se car A = n;
(iv) T é sobrejectiva se e só se car A = m.
Teorema 5.33 Seja T : U → V uma transformação linear entre dois espaços lineares U e V
de dimensão finita. Seja ainda B1 uma base de U e B2 uma base de V e A = M (T ; B1 ; B2 ).
Então:
1. N (T ) = T (U ) = {u ∈ U : uB1 ∈ N (A)}, onde uB1 designa as coordenadas de u na
base B1 .
2. I(U ) = {v ∈ V : vB2 ∈ C(A)}, onde vB2 designa as coordenadas de v na base B2 .
66
Exemplo 5.34 Considere a transformação linear T : R3 → R4 tal que a sua representação
matricial nas bases ordenadas B1 = {(1, 2, 0), (3, 2, 1), (2, 1, 0)} e
B2 ={(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 2, 3), (0, 0, 0, 4)} de R4 e R3 , respectivamente é


1 5 9
 2 6 10 

M (T ; B1 ; B2 ) = 
 3 11 19  .
4 16 28
(a) Verifique se T é injectiva ou sobrejectiva.
(b) Determine uma base para o núcleo de T .
(c) Determine uma base pata o contradomı́nio de T .
Resolução: Ora aplicando o método de eliminação de Gauss, temos:




1 5 9
1 5 9
 2 6 10 


 →  0 1 2 .
A := 
 3 11 19 
 0 0 0 
4 16 28
0 0 0
E portanto car(A) = 2 e dim(N (A)) = 1. Logo T não é injectiva pois N (A) 6= 0; e também
não é sobrejectiva, pois dim(I(T )) = 2 6= dim(R4 ).
Além disso {(1, −2, 1} é uma base de N (A) e {(1, 2, 3, 4), (5, 6, 11, 16)} é uma base para
C(A). Como 1(1, 2, 0) − 2(3, 2, 1) + 1(2, 1, 0) = (−3, −1, −2) concluimos que {(−3, −1, −2)}
é uma base de N (T ). Finalmente como
1(1, 1, 1, 1) + 2(0, 1, 1, 1) + 3(0, 0, 2, 3) + 4(0, 0, 0, 4) = (1, 3, 9, 28),
5(1, 1, 1, 1) + 6(0, 1, 1, 1) + 11(0, 0, 2, 3) + 16(0, 0, 0, 4) = (5, 11, 33, 108),
concluı́mos que {(1, 3, 9, 28), (5, 11, 33, 108)} é uma base para o contrdomı́nio de T , isto é
I(T ).
Definição 5.35 Diz-se que T : U → V é invertı́vel se existir S : T (U ) → U tal que
S ◦ T = IU e T ◦ S = IT (U ) ,
onde IU e IT (U ) são as funções identidade em U e T (U ) respectivamente. Chama-se a S a
inversa de T e escreve-se
S = T −1 .
Teorema 5.36 Sejam U e V espaços lineares de dimensões finitas. Seja T : U → V uma
transformação linear. Seja 0 o vector nulo de U . As seguintes afirmações são equivalentes.
(i) T é injectiva.
(ii) T é invertı́vel e a inversa T −1 : T (U ) → U é linear.
(iii) N (T ) = {0}.
(iv) dim U = dim T (U ).
(v) T transforma vectores linearmente independentes de U em vectores linearmente independentes de V .
(vi) T transforma bases de U em bases de T (U ).
67
Teorema 5.37 Sejam U e V dois espaços lineares de dimensões finitas. Seja T : U → V
uma transformação linear. Sejam B1 e B2 duas bases ordenadas de U e V respectivamente.
Seja A = M (T ; B1 ; B2 ) a matriz que representa T em relação às bases B1 e B2 .
Se V = T (U ) então T é invertı́vel se e só se A fôr uma matriz quadrada não singular.
Tem-se então
A−1 = M (T −1 ; B2 ; B1 ),
isto é, A−1 será a matriz que representa T −1 em relação às bases S2 e S1 .
Teorema 5.38 Seja B = {v1 , .., vn } uma base ordenada de uma espaço linear V de dimensão
finita (sobre R). Dado u ∈ V sejam (λ1 , ..., λn ) as coordenadas de u na base B (isto é
u = λ1 v1 + .... + λn vn ). Então
T : V → Rn
tal que T (U ) = (λ1 , .., λn ) é uma transformação linear bijectiva.
Definição 5.39 Seja T : U → V uma transformação linear e b ∈ V fixo. A equação
T (u) = b designa-se por equação linear associada a T e a b. Resolver a equação linear
T (u) = b é descrever o conjunto de todos of vectores u ∈ U (caso existam) tais que T (u) = b.
Teorema 5.40 Sejam U e V espaços lineares. Seja T : U → V uma transformação linear.
Seja b ∈ V . Então:
(i) Existência de solução: a equação linear T (u) = b tem pelo menos uma solução u
se e só se b ∈ T (U );
(ii) Unicidade de solução: a equação linear T (u) = b tem no máximo uma solução u
se e só se T fôr injectiva;
(iii) Existência e unicidade de solução: equação linear T (u) = b tem solução única
u se e só se b ∈ T (U ) e T fôr injectiva.
Teorema 5.41 Sejam U e V espaços lineares. Seja T : U → V uma transformação linear.
Seja b ∈ V . A conjunto solução S da equação linear T (u) = b obtém-se somando a uma
solução particular u0 dessa equação linear ao conjunto soluçã S0 da equação linear homogéneo
T (u) = 0, isto é
S = u0 + S0 .
68
5.3
Valores e vectores próprios de transformações lineares
Definição 5.42 Seja V espaço linear e T : V → V uma transformação linear. Diz-se que
um escalar λ é um valor próprio de T se existir um vector não nulo u ∈ V tal que
T (u) = λu.
Aos vectores não nulos u que satisfazem a equação anterior chamam-se vectores próprios
associados ao valor próprio λ. Dado um valor próprio λ de T , o conjunto
Eλ = {u ∈ V : T (u) = λu}
é um subespaço linear de V . Chama-se a Eλ o subespaço próprio de T associado ao valor
próprio λ.
Teorema 5.43 Sejam V um espaço linear e 0 o vector nulo de V . Seja T : V → V uma
transformação linear.
(i) Um escalar λ é um valor próprio de T se e só se N (T − λI) 6= {0}. Sendo λ um valor
próprio de T , o subespaço próprio de T , associado ao valor próprio λ, é dado por
Eλ = N (T − λI).
(ii) Se o espaço linear V tiver dimensaão finita e se A = M (T ; B, B) fôr uma matriz que
representa T em relação a uma base B de V , então um escalar λ é um valor próprio de T se
e só se esse escalar λ fôr solução da equação
det(A − λI) = 0,
i.e. λ fôr valor próprio de A.
Observação 5.44 Se A = M (T ; B, B) representa uma transformação linear T : V → V
na base B, então T diz-se diagonalizável se A o fôr. Neste caso, sendo Bvp a base de V
constituı́da por vectores próprios de T , então:
D = P AP −1
onde P −1 = SBvp →B , e D = M (T ; Bvp , Bvp ) é a matriz diagonal cujas entradas da diagonal
são os valores próprios de A (iguais aos de T ).
5.4
Exercı́cios
E5.1 Considere as transformações P : R3 → R2 e T : R3 → R3 definidas como se segue:
P ((x, y, z)) = (x + y, x + y + 2z),
T ((x, y, z)) = (x + y, x + y + 2z, 2x + 2y + 4z),
e os vectores u = (1, 2, 3) e v = (−1, 0, 1).
(a) Calcule P (u), P (v), P (u + v), P (u) + P (v), P (3u) e 3P (u).
(b) Calcule T (u), T (v), T (u + v), T (u) + T (v), T (3u) e 3T (u).
69
E5.2 Considere a transformação linear T : P2 → P2 tal que T (p)(t) = p0 (t) + p(t) e considere
os polinómios p1 (t) = 1, p2 (t) = x, p3 (t) = x2 e p4 = 1 + 2t + 3t2 .
Calcule T (p1 ), T (p2 ), T (p3 ), T (p4 ) e T (p1 + 2p2 + 3p3 ).
E5.3 Sejam E e F espaços lineares e T : E → F uma transformação linear. Prove que então
T transforma o vector nulo 0E de E no vector nulo 0F de F , i.e. T (0E ) = 0F .
E5.4 Determine quais das seguintes transformações são lineares:
Em Rn :
(a) T : R2 → R2 , T (x, y) = (x, y)
(b) T : R2 → R2 , T (x, y) = (x + 1, y)
(c) T : R2 → R2 , T (x, y) = (2x, y 2 )
(d) T : R3 → R3 , T (x, y, z) = (x + 2y + z, y − 3z, 0)
(e) T : R2 → R3 , T (x, y) = (x, 2x + 3y, x + y)
(f) T : R2 → R3 , T (x, y) = (x, 2x + 3y, 1)
Em Pn na varável t e onde p0 designa a derivada de p:
(g) T : P2 → P2 , T (p(t)) = tp0 (t) + p(t)
(h) T : P2 → P3 , T (p(t)) = t2 p0 (t) + p(t + 1)
(i) T : P2 → P2 , T (p(t)) = p(t + 1) + p(t − 1)
(j) T : P2 → P3 , T (p(t)) = p(−1) + p(0) + p(1)
(l) T : P3 → P2 , T (p(t)) = p(0)p0 (t)
Em Mn×n (R):
a b b + 2c
0
(m) T : M2×2 (R) → M2×2 (R), T
=
c d
3c + a d − a
t
(n) T : Mn×n (R) → Mn×n (R), T (X) = X + X
(o) T : Mn×n (R) → Mn×n (R), T (X) = SX onde
S é uma matriz fixa
p(−1) p(0)
(p) T : P2 → M2×2 (R), T (p) =
.
p(0) p(1)
E5.5 Considere a transformação linear T : R2 → R2 tal que T (1, 1) = (3, 3) e T (1, −1) =
(1, −1). Calcule T (1, 0) e T (0, 1) e determine a expressão geral T (x, y).
Representação matricial de transformações lineares
E5.6 Considere a transformação linear T : R2 → R2 tal que T (x, y) = (2x − y, −x + 3y). Em
cada alı́nea, determine a representação matricial M (T ; B, B) na base ordenada B = {v1 , v2 }:
(a) v1 = (1, 0), v2 = (0, 1)
(b) v1 = (2, 0), v2 = (0, 2)
(c) v1 = (0, 1), v2 = (1, 0)
(d) v1 = (1, 1), v2 = (1, −1).
E5.7 Considere a transformação linear T : R3 → R3 tal que T (x, y, z) = (x + y, x + z, z + y).
Em cada alı́nea, determine a representação matricial M (T ; B, B) na base ordenada B =
{v1 , v2 , v3 }:
(a) v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1)
(b) v1 = (0, 3, 0), v2 = (0, 0, 3), v3 = (3, 0, 0)
(a) v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 1, 1)
70
E5.8 Considere a transformação linear T : R3 → R2 tal que T (x, y, z) = (2x + y, z + 3y).
Em cada alı́nea, determine a representação matricial M (T ; B1 , B2 ) nas bases ordenadas
B2 = {v1 , v2 , v3 } no espaço de partida e B2 = {w1 , w2 } no espaço de chegada:
(a) v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1),
w1 = (1, 0), w2 = (0, 1).
(b) v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 1, 1),
w1 = (1, 0), w2 = (0, 1).
(c) v1 = (1, 0, 0), v2 = (1, 1, 0), v3 = (1, 1, 1),
w1 = (1, 1), w2 = (0, 1)
2
E5.9 Seja T : R2 →
R a transformação linear que na base canónica é representada pela
1 2
matriz A =
. Calcule mediante uma matriz mudança de base apropriada:
2 1
(a) A representação matricial de T na base v1 = (3, 0), v2 = (0, 3).
(b) A representação matricial de T na base v1 = (1, 1), v2 = (1, 2).
2
E5.10 Seja T : R2 → R
linear que na base B = {(1, 1), (1, 2)} é represen a transformação
3 2
tada pela matriz A =
. Calcule T (x, y).
1 2
E5.11 (Rotações – ver Problema 4.12) Para cada real θ ∈ [0, 2π[, seja Rθ : R2 → R2 tal que
Rθ (x, y) = (x cos(θ) − y sin(θ), y cos(θ) + x sin(θ)).
(a) Prove que Rθ é uma transformação linear. Determine Aθ := M (Rθ ; Bc) e verifique que
A−1
θ = A−θ .
(b) Verifique que Rθ ◦ Rϕ = Rθ+ϕ .
(c) Sendo Rθ : R3 → R3 uma rotação de um ângulo θ em R3 , verifique se existe uma base B
de R3 tal que


1
0
0
M (Rθ ; B; B) =  0 cos(θ) − sin(θ)  .
0 sin(θ) cos(θ)
E5.12 (Reflexões) Para cada real θ ∈ [0, π[, seja Fθ : R2 → R2 a reflexão da recta que passa
na origem e forma um ângulo de θ com o eixo y = 0. Prove que a representação matricial
de Fθ relativamente à base canónica é
cos(2θ) sin(2θ)
sin(2θ) − cos(2θ)
E5.13 (Projecções) Para cada real θ, seja Pθ : R2 → R2 a projecção sobre a recta que passa
na origem e forma um ângulo de θ com o eixo y = 0. Prove que a representação matricial
de Pθ relativamente à base canónica é
cos2 (2θ)
sin(θ) cos(θ)
sin(θ) cos(θ)
sin2 (θ)
E5.14 (Contração/Dilatação, Compressão/Expansão, Deslizamento) Para cada α real considere as transformações lineares que na base canónica são representadas pelas matrizes:
α 0
α 0
1 α
,
,
.
0 α
0 1
0 1
sendo X = {(x, y) ∈ R2 : 0 ≤ x, y ≤ 1}, calcule a imagem de X por cada uma dessas
transformações.
71
Transformações lineares injectivas/sobrejectivas. Equações lineares
E5.15 Seja T : R3 → R3 a transformação linear definida como se segue:
T ((x, y, z)) = (x, y + 2z, y + 2z)
(a) Calcule T ((1, 1, 1)) e T ((1, −3, 3)) e verifique se T é injectiva.
(b) Verifique que não existe um vector u tal que T (u) = (0, 0, 1). Conclua que T não é
sobrejectiva.
E5.16 Seja T : R3 → R2 a transformação linear definida por
T (x, y, z) = (x + y, x + y − z).
(a) Calcule a matriz que representa T nas bases canónicas.
(b) Calcule uma base para o núcleo de T . A transformação é injectiva?
(c) Calcule uma base para a imagem de T . Será T sobrejectiva?
(d) Resolva a equação linear T (x, y, z) = (1, 1).
(e) Existe algum (a, b) ∈ R2 tal que a equação T (x, y, z) = (a, b) seja impossı́vel?
(f) Existe algum (a, b) ∈ R2 tal que a equação T (x, y, z) = (a, b) seja indeterminada?
E5.17 Seja T : R3 → R4 a transformação linear definida por T (x, y, z) = (x + 2y, x −
y, x, x − z).
(a) Represente T matricialmente nas bases canónicas.
(b) Será T sobrejectiva ou injectiva?
(c) Determine um vector v ∈ R4 tal que T (u) = v não tenha solução.
E5.18 Seja T : R3 → R3 a transformação linear definida por
T (x, y, z) = (x + y + z, 2x + 2y + 2z, −x − y − z).
(a) Encontre a representaç ao matricial de T numa bse de R3 à sua escolha.
(b) Justifique que T não é injectiva, nem sobrejectiva.
(c) Resolva, em R3 , a equação linear T (x, y, z) = (3, 3, 3).
E5.19 Considere a transformação linear T : R3 → R4 tal que a sua representação matricial
nas bases ordenadas B1 = {(1, 2, 0), (3, 2, 1), (2, 1, 0)} e
B2 = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 2, 3), (0, 0, 0, 4)} de R4 e R3 , respectivamente é


1 5 9
 2 6 10 

M (T ; B1 ; B2 ) = 
 3 11 19  .
4 16 28
(a) Verifique se T é injectiva ou sobrejectiva.
(b) Determine uma base para o núcleo de T .
(c) Determine uma base pata o contradomı́nio de T .
(d) Resolva, em R3 , a equação linear T (x, y, z) = (5, 11, 33, 108).
E5.20 Seja T : R3 → R4 a transformação linear definida no Problema 5.19.
(a) Verifique que T (1, 2, 0) = (1, 3, 28), T (3, 2, 1) = (5, 11, 33, 108) e T (2, 1, 0) = (9, 19, 57, 188).
(b) Prove que T (x, y, z) = ( 17
x− 73 y − 22
z, 35
x− 13
y − 46
z, 35x−13y −46z, 116x−44y −152z).
3
3
3
3
3
72
E5.21 Seja T : P2 → P2 a transformação linear definida por
T (p(t)) = t2 p00 (t) − 2p(t).
(a) Calcule a matriz que representa T na base canónica de P2 .
(b) Calcule uma base para o núcleo de T e uma base para o contradomı́nio de T . Conclua
que T não é injectiva nem sobrejectiva.
E5.22 Seja T : P2 → P2 a transformação linear definida por
T (p(t)) = p0 (t) − 2p(t),
onde p0 designa a derivada de p.
(a) Determine a expressão geral de T .
(b) Determine a representação matricial de T na base canónica de P2 .
(c) Justifique que T é bijectiva e verifique que
1
1
1
T −1 (p(t)) = − p(t) − p0 (t) − p00 (t).
2
4
8
(d) Resolva, em P2 , a equação linear T (p(t)) = 1 + t.
E5.23 Considere a transformação linear T : P2 → P2 tal que T (p) = p0 . Resolva a equação
linear T (p) = q, onde q(t) = 1 + t.
E5.24 Seja T : P2 → P2 a transformação linear definida por
T (p(t)) = t2 p00 (t) − 2p(t).
(a) Calcule a matriz que representa T na base canónica {p1 , p2 , p3 }.
(b) Resolva, em P2 , a equação linear t2 p00 (t) − 2p(t) = 1.
1 2
E5.25 Seja S =
e a transformação T : M2×2 (R) → M2×2 (R) dada por
2 1
T (X) = tr(X)S
onde tr(X) designa o traço da matriz X.
(a) Prove que T é uma transformaçãolinear. 1 0
0 1
0 0
0 0
(b) Considere a base canónica Bc = {
,
,
,
} de M2×2 (R).
0 0
0 0
1 0
0 1
Calcule a matriz que representa T nesta base.
(c) Encontre uma base para o núcleo de T e verifique se T é injectiva.
(d) Encontre uma base para a imagem de T e verifique se T é sobrejectiva.
(e) Encontre os valores e vectores próprios de T .
(f) Verifique se T é diagonalizável. −1 −2
(g) Resolva a equação linear T (X) =
.
−2 −1
73
Valores e vectores próprios de transformações lineares
E5.26 Considere a transformação linear T : R2 → R2 definida por
T (x, y) = (2x + y, 2y).
(a) Determine a representação matricial de T da base canónica de R2 .
(b) Determine os valores próprios e os subespaços próprios de T .
(c) Mostre que não existe nenhuma base de R2 constituida por vectores próprios de T .
E5.27 Considere a transformação linear T : R3 → R3 definida por
T (x, y, z) = (y + z, 2y + z, y + 2z).
(a) Determine o polinómio caracterı́stico de T .
(b) Determine os valores próprios e bases dos subespaços próprios de T .
(c) Determine uma base de R3 constituı́da por vectores próprios de T . Qual é a matriz que
representa T nesta base?
(d) Seja A = M (T, Bc, Bc) a matriz que representa T na base canónica de R3 . Diagonalize
a matriz A. Isto é, determine uma matriz de mudança de base P −1 e uma matriz diagonal
D tais que D = P AP −1 .
(e) Determine An e T n (x, y, z).
E5.28 Considere a transformação linear T : R3 → R3 que em relação à base ordenada
B = {(0, 1, 0), (1, 0, −1), (1, 0, 1)} é representada pela matriz:


7 4 2
 1 7 −1  .
−1 2 10
(a) Verifique que p(λ) = −(λ − 6)(λ − 9)2 é o polinómio caracterı́stico de T .
(b) Determine os valores próprios e bases dos subespaços próprios de T .
(c) Determine uma base de R3 constituı́da por vectores próprios de T . Qual é a matriz que
representa T nesta base?
(d) Diagonalize a matriz A, isto é, determine uma matriz de mudança de base P −1 e uma
matriz diagonal D tais que D = P AP −1 .
(e) Determine An e T n (x, y, z).
E5.29 Considere a transformação linear T : M2×2 (R) → M2×2 (R) definida por T (A) =
A + AT .
(a) Determina a representação matricial de T numa base de M2×2 (R) à sua escolha.
(b) Determine os valores próprios e os vectores próprios de T .
(c) Verifique se T é diagonalizável. Em caso afirmativo, indique uma base ordenada de
M2×2 (R) em elação à qual a representação matricial de T é uma matriz diagonal.
E5.30 Considere13 a transformação linear T : P2 → P2 que na base ordenada {1, 1 + t, t − t2 }
é representada pela matriz


0 0 0
A =  0 0 1 .
10 −4 4
(a) Determine os valores e vectores próprios de T .
(b) Diga, justificando, se existe alguma base de P2 cuja representação matricial de T é uma
matriz diagonal.
13
Confronte este Problema com o Problema 4.7
74
E5.31 Seja T : P2 → P2 a aplicação definida como se segue T (p(t)) = p(t + 1).
I) T não é uma transformação linear.
II) p(x) = 1 + t + t2 é uma solução da equação linear T (p(t)) = 3 + 3t + t2 .
III) A transformação linear T é bijectiva.
IV) O polinómio p(t) = 5 é um vector próprio de T .
A lista completa de afirmações correctas é
A) I
B) II
C) III
D) II e III e IV
E5.32 Considere a transformação linear T1 : P2 → P1 cuja representação matricial em
relação às bases ordenadas B1 = {1 + t, 1 − t, t2 } de P2 e B2 = {1 + t, 1 + 2t} de P1 , é dada
pela matriz:
1 2 0
M (T1 ; B1 ; B2 ) =
.
0 −1 1
Considere ainda a transformação linear T2 : P1 → P2 tal que
T2 (1) = 1 − t
T2 (t) = 2 + 8t − 2t2 .
a) Determine a matriz M (T2 ; B; B1 ) que representa T2 em relação às bases ordenadas B =
{1, t} de P1 e B1 = {1 + t, 1 − t, t2 } de P2 .
b) Determine uma base para N (T1 ) (núcleo de T1 ) e diga, justificando, se T1 é sobrejectiva.
c) Determine T1 (t) e encontre, em P2 , a solução geral da equação T1 (p (t)) = t.
d) Verifique se 1 é o único valor próprio de T1 ◦ T2 .
E5.33 Seja C ∞ (R) o espao̧ linear das funções reais de variável real infinitamente diferenciáveis e V = L({f1 , f2 , f3 }) os subespaço linear de C ∞ (R) gerado pelas funções f1 (t) =
sin(t), f3 (t) = cos(t), f3 (t) = et . Seja D : C ∞ (R) → C ∞ (R) tal que D(f ) = f 0 onde f 0
designa a derivada def .
(a) Determine o núcleo de D. Será a transformação linear D injectiva?
(b) Prove que D(V ) ⊆ V .
(c) Determine uma base para V .
(d) Resolva em V a equação linear D(f ) = sin(t) + et .
E5.34 Seja V um espa co linear de dimensão finita e T : V → V um indempotente (transformação linear tal que T 2 = T ).
(a) Mostre que I − T também é um idempotente e que 2T − I é invertı́vel com (2T − I)−1 =
2T − I.
(b) Mostre que N (T ) = I(I − T ).
(c) Mostre que V = N (T ) ⊕ I(T ).
75
6
Produtos Internos
Definição 6.1 Sejam V um espaço linear real e 0 o vector nulo de V . Chama-se produto
interno em V à aplicação
h, i : V × V → R
(u, v) → hu, vi
que verifique as três condições seguintes.
(i) Simetria: para todos os u, v ∈ V
hu, vi = hv, ui .
(ii) Linearidade: para todo o v ∈ V (fixo) a aplicação
V →R
u → hu, vi
é linear.
(iii) Positividade: para todo o u ∈ V tal que u 6= 0,
hu, ui > 0.
Observação 6.2 Se V é uma espaço linear complexo, então h, i : V × V → C é um produto
interno se, os axiomas de definição anterior forem satisfeitos, com excepção ao simetria que
é substituindo por:
hu, vi = hv, ui.
onde hv, ui designa o complexo conjugado de hv, ui.
Definição 6.3 Chama-se espaço euclidiano a um espaço linear com um produto interno.
Observação 6.4 Seja V um espaço euclidiano real. Seja S = {w1 , w2 , ..., wn } uma base de
V . Sejam u, v ∈ V . Sejam
α1 , α2 , ..., αn e β 1 , β 2 , ..., β n
as coordenadas de u e de v na base S respectivamente, isto é,
u = α1 w1 + α2 w2 + ... + αn wn =
n
X
α i wi
e v = β 1 w1 + β 2 w2 + ... + β n wn =
i=1
n
X
β i wi .
i=1
Logo,
hu, vi =
* n
X
i=1
α i wi ,
n
X
+
β i wi
=
i=1
α1 α2 . . . αn
αi β j hwi , wj i =
i=1 j=1

=
n X
n
X




hw1 , w1 i hw1 , w2 i . . . hw1 , wn i
hw2 , w1 i hw2 , w2 i . . . hw2 , wn i
..
..
..
.
.
.
hwn , w1 i hwn , w2 i . . . hwn , wn i
76





β1
β2
..
.
βn



.

Isto é, existe uma matriz
positivos):

hw1 , w1 i hw1 , w2 i
 hw2 , w1 i hw2 , w2 i

A=
..
..

.
.
hwn , w1 i hwn , w2 i
simétrica e definida positiva (todos os seus valores próprios são
. . . hw1 , wn i
. . . hw2 , wn i
..
.
. . . hwn , wn i






hu, vi =
tal que
α1 α2 . . . αn


A

β1
β2
..
.
βn
Teorema 6.5 14 Seja V um espaço linear real com dim V = n. Seja {w1 , w2 , ..., wn } uma
base de V . Então, uma aplicação
h, i : V × V → R
é um produto interno (em V ) se e só se

hu, vi =
α1 α2 . . . αn


A

β1
β2
..
.



,

βn
com
u = α1 w1 + α2 w2 + ... + αn wn , v = β 1 w1 + β 2 w2 + ... + β n wn
e A é uma matriz simétrica cujos valores próprios
um produto interno tem-se

hw1 , w1 i hw1 , w2 i
 hw2 , w1 i hw2 , w2 i

A=
..
..

.
.
hwn , w1 i hwn , w2 i
são todos positivos. Se a aplicação h, i fôr
. . . hw1 , wn i
. . . hw2 , wn i
..
.
. . . hwn , wn i



.

Observação 6.6 i) No caso complexo, também podemos encontrar uma matriz A com entradas complexas tal que


β1


 β2 
hu, vi = α1 α2 . . . αn A  .. 
 . 
βn
T
com os valores próprios de A todos positivos e A = A , onde A é a matriz que se obtém de
A passando todas as entradas de A ao complexo conjugado.
ii) O sinal dos valores próprios da matriz A é fulcral no estudo da Secção 7.1.
Exemplo 6.7 (i) Seja h, i : R2 × R2 → R a aplicação definida por:
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 + α2 β 2 ,
14
A prova deste resultado será feitas nas aulas teóricas quando for lecionado a a Secção 6.3
77



.

com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 . Esta aplicação é um produto interno em R2 a que se dá o nome
de produto interno usual em R2 , uma vez que
β1
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 + α2 β 2 = α1 α2 A
β2
com
A=
1 0
0 1
.
A matriz A é simétrica e o único valor próprio de A é 1 > 0.
(ii) Seja h, i : R2 × R2 → R a aplicação definida por:
h(α1 , α2 ) , (β 1 , β 2 )i = −2α1 β 1 + 3α2 β 2 ,
com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 . Esta aplicação não é um produto interno em R2 , uma vez que
β1
h(α1 , α2 ) , (β 1 , β 2 )i = −2α1 β 1 + 3α2 β 2 = α1 α2 A
β2
com
A=
−2 0
0 3
.
A matriz A é simétrica, no entanto, os valores próprios de A: −2 e 3 não são ambos positivos.
Exemplo 6.8 R2 com um produto interno não usual. Seja h, i : R2 × R2 → R a
aplicação definida por:
h(α1 , α2 ) , (β 1 , β 2 )i = 2α1 β 1 + α1 β 2 + α2 β 1 + α2 β 2 ,
com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 .
É fácil ver que esta aplicação é simétrica e linear em relação a (α1 , α2 ) (fixando (β 1 , β 2 )).
Vejamos por exemplo que a condição
h(α1 , α2 ) , (α1 , α2 )i > 0, para todo o (α1 , α2 ) 6= (0, 0),
é satisfeita.
Atendendo a que
h(α1 , α2 ) , (α1 , α2 )i = 2α21 + 2α1 α2 + α22 = α21 + (α1 + α2 )2 ,
tem-se
h(α1 , α2 ) , (α1 , α2 )i = 0 ⇔ (α1 = 0 e α1 + α2 = 0) ⇔ (α1 = 0 e α2 = 0) ⇔ (α1 , α2 ) = (0, 0).
Em alternativa, podemos escrever
h(α1 , α2 ) , (β 1 , β 2 )i = 2α1 β 1 + α1 β 2 + α2 β 1 + α2 β 2 =
com
A=
2 1
1 1
A matriz A é simétrica e os valores próprios de A:
78
α1 α2
A
β1
β2
.
√
3+ 5
2
e
√
3− 5
2
são ambos positivos.
Definição 6.9 Sejam V um espaço euclidiano e 0 o vector nulo de V . Sejam u, v ∈ V .
(i) Chama-se norma de u a:
kuk =
p
hu, ui.
(ii) Chama-se projecção ortogonal de v sobre u 6= 0 a:
proju v =
hv, ui
u.
kuk2
(iii) Diz-se que u e v são ortogonais se hu, vi = 0.
(iv) Chama-se ângulo entre dois vectores não nulos u e v a:
θ = arccos
hu, vi
.
kuk kvk
Observação 6.10 O ângulo θ entre dois vectores não nulos u e v é
ortogonais.
π
2
se e só se u e v são
Teorema 6.11 Desigualdade de Cauchy-Schwarz. Seja V um espaço euclidiano. Então,
para todos os u, v ∈ V ,
|hu, vi| ≤ kuk kvk
Observação 6.12 (i) Teorema de Pitágoras. Sejam u, v ∈ R2 . Tem-se u e v ortogonais
se e só se
ku − vk2 = kuk2 + kvk2 .
Dem.
ku − vk2 = hu − v, u − vi = hu, ui − hv, ui − hu, vi + hv, vi =
= kuk2 − 2 hu, vi + kvk2 = kuk2 + kvk2
se e só se
hu, vi = 0,
isto é, se e só se u e v forem ortogonais.
(ii) Em R2 com o produto interno usual, a desigualdade de Cauchy-Schwarz é dada por
q
q
2
2
|α1 β 1 + α2 β 2 | ≤ α1 + α2 β 21 + β 22 ,
uma vez que
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 + α2 β 2 ,
com (α1 , α2 ) , (β 1 , β 2 ) ∈ R2 .
79
(iii) Em Rn com o produto interno usual, a desigualdade de Cauchy-Schwarz é dada por
v
v
u n
n
n
u
X
X
u
uX 2
t
αi β i ≤
α2i t
βi ,
i=1
i=1
i=1
uma vez que
h(α1 , ..., αn ) , (β 1 , ..., β n )i = α1 β 1 + ... + αn β n ,
com (α1 , ..., αn ) , (β 1 , ..., β n ) ∈ Rn .
Teorema 6.13 Sejam V um espaço euclidiano e 0 o vector nulo de V . Sejam u.v ∈ V e
λ ∈ R. A norma satisfaz as seguintes propriedades.
(i) Positividade: kuk > 0 se u 6= 0.
(ii) Homogeneidade: kλuk = |λ| kuk
(iii) Desigualdade triangular: ku + vk ≤ kuk + kvk
Observação 6.14 Pode definir-se norma num espaço linear V , sem estar associada a qualquer produto interno, como sendo uma aplicação de V em R que satisfaz as propriedades do
teorema anterior. A um espaço linear com uma norma chama-se espaço normado.
Observação 6.15 Seja V um espaço euclidiano. Sejam u, v ∈ V . Tem-se
hu, vi =
1
ku + vk2 − kuk2 − kvk2 .
2
Observação 6.16 Seja V um espaço linear real normado. Sejam u, v ∈ V . Então, a norma
pode ser obtida de um produto interno na forma
p
kuk = hu, ui
se e só se
ku − vk2 + ku + vk2 = 2 kuk2 + 2 kvk2 .
Esta última equação é conhecida por lei do paralelogramo.
80
6.1
Bases ortogonais
Definição 6.17 Sejam V um espaço euclidiano e S ⊂ V . Diz-se que S é ortogonal se para
todos os u, v ∈ S com u 6= v,
hu, vi = 0.
Diz-se que S é ortonormado se fôr ortogonal e para todo o u ∈ S,
kuk = 1.
Teorema 6.18 Sejam V um espaço euclidiano e S ⊂ V . Seja 0 o vector nulo de V . Se S é
ortogonal e 0 ∈
/ S então S é linearmente independente. Em particular, se n = dim V então
qualquer conjunto S ortogonal de n vectores não nulos é uma base de V .
Teorema 6.19 Seja V um espaço euclidiano com dim V = n. Seja S = {u1 , ..., un } uma
base ortogonal de V . Então, as coordenadas de um vector v ∈ V em relação à base S são
dadas por:
αj =
hv, uj i
,
huj , uj i
com j = 1, ..., n. Isto é:
v=
hv, u1 i
hv, u2 i
hv, un i
u1 +
u2 + ... +
un .
hu1 , u1 i
hu2 , u2 i
hun , un i
Teorema 6.20 Seja V um espaço euclidiano real com dim V = n. Seja S = {w1 , ..., wn }
uma base ortonormada de V . Então, para todos os u, v ∈ V ,
v
u n
n
X
uX
hu, wi i2 .
hu, vi =
hu, wi i hv, wi i (fórmula de Parseval) e tem-se kuk = t
i=1
i=1
Observação 6.21 Seja V um espaço euclidiano real com dim V = n. Seja S = {w1 , ..., wn }
uma base ortonormada de V . Sejam u, v ∈ V , com
u = α1 w1 + α2 w2 + ... + αn wn , v = β 1 w1 + β 2 w2 + ... + β n wn .
Então, atendendo ao teorema 6.19, a fórmula de Parseval é dada por:
hu, vi =
n
X
αi β i = α1 β 1 + α2 β 2 + ... + αn β n
e tem-se
v
u n
uX
α2 .
kuk = t
i
i=1
i=1
Notação 6.22 Sejam V um espaço euclidiano e 0 o vector nulo de V . Para qualquer v ∈ V ,
1
v
com v 6= 0, o vector kvk
v será denotado por kvk
.
81
Teorema 6.23 Método de ortogonalização de Gram-Schmidt15 . Seja V um espaço
euclidiano. Considere o conjunto linearmente independente:
{v1 , v2 , ..., vk } ⊂ V .
Sejam
u1 = v1 ,
u2 = v2 − proju1 v2 = v2 −
hv2 , u1 i
u1 ,
hu1 , u1 i
hv3 , u1 i
hv3 , u2 i
u3 = v3 − proju2 v3 − proju1 v3 = v3 −
u1 −
u2
hu2 , u1 i
hu2 , u2 i
...
uk = vk − proju1 vk − ... − projuk−1 vk .
Então:
(i) L({u1 , u2 , ..., uk }) = L({v1 , v2 , ..., vk })
(ii) O conjunto {u1 , u2 , ..., uk } é uma base ortogonal de L({v1 , v2 , ..., vk }).
u2
uk
u1
(iii) O conjunto
,
, ...,
é uma base ortonormada de L({v1 , v2 , ..., vk }).
ku1 k ku2 k
kuk k
Exemplo 6.24 Considere-se R4 com o produto interno usual. Seja
U = L({(1, 1, −1, −1), (1, 2, 3, 4), (2, 1, −6, −7), (1, 3, 7, 9)}).
Determinemos a dimensão

1 1 2
 1 2 1

 −1 3 −6
−1 4 −7
de U e uma base


1
1 1


3 
0 1
−→ 
 0 4
7 
9
0 5
ortonormada para U . Tem-se


2 1
1 1 2 1


−1 2 
0 1 −1 2
−→ 
 0 0 0 0
−4 8 
−5 10
0 0 0 0


.

Logo, o conjunto {v1 , v2 }, com v1 = (1, 1, −1, −1) e v2 = (1, 2, 3, 4), é uma base de U e como
tal dim U = 2.
Sejam
u1 = v1 e u2 = v2 − proju1 v2 .
Logo, o conjunto {u1 , u2 }, com u1 = (1, 1, −1, −1) e
1+2−3−4
(1, 1, −1, −1) = (2, 3, 2, 3),
4
é uma base ortogonal de U . Uma base ortonormada para U :
√
√
√ !)
(
√
26 3 26 26 3 26
u1
u2
1 1 1 1
,
=
, ,− ,−
,
,
,
,
ku1 k ku2 k
2 2 2 2
13
26
13
26
u2 = (1, 2, 3, 4) −
15
Jorgen Pedersen Gram 1850–1916. Erhard Schmidt 1876–1959
82
Teorema 6.25 Qualquer espaço euclidiano de dimensão finita tem uma base ortonormada.
Teorema 6.26 Seja {v1 , v2 , ..., vn } uma base de Rn . Então, existe um único produto interno
em Rn para o qual esta base é ortonormada.
Exemplo 6.27 Considere em R2 a base S = {v1 , v2 }, com v1 = (1, 0) e v2 = (1, 1). Vejamos
que existe um e um só produto interno para o qual a base S é ortonormada.
Seja Bc2 = {(1, 0), (0, 1)} a base canónica de R2 . Tem-se
SBc2 →S = SS→Bc2
−1
=
1 1
0 1
−1
=
1 −1
0 1
.
Sejam u, v ∈ R2 . Tem-se
u = (α1 , α2 )
e v = (β 1 , β 2 ) ,
onde α1 , α2 e β 1 , β 2 são as coordenadas na base Bc2 de u e v respectivamente. Seja S = SBc2 →S .
Logo, a aplicação h, i : R2 × R2 definida por
hv1 , v1 i hv1 , v2 i
1 0
T
hu, vi = (Su) A (Sv) , com A =
=
,
hv2 , v1 i hv2 , v2 i
0 1
é um produto interno e é o único para o qual a base S é ortonormada. Tem-se então
h(α1 , α2 ) , (β 1 , β 2 )i = α1 β 1 − α1 β 2 − α2 β 1 + 2α2 β 2 .
É fácil verificar que para este produto interno a base S é ortonormada:
h(1, 0) , (1, 1)i = 0 e h(1, 0) , (1, 0)i = h(1, 1) , (1, 1)i = 1.
6.2
Complementos e projecções ortogonais
Definição 6.28 Sejam V um espaço euclidiano e S um subespaço de V . Diz-se que um
elemento de V é ortogonal a S se fôr ortogonal a todos os elementos de S. Ao conjunto
de todos os elementos ortogonais a S chama-se complemento ortogonal de S e designa-se
por S ⊥ .
Teorema 6.29 Qualquer que seja o subespaço S de um espaço euclidiano V , também S ⊥ é
um subespaço de V .
83
Exemplo 6.30 (i) Se S ⊂ R3 é um plano que passa pela origem, então S ⊥ é uma recta que
passa pela origem e é perpendicular ao plano.
(ii) Se S ⊂ R3 é uma recta que passa pela origem, então S ⊥ é um plano que passa pela
origem e é perpendicular à recta.
(iii) Seja A ∈ Mm×n (R). Então,
N (A) = (L(A))⊥ .
Teorema 6.31 Se S é um subespaço de dimensão finita de um espaço euclidiano V , então
V é a soma directa de S e S ⊥ , isto é, V = S ⊕ S ⊥ . Logo, cada elemento v ∈ V pode ser
escrito de modo único como soma de um elemento de S com um elemento de S ⊥ :
v = vS + vS ⊥ , com vS ∈ S
e vS ⊥ ∈ S ⊥ .
À aplicação PS : V → S definida por PS (v) = vS chama-se projecção ortogonal de V
sobre S e à aplicação PS ⊥ : V → S ⊥ definida por PS ⊥ (v) = vS ⊥ chama-se projecção
ortogonal de V sobre S ⊥ . Tem-se
I = PS + PS ⊥ .
Se {v1 , v2 , ..., vn } é uma base ortonormada de S, então
PS (v) =
n
X
hv, vi i vi ,
i=1
para todo o v ∈ V .
Se {u1 , u2 , ..., uk } é uma base ortonormada de S ⊥ , então
PS ⊥ (v) =
k
X
hv, uj i uj ,
j=1
para todo o v ∈ V .
As aplicações PS e PS ⊥ são transformações lineares de V em V que satisfazem as propriedades:
(i) PS (V ) = S, PS ⊥ (V ) = S ⊥ ;
(ii) (PS )2 = PS , (PS ⊥ )2 = PS ⊥ ;
(iii) hPS (u) , vi = hu, PS (v)i, hPS ⊥ (u) , vi = hu, PS ⊥ (v)i, para todos os u, v ∈ V ;
(iv) kuk2 = kPS (u)k2 + kPS ⊥ (u)k2 , para todo o u ∈ V (Teorema de Pitágoras);
84
Observação 6.32 Seja V um espaço euclidiano de dimensão finita e U é um subespaço
linear de V .
(i) dim U + dim U ⊥ = dim V onde U ⊥ designa o complemento ortogonal de U em V .
(ii) U ⊥
⊥
=U
(iii) Seja v ∈ V . Se {u1 , v2 , ..., uk } é uma base de U então v ∈ U ⊥ se e só se
hv, u1 i = hv, u2 i = ... = hv, uk i = 0.
(iv) Nas condições de (iii), seja V = Rn . Seja A a matriz k × n cuja linha i é igual ao
vector vi . Então U = L(A) e U ⊥ = N (A).
Teorema 6.33 Seja S é um subespaço de dimensão finita de um espaço euclidiano V . Seja
v ∈ V . Então, existe um elemento de S mais próximo de v do que qualquer dos outros
pontos de S. Este elemento é a projecção ortogonal PS (v) de v sobre S e tem-se
kv − PS (v)k ≤ kv − uk ,
para todo o u ∈ S, e a igualdade verifica-se se e só se u = PS (v).
Definição 6.34 Seja V um espaço euclidiano. Seja S é um subespaço de V com dim S = k.
Seja q ∈ V . Chama-se ao conjunto
{q} + S
um k-plano. A distância d de um ponto p ∈ V a um k-plano P = {q} + S é dada por:
d (p, P) = kPS ⊥ (p − q)k .
Observação 6.35 A distância entre dois k-planos paralelos P1 = {a} + S e P2 = {b} + S
é dada por:
d (P1 , P2 ) = kPS ⊥ (a − b)k .
Exemplo 6.36 Considere-se R3 com o produto interno usual.
(i) Seja P o plano (em R3 ) que passa pelos pontos: (1, 2, 1), (1, 0, −1) e (1, 1, 1). Tem-se
P = {(1, 2, 1)} + L ({(0, −2, −2), (0, −1, 0)})
Equação vectorial de P:
(x, y, z) = (1, 2, 1) + α(0, −2, −2) + β(0, −1, 0),
com α, β ∈ R.
85
Equações paramétricas de P:

x=1





y = 2 + 2β − 2α − β





z = 1 − 2α
com α, β ∈ R.
Equação cartesiana de P:
x = 1.
Em alternativa, podemos determinar uma equação cartesiana de P do seguinte modo.
Atendendo a que
P = {(1, 2, 1)} + L ({(0, −2, −2), (0, −1, 0)}) ,
seja
S = L ({(0, −2, −2), ((0, −1, 0)}) .
Logo,
S⊥ =
(x, y, z) ∈ R3 : h(x, y, z), (0, −2, −2)i = 0 e h(x, y, z), (0, −1, 0)i = 0 =
0 −2 −2
= N
= L ({(1, 0, 0)})
0 −1 0
e assim, a equação cartesiana do plano P que passa pelo ponto (1, 2, 1) é dada por:
(h(x − 1, y − 2, z − 1), (1, 0, 0)i = 0) ⇔
ou seja por
x = 1.
(ii) Determinemos a equação cartesiana da recta que passa pelos pontos (1, 1, 0) e
(1, 2, 1). Tem-se
r = {(1, 1, 0)} + L ({(0, 1, 1)}) ,
uma vez que (0, 1, 1) = (1, 2, 1) − (1, 1, 0). Seja
S = L ({(0, 1, 1)}) .
Logo,
0 1 1
S ⊥ = (x, y, z) ∈ R3 : h(x, y, z), (0, 1, 1)i = 0 = N
= L ({(1, 0, 0), (0, 1, −1)})
e assim, a equação cartesiana da recta r é dada por:
(h(x − 1, y − 1, z), (1, 0, 0)i = 0 e h(x − 1, y − 1, z), (0, 1, −1)i = 0) ⇔
⇔ (1 (x − 1) = 0 e 1 (y − 1) − 1z = 0) ,
ou seja por

 x=1

y − z = 1.
86
6.3
Diagonalização de matrizes simétricas
Recordamos que Q ∈ Mn×n (R) diz-se ortogonal se QT Q = I.
Observação 6.37 i) Se Q é uma matriz ortogonal, então Q é invertı́vel, Q−1 = QT ,
det(Q) = ±1 e a transposta QT também é ortogonal.
ii) Seja {v1 , v2 , · · · , vn } uma base ortonormada de Rn . Seja ainda Q a matriz cuja coluna i
é o vector vi (com i = 1, 2, · · · , n). Então Q é ortogonal.
Teorema 6.38 Seja A ∈ Mn×n (R).
i) Então temos hAu, vi = hu, AT vi para quaisquer u, v ∈ Rn ,
ii) Se A fôr simétrica, então vectores próprios associados a valores próprios diferentes são
ortogonais (e portanto linearmente independentes).
iii) Os valores próprios de uma matriz simétrica são todos reais.
Observação 6.39 Seja A = [aij ] ∈ Mn×n (C). A matriz A∗ cuja entrada (i, j) é aji é
T
habitualmente designada pela matriz transconjudada de A – e de facto A∗ = A . Diz-se
que A é normal (respectivamente, hermitiana, unitária) se AA∗ = A∗ A (respectivamente,
A = A∗ , A−1 = A∗ ). Claro está que se A tiver entradas em R, então a matriz diz-se normal,
simétrica, ortogonal, respectivamente.
Seja K os números reais R ou os complexos C. Então podemos usar a definição da matriz
A∗ e concluir que
hAu, vi = hu, A∗ vi para quaisquer u, v ∈ Kn .
Valem as seguintes propriedades, fáceis de estabelecer, relativas à matriz A:
1. λ ∈ C valor próprio de A, então λ valor próprio de A∗ .
2. A normal se e só se hAu, Avi = hA∗ u, A∗ vi para quaisquer u, v.
3. A hermitiana se e só se hAu, vi = hu, Avi para quaisquer u, v.
4. A unitária se e só se hAu, Avi = hu, vi para quaisquer u, v.
5. A hermitiana, então os valores próprios de A são todos reais.
6. A unitária então os valores próprios de A têm modulo 1, isto é |λ| = 1 para qualquer
valor próprio de A.
Se A fôr hermitiana ou unitária então A é normal.
Mais geralmente, se E for um espaço euclidiano de dimensão finita sobre R ou sobre C, e
dada uma transformação linear T : E → E, então podemos definir um operador T ∗ : E → E
tal que para quaisquer u, v ∈ E:
hT (u), vi = hu, T ∗ (v)i.
Fixada ma base ortonormada em E, seja ela v1 , ..., vn , é fácil ver que essa transformação
T é dada necessariamente por
∗
T ∗ (u) =
n
X
hu, T (vi )i vi
i=1
87
(5)
Tudo o que foi dito para matrizes acima poderá ser provado para transformações usando
T ∗.
Além disso, note-se que se E = Rn ou E = Cn então dada uma matriz A, temos a
transformação linear T definida por T (u) = Au que está associada.
Teorema 6.40 Seja T : E → E uma transforma cão linear num espaço euclidiano E de
dimensão finita com coeficientes em K onde K = R ou K = C. Então as seguintes afirmações
são equivalentes:
1. Existe uma base ortonormada de E constituı́da por vectores próprios de A.
2. T é normal e os seus valores próprios pertencem a K.
Dem.: Prova de 1) ⇒ 2). Suponhamos que existe uma base de E formada por vectores
próprios de E, relativa a T —- seja v1 , ..., vn essa base. Temos então T (vi ) = λi vi com
λi ∈ K. A matriz de T nessa base (ordenada) é portanto a matriz diagonal


λ1 · · · 0


D =  ... . . . ... 
0
···
λn
pelo que o polinómio caracterı́stico de T é
p(λ) = det(D − λI) = (−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn ).
Sendo então {λ1 , .., λn } os valores próprios de T , que estão em K. Admitindo agora que essa
base v1 , ..., vn é ortonormada, temos que para u = ξ 1 v1 + ... + ξ n vn e v = η 1 v1 + ... + η n vn
(com os coeficientes em K):
hT (u), T (v)i = hξ 1 T (v1 ) + ... + ξ n T (vn ), η 1 T (v1 ) + ... + η n T (vn )i =
= hξ 1 λ1 v1 + ...ξ n λn vn , η 1 λ1 v1 + ...η n λn vn i
n
n
X
X
=
ξ i λi λ̄j η̄ j hvi , vj i =
ξ i λi λ̄i η̄ i .
i,j=1
i=1
Por outro lado, usando a equação (5) temos:
hT ∗ (u), T ∗ (v)i =
n
n
X
X
hu, T (vi )i vi ,
hv, T (vj )i vj
i=1
=
=
=
=
n
X
j=1
hu, T (vi )ihv, T (vj )ihvi , vj i =
n
X
i=1
i=1
hu, λi vi ihv, λi vi i =
i=1
n
X
hu, T (vi )ihv, T (vi )i
i=1
i,j=1
n
X
n
X
n
X
λi λi hu, vi ihv, vi i
λi λi hξ 1 v1 + ... + ξ n vn , vi ihη 1 v1 + ... + η n vn , vi i
λi λi ξ i η i .
i=1
88
Ou seja hT (u), T (v)i = hu, vi e portanto T é normal.
Prova de 2) ⇒ 1). Suponhamos agora que a transformação linear T é normal e que todos
os seus valores próprios pertencem a K. Vamos mostrar, utilizando o método de indução,
que existe uma base própria de E, relativa a T que é ortonormada.
Se dim(E) = 1, não há nada a provar. Suponhamos que o enunciado é válido para
dim(E) = n − 1 6= 0 e vamos provar que o resultado também é válido para dim(E) = n. Seja
λ1 ∈ K um valor próprio de T e seja v1 6= 0 tal que T (v1 ) = λ1 v1 e ponha-se w1 = ||vv11 || ; pelo
que ||w1 || = 1. Seja F = L({v1 })⊥ o complemento ortogonal do espaço gerado pelo vector
v1 em E; portanto dim(F ) = n − 1. Provamos que T (F ) ⊆ F (para tal basta verificar que
hT (v), v1 i = 0 para todo v ∈ F ). Pelo que a restrição T |F é uma transformação linear de F
para F . Ora essa restrição T |F continua a a ser uma transformação linear normal, pelo que
pela hipótese de indução, existe uma base ortonormada w2 , ..., wn de F formada por vectores
próprios de T |F . É claro que então w1 , w2 , ..., wn é uma base ortonormada de E de vectores
próprios de T .
O seguinte resultado é uma fácil consequência do teorema 6.40.
Teorema 6.41 Seja A ∈ Mn×n (R) simétrica A = AT , então existe uma matriz ortogonal
Q e uma matriz diagonal D tal que D = QAQT .
Observação 6.42 (a) Se A ∈ Mn×n (R) é simétrica, então existe uma base ortonormal de
Rn constituı́da por vectores próprios de A.
(b) Se uma matriz real A é ortogonalmente diagonalizável, então A é simétrica, dado que se
D = QAQT com Q matriz ortogonal e D diagonal, então A = QT DQ. Daqui concluÌmos
que A é simétrica!
Procedimento para diagonalizar uma matriz A ∈ Mn×n (R) simétrica
1. Encontre uma base para cada espaço próprio de A.
2. Aplique o processo de ortogonalização de Grame-Schmidt a cada uma das base (de
espaços próprios) para produzir uma base ortogonal de Rn constitud́a por vetores
próprios de A. Normalize esta base, construindo assim uma base {v1 , ..., vn } ordenada
e ortonormal de Rn constituı́da por vetores próprios.
3. Seja QT a matriz cujas colunas são formadas pelos vectores {v1 , ..., vn } colocados em
coluna e D a matriz diagonal cuja entrada (i, i) é o valor próprio de A associado ao
vector próprio vi , com i ∈ {1, ..., n}.
4. A teoria garante que D = QAQT .


4 2 2
Exemplo 6.43 Seja A =  2 4 2 . Com A é simétrica sabemos que existe uma matriz
2 2 4
ortogonal Q e uma matriz diagonal D tais que D = QAQT . Vamos então construir QT , D
e naturalmente Q = (QT )T .
1) o polinómio caracterı́stico de A é


4−λ
2
2
4−λ
2  = ... = (λ − 2)2 (λ − 8),
p(λ) = det(A − λI) = det  2
2
2
4−λ
89
pelo que os valores próprios de A são λ = 2 (raiz dupla) e λ = 8 (raiz simples). O espaço
próprio associado a λ = 2 é E2 = N (A − 2I) cujos vectores u1 = (−1, 1, 0), u2 = (−1, 0, 1)
forma uma base de E2 . O espaço próprio associado a λ = 8 é E8 = N (A − 8I) e o vector
u3 = (1, 1, 1).
2) Aplicando o processo de Gram-Schmidt às bases {u1 , u2 } e {u3 } e depois normalizando,
obtÈm-se os seguinte abase de R3 :
1 1 1 1 1 1
1 2 v1 = − √ , √ , 0 , v2 = − √ , − √ , √ , v3 = √ , √ , √ .
2 2
6
6 6
3 3 3




− √12 − √16 √13
2 0 0


3) Então temos D =  0 2 0 , QT =  √12 − √16 √13  e podemos verificar que
√2
√1
0 0 8
0
6
3
D = QAQT .
Observação 6.44 No caso geral, se A ∈ Mn×n (C), então podemos construir uma matriz
diagonal D e uma matriz unitária U tais que D = U AU ∗ .
Produto Externo e Misto
Sejam u = (a1 , a2 , a3 ), v = (b1 , b2 , b3 ) vectores de R3 e {e1 , e2 , e3 } a base canónica de R3 . O
produto externo entre u e v é um vector de R3 , que designamos por u × v e é definido
como:


e1 e2 e3
a2 a3
a1 a3
a1 a2


e1 − det
u × v = det a1 a2 a3 = det
e2 + det
e3 =
b2 b3
b1 b3
b1 b2
b1 b2 b3
(a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 ).


u1 v1 w 1
Produto misto é hu, v × wi = det  u2 v2 w2 .
u3 v3 w3
Teorema 6.45
a) u × v = −v × u e u × u = 0,
b) Se u, v são ortogonais e não nulos , então {u, v, u × v} é uma base ortogonal de R3 ,
c) u× é ortogonal a u e a v,
d) ||u × v|| = ||u|| ||v|| sin(θ) onde θ é o ângulo entre u e v,
e) ||u × v|| é a área do paralelogramo definido por u e v,
f) O valor absoluto |hu, v × wi| de hu, v × wi é o volume do paralelipı́pedo formado pelos
vectores u, v e w.
g) hu, u × vi = hu, v × ui = 0,
hu, v × wi = hu × v, wi.
h) V = |hu, v × wi| é o volume do paralelipı́pedo formado pelos vectores u, v e w. Note que
V =
||u × v||
| {z }
área da face determinada por u e v
90
||w|| |cos(θ)| .
|
{z
}
altura
6.4
Exercı́cios
E6.1 Identifique as aplicações h, i : Rn × Rn → R que definem um produto interno,
Em R2 :
(a) h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x2 y2 .
(b) h(x1 , x2 ), (y1 , y2 )i = x1 y1 + x1 y2 + x2 y2 .
(c) h(x1 , x2 ), (y1 , y2 )i = −2x1 y1 + 3x2 y2 .
(d) h(x1 , x2 ), (y1 , y2 )i = x1 x2 y1 + x2 y2 .
(e) h(x1 , x2 ), (y1 , y2 )i = x2 y1 y2 + x1 y2 .
Em R3 :
(f) h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x1 y1 + x2 y2 + x3 y3 .
(g) h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x1 y1 + 2x1 y2 + x2 y2 + 3x1 y3 + x2 y3 + x3 y3 .
(h) h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = x3 x1 y2 + x1 y2 .
E6.2 Determine um produto interno de R2 tal que h(1, 0), (0, 1)i = 2. Será único?
E6.3 Usando o produto interno usual e os vectores u = (1, 1, 2, 2) e v = (−2, −2, −1, −1),
calcule:
u
||, (f) projv u, (g) proju v, (h)
(a) ||u||, (b) ||v||, (c) ||u|| − ||v||, (d) ||u − v||, (e) || ||u||
](u, v).
Ortogonalização de Gram-Schmidt
E6.4 Usando o produto interno usual, verifique quais dos seguintes conjuntos constituem
uma base ortogonal de R3 .
(a) {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, (b) {(1, 1, 1), (−2, 1, 1), (0, −1, −1)},
(c) {(1, 1, 1), (−2, 1, 1), (0, 1, −1)},
(d) {(1, 1, 1), (−2, 1, 1)} (f) {(0, 0, 0), (1, 1, 1), (−2, 1, 1)}.
E6.5 Determine uma base ortogonal para cada espaço linear E que se segue.
(a) E = R2 (b) E = {(x, y) : x + y = 0} (c) E = L({(1, −1, 1), (−2, 2, 2), (1, 1, 1)})
(d) E = {(x, y, z) ∈ R3 : x+y = 0}
(e) E = L({(1, 1, 1, 1, 1), (1, 0, 1, 0, 1), (0, 0, 0, 1, 1)}.
(f) E = {(x, y, z, w) ∈ R4 : x + y + z + w = 0, z − 2w = 0}.
E6.6 Considere o produto interno em R2 definido como se segue:
2 0
y1
h(x1 , x2 ), (y1 , y2 )i = x1 x2
.
0 3
y2
(a) Verifique se os vectores u1 = (1, 1) e u2 = (1, −1) são ortogonais para este produto
interno.
(b) Use o processo de ortogonalização de Gram-Schmidt para encontar uma base ortogonal
de R2 usando os vectores u1 e u2 de (a).
Complementos e projecções ortogonais; equações cartesianas de
planos e rectas
E6.7 Considere R3 munido com o produto interno usual e F = L({u1 }) onde u1 = (1, 1, 1).
(a) Determine uma base ortonormada para F .
91
(b) Determine uma base para o complemento ortogonal F ⊥ de F .
(c) Determine uma base ortonormal para o complemento ortogonal de F , i.e. base ortonormal
para F ⊥ .
E6.8 Seja F = {(x, y, z, w) ∈ R4 : x + y + z + w = 0, z − 2w = 0}.
(a) Determine uma base para o complemento ortogonal de F .
(b) Determine uma base ortogonal para o complemento ortogonal de F .
E6.9 Considere R4 munido com o produto interno usual e F = {(x, y, z, w) ∈ R4 : x−y = 0}.
(a) Calcule uma base ortogonal para F ⊥ .
(b) Determine a projecção ortogonal de p = (1, 1, 1, 1) sobre F e sobre F ⊥ .
(c) Calcule d(p, F ) e d(p, F ⊥ ).
E6.10 Seja F = {(x1 , x2 , ..., x100 ) ∈ R100 : x1 + x2 + ... + x100 = 0}.
(a) Calcule dim(F ) e dim(F ⊥ ).
(b) Seja p = (1, 2, 3, ..., 99, 100) ∈ R100 . Calcule a diatância entre p e F ⊥ .
E6.11 Seja W o plano de R3 definido pela equação x − 2y + z = 0.
(a) Determine a(s) equações (cartesianas) da recta perpendicular a W que passa pelo ponto
p = (1, 0, 0).
(b) Determine a equação cartesiana do plano paralelo a W que passa no ponto p = (1, 0, 0).
E6.12 Considere a recta (1, 1, 1) + L({(1, 2, 3)}). Encontre equações cartesianas desta recta.
E6.13 Seja P o plano tal que (−1, 0, 4), (1, −4, −2), (1, 0, 6) ∈ P.
(a) Determine a equação cartesiana de P.
(b) Determine as equações paramétrica de P.
(c) Determine as equação vectorial de P.
(d) Determine a equação cartesiana do plano paralelo a P e que passa em (1, 1, 1).
E6.14 Seja p + F um k-plano em Rn . Prove que p + F é um subespaço linear de Rn se e só
se p ∈ F .
E6.15 Considere em R4 o produto interno usual.
(a) Determine uma base para o complemento ortogonal E ⊥ de E = L({(1, 0, 0, 0), (1, 0, 0, 1)}).
E uma base ortogonal para E ⊥ .
(b) Determine uma base para o complemento ortogonal de N ( 1 1 1 1 ).
(c) Calcule o ângulo entre v = (1, 1, 1, 1) e w = (1, 0, 0, 0).


0 0 0 0
E6.16 Determine uma base para o complemento ortogonal de N (1 0 0 1).
2 0 0 2
E6.17 Considere a estrutura de espaço euclidiano em P2 induzida pelo produto interno
Z 1
hp, qi =
p(t)q(t) d(t).
−1
(a) Determine uma base ortogonal de P3 usando o processo de Gram-Schmidt aplicado à
base canónica.
(b) Calcule uma base para U ⊥ , onde U = {p ∈ P2 : p(1) = 0}.
(c) Calcule d(p, U ⊥ ), com p(t) = 2t.
92
E6.18 No espaço linear E = M2×2 (R) considere o produto interno
hA, Bi = tr(AB t ),
x y
e o subespaço linear F = {
∈ M2×2 (R) : x + w = 0, y − z = 0}.
z w
(a) Encontre uma base para F .
(b) Encontre uma base para F⊥ .
0 1
(c) Calcule d(A, F ) onde A =
.
1 0
E6.19 Considere o espaço linear R3 munido com o produto interno
h(x1 , x2 , x3 ), (y1 , y2 , y3 )i = 2x1 y1 + x1 y3 + 2x2 y2 + x3 y1 + 2x3 y3
e V = L({(1, 1, 0), (1, 0, −2)}) o subespaço linear de R3 gerado pelos vectores (1, 1, 0), (1, 0, −2).
(a) Determine u ∈ V e v ∈ V ⊥ tais que (1, 1, 1) = u + v.
(b) Calcule a distância entre (1, 1, 1) e V .
E6.20 Considere o espaço linear R3 munido com o produto interno usual e V = L({(1, 1, 0), (1, 0, −2)}).
(a) Determine u ∈ V e v ∈ V ⊥ tais que (1, 1, 1) = u + v.
(b) Calcule a distância entre (1, 1, 1) e V .
E6.21 Sejam u = (4, 3, 7), v = (2, 5, −3) ∈ R3 . Determine os produtos externos u × v, v × u,
u × u e v × v.
E6.22 Calcule a área do triângulo de vértices u, v, w, com u = (0, 1, 1), v = (2, 0, −1) e
w = (3, 4, 0).
E6.23 Prove que ||u × v||2 = hu, uihv, vi − hu, vi2 .
E6.24 Dado v ∈ R3 , seja T : R3 → R3 definida por T (u) = u × v. Será T uma transformação
linear? Nesse caso, determine a representação matricial de T na base canónica.
Diagonalização ortogonal
E6.25 Para cada aplicação h, i : Rn × Rn → R definido no Problema 6.1, determine uma
matriz A tal que hu, vi = uAv T .
(a) Em que casos é esta matriz A é simétrica e tem todos os valores próprios estritamento
positivos? Compare esta resposta com a solução do Problema 6.1.
E6.26 Das seguintes matrizes indique as que são as matrizes hermiteanas:
√
1 2
1 2
1 i
i i
,
,
,
,
onde i = −1.
2 3
−2 3
−i 3
−i 3
E6.27 Seja A ∈ Mn×n (R).
(a) Usando o produto interno usual, prove que hAu, vi = hu, AT vi para quaisquer u, v ∈ Rn ,
(u e v escritos como vectores verticais).
(b) Se a matriz A fôr ortogonal, prove que ||Au|| = ||u||, para qualquer u ∈ Rn .
93
E6.28 Seja T : Cn → Cn transformação linear do espaço euclidiano Cn e T ∗ a transformação
definida usando a equação hT (u), vi = hu, T ∗ (v)i, u, v ∈ Cn .
(a) Calcule T ∗ (vi ), onde vi = (0, ..., 0, 1, 0..., 0) é o vector i da base canónica de Cn .
(b) Fixando uma base B de Rn , será que M (T ∗ ; B; B) = A∗ onde A = M (T ; B; B)?
(c) Se λ for valor próprio de T , então λ é valor próprio de T ∗ ?
E6.29 Seja A ∈ Mn×n (C) e A∗ a matriz transconjudada de A cuja entrada (i, j) é āji o
complexo conjugado da entrada (j,i) de A.
(a) Usando o produto interno usual de Cn , prove que hAu, vi = hu, A∗ vi para quaisquer
u, v ∈ Cn .
(b) Se A fôr uma matriz unitária, então prove que ||Au|| = ||u||, para qualquer u ∈ Cn .
E6.30 Considere as seguintes matrizes reais






0 0 0
1 0 1
1 1 1
A =  0 0 1 , B =  2 0 2 , C =  1 1 1 .
10 −4 4
3 0 3
1 1 1
a) Indique as matrizes normais (isto é verifique se AAT = AT A, etc.) e as matrizes simétricas.
b) Identifique as matrizes X ∈ {A, B, C} diagonalizáveis, construindo para cada X uma
matriz P −1 tal que D = P XP −1 (onde D é uma matriz diagonal).
c) Identifique as matrizes diagonalizáveis através de um sistema de coordenadas ortonormais,
e para cada matriz X nessa situação, construa uma matriz ortogonal Q tal que D = QXQT .
E6.31 Seja T : R2 → R2 uma transformação linear tal que qualquer vector (não nulo) é
vector próprio de T . Prove que existe um escalar λ tal que T = λI.
E6.32 Seja P : Rn → Rn a projecção ortogonal sobre um subespaço V de Rn de dimensão
k. Determine o polinómio caracterı́stico de P e prove que P é diagonalizável.
E6.33 Considere o espaço euclidiano Rn . Seja T : Rn → R uma transformação linear.
Mostre que existe um e um só u0 tal que T (u) = hu, u0 i, para todo o u ∈ Rn .
E6.34 (Desafio) Será que existe uma matriz A = [aij ] simétrica√10 × 10 tal que
σ A = {3d + 1, 10 − 3d, 1, 1, −1, −1, −1, −1, −1, −1}, com d = 3+2 13 e aij ∈ {0, 1, 2, 3, 4, 5}???
7
Algumas Aplicações
7.1
Formas quadráticas
Formas quadráticas é uma função Q : Rn → R que pode ser escrita na forma
Q(u) =
n
X
aij xi xj ,
com u = (x1 , ..., xn ), aij ∈ R.
i,j=1
Classificação das formas quadráticas Seja Q forma quadrática; Q é
• definida positiva se Q(u) > 0, ∀u ∈ Rn , u6= 0,
94
(6)
• definida negativa se Q(u) < 0, ∀u ∈ Rn , u6= 0,
• semidefinida positiva se Q(u) ≥ 0, ∀u ∈ Rn ,
• semidefinida negativa se Q(u) ≤ 0, ∀u ∈ Rn ,
• indefinida se existem u e v tais que Q(u) > 0 e Q(v) < 0.
A equação (6) pode ser escrita na forma Q(u) = uAuT , com A = [aij ]; mas podemos
T
T
também escrever Q(u) = u A+A
uT com a vantagem de A+A
ser uma matriz simétrica.
2
2
Exemplo: Q : R2 → R tal que Q(x1 , x2 ) = a11 x21 + a12 x1 x2 + a21 x2 x1 + a22 x22 . Temos
a12 +a21
a11 a12
x1
a11
x1
2
.
Q(x1 , x2 ) = x1 x2
= x1 x2
a12 +a21
a21 a22
x2
a22
x2
2
Teorema 7.1 Seja Q(u) = uAuT forma quadrática com A simétrica. Então:
• Q definida positiva se e só se todos os valores próprios de A forem positivos.
• Q definida negativa se e só se todos os valores próprios de A forem negativos.
• Q semidefinida positiva se e só se todos os valores prṕrios de A forem não negativos.
• Q semidefinida negativa se e só se todos os valores prṕrios de A forem não positivos.
• Q indefinida se e só se A tiver pelo menos um valor próprio positivo e outro negativo.
Supondo que A é uma matriz real e simétrica, então Q(u) = uAuT é uma forma quadrática
definida positiva se e só hu, vi = uAv T define um produto interno em Rn .
2 2
2
2
Exemplo: Seja Q(x1 , x2 ) = 2x1 + 4x1 x2 + 2x2 . Então A =
, cujos valores próprios
2 2
são λ1 = 0 e λ2 = 4. Assim, Q é uma forma quadrática semidefinida positiva.
7.2
Mı́nimos quadrados
Seja A ∈ Mm×n (R) e b ∈ Mm×1 (R). O sistema linear Ax = b é impossı́vel se e só se b 6∈ C(A)
(i.e. SAx=b = ∅).
Vamos procurar vectores b
x que tornem mı́nima a distância entre Ab
x e b, isto é ||Ab
x − b|| =
minx {||Ax − b||}. Dizemos que tal b
x é uma solução de mı́nimos quadrados associado aos
sistema linear Ax = b.
Assim, ||Ab
x − b|| ≤ ||Ax − b|| para todo x; Ab
x − b o vector erro e ||Ab
x − b|| erro de mı́nimos
quadrados.
Claro que Ax ∈ C(A) para todo o x, pelo que ||Ax − b|| é minimizado se
Ax = projC (b),
(7)
onde projC (b) designa a projecção ortogonal de b sobre C(A). Temos Ax = projC (b) é sempre
um sistema possı́vel e as suas soluções são as soluções de mı́nimos quadrados do sistema
inicial Ax = b.
95
Teorema 7.2 • b
x solução de mı́nimos quadrados de Ax = b sse b
x é solução do sistema linear
Ax = projC (b).
• Existe uma única solução de mńimos quadrados do sistema Ax = b sse car(A) = n.
• Como resolver o sistema linear (7)?
Podemos usar a decomposição b = projC(A) (b) + projC(A)⊥ (b) (note que C(A)⊥ = L⊥
AT =
T
N (A )) e concluir que
Teorema 7.3 b
x uma solução do sistema linear Ax = projC (b) sse b
x é uma solução do sistema
linear (AT A)b
x = AT b.
A equação (AT A)b
x = AT b é designada por equação normal.
Teorema 7.4 • N (A) = N (AT A).
• SAT Abx=AT b 6= ∅, SAx=b ⊂ SAT Abx=AT b .
• Se SAx=b 6= ∅, então SAx=b = SAT Abx=AT b .
• Se car(A) = n, b
x = (AT A)−1 AT b é a única solução da equação normal AT Ab
x = AT b.
1
2
1
Exemplo: Sejam A=
, b=
. O sistema linear Ax = b é impossı́vel. Por
−2 −4
2
outro lado car(A) 6= 2 pelo que a solução de mı́nimos quadrados não é única. Podemos
verificar isso mesmo, determinando
solução de AT Ab
x = AT b. Calculando temos
o conjunto
−3 −6
−3
AT A =
e AT b =
, pelo que o conjunto solução de AT Ab
x = AT b é
−6 −12
−6
{(x, y) ∈ R2 : x + 3y = 1} (o conjunto solução de mı́nimos quadrádros de Ax = b).
• Ajusto de curvas a uma tabela
Pretende-se encontrar uma função y = f (x) que se ajuste a um conjunto de dados experimentais (p.e. em R2 )
P1 = (x1 , y1 ), P2 = (x2 , y2 ), ..., Pn = (xn , yn )
da melhor maneira possı́vel.
Modelo Linear: Seja R a recta y = α
 + βx

α + βx1 = y1


 α + βx2 = y2
Para Pi ∈ R temos o sistema linear
..

.


 α + βx = y
n
n




1 x1
y1
 .. 
 .. .. 
A= . . , b= .  .
1 xn
yn
96
nas variáveis α, β, para o qual
Se Pi 6∈ R para algum i, então o sistema linear é impossı́vel. Nesse caso, procuramos a recta
que melhor se aproxima dos pontos, cuja solução é
α
b
x=
= (AT A)−1 AT b.
β




1 1
3/2
Exemplo: Sejam P1 = (1, 3/2), P2 = (2, 1/2), P3 = (3, 3). Assim A= 1 2 , b= 1/2 ,
1 3
3
1/6
cuja solução é (AT A)−1 AT b =
e a recta pretendida é: y = 16 + 34 x.
3/4
Modelo quadrático: y =

1
 ..
originando o sistema  .
α + βx + γx2 ,
  
x1 x21
α
..
..   β  = 

.
. 
2
γ
1 xn xn
7.3

y1
..  nas variáveis α, β, γ.
. 
yn
Equações diferenciais ordinárias
• Se f : R → R é solução da equação diferencial f 0 (t) = λf (t) (com λ escalar fixo), então
existe um escalar c tal que f (t) = c eλt .
• Considere funções x1 (t), x2 (t), · · · , xn (t) diferenciáveis na variável real t. O sistema da
forma

a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) = x01 (t)



a21 x1 (t) + a22 x2 (t) + ... + a2n xn (t) = x02 (t)
(8)
...



am1 x1 (t) + am2 x2 (t) + ... + amn xn (t) = x0m (t)
chama-se sistema linear de equações diferenciais de primeira ordem, em que aij é uma constante e x0i (t) designa a derivada de xi (t) (i = 1, ..., m, j = 1, ..., n).
O sistema (8) pode escrever-se na forma matricial: x0 (t) = Ax(t) onde A = [aij ] ∈
Mn×n (R),




x1 (t)
x01 (t)
 x2 (t) 
 x0 (t) 


 2

x(t) =  ..  ,
x0 (t) =  ..  .
 . 
 . 
x0n (t)
xn (t)
• Resolução de x0 = Ax com A diagonalizável
Se a matriz A = [aij ] ∈ Mn×n (R) é diagonalizável, para resolver x0 (t) = Ax(t) em
primeiro lugar encontra-se uma matriz mudança de base
S −1 = SBvp
S = SBc→Bvp ,
→Bc
onde Bvp = {v1 , v2 , · · · , vn } é uma base de Rn formada por vectores próprios de A tal que
o valor próprio associado a vi é λi , i = 1, 2, · · · , n, Bc é a base canónica de Rn e matriz
diagonal
D = diag(λ1 , λ2 , · · · , λn )
(formada pelos valores próprios de A) tais que D = SAS −1 . Depois, usa-se a mudança de
variável Sy = x e e transforma-se o sistema x0 = Ax no sistema y 0 (t) = Dy(t) com as funções
97



separadas, cuja solução geral é y(t) = 

c1 e λ 1 t
c2 e λ 2 t
..
.



 onde λ1 , · · · , λn são os valores próprios de

cn e λ n t
0
A e c1 , · · · , cn são constantes. Finalmente, a solução geraldo sistema
 inicial x (t) = Ax(t) é

 c1 eλ1 t
..
|
.
|
λ2 t 


  c2 e

−1
x(t) = S y(t) =  v1 · · · vn  

..


.
..
|
.
|
λn t
cn e
0
0
−1
0
porque x (t) = Ax(t) ⇐⇒ x (t) = S DSx(t) ⇐⇒ Sx (t) = DSx(t) ⇐⇒ y 0 (t) = Dy(t).
Exemplo: Vamos determinar a solução geral do seguinte sistema de equações diferenciais:
2x1 (t) + x2 (t) = x01 (t)
(9)
−2x1 (t) + 5x2 (t) = x02 (t)
2 1
Claro que A =
, cujas valores próprios são λ1 = 3 e λ2 = 4, pelo que A é
−2 5
diagonalizável, {(1, 1)} é uma base para o espaço próprio para Eλ1 e {(1, 2)} é uma base
para o espaço próprio para Eλ1 . Assim,
3 0
1 1
−1
D=
,
S =
0 4
1 2
e portanto a solução geral do sistema de equações diferenciais (9) é
x1 (t)
c1 e2t
1 1
c1 e2t
c1 e2t + c2 e4t
−1
x(t) =
=S
=
=
.
x2 (t)
c2 e4t
1 2
c2 e4t
c1 e2t + 2c2 e4t
Vamos calcular a única solução de (9) sujeita às condições iniciais x1 (0) = 1, x2 (0) = −1.
Ora (x1 (0), x2 (0)) = (c1 + c2 , c1 + 2c2 ), pelo que c1 = 3c2 = −2 e a única soluçã de (9) é
(x1 (t), x2 (t)) = (3e2t − 2e4t , 3e2t − 4e4t ).
7.3.1
Um processo de difusão
Considere 2 células adjacentes separadas por uma membrana permeável e suponha que um
fluı́do passa da 1a célula para a 2a a uma taxa (em mililitros por minutos) numericamente
igual a 3 vezes o volume (em mililitros) do fluı́do na 1a célula. Em seguida, passa da 2a
célula para a 1a a uma taxa numericamente igual a 2 vezes o volume do fluı́do na 2a célula.
Vamos representar por x1 (t) e x2 (t) os volumes do fluı́do na 1a e 2a células, respectivamente,
no instante t. Suponhamos que, inicialmente i.e. t = 0, a primeira célula tem 40 ml de fluı́do,
enquanto que 2a tem 5 ml.
Vamos determinar o volume de fluı́do em cada célula no instante t.
Solução A variação e volume de fluı́do em cada célula é a diferença entre a quantidade
que entra e a quantidade que sai. Como nenhum fluı́do entra na primeira célula, temos:
dx1 (t)
= −3x1 (t),
dt
onde o sinal de menos indica que o fluı́do sai da célula. O fluxo 3x1 (t) sai da 1a célula e
entra na 2a . O fluxo que sai da 2a célula é de 2x2 (t). Logo a variação no volume na 2a célula
é dada por
98
dx2 (t)
= 3x1 (t) − 2x2 (t).
dt
Obtém-se assim o seguinte sistema de equações diferenciais de 1a ordem:
−3x1 (t) = x01 (t)
,
3x1 (t) − 2x2 (t) = x02 (t)
0
−3 0
x1 (t)
x1 (t)
=
que pode ser escrito na forma matricial como:
0
3 −2
x2 (t)
x2 (t)
−3 0
Os valores próprios da matriz A =
são λ1 = −3 e λ2 = −2. A matriz A
3 −2
é uma diagonalizável onde {(1, −3)} é uma base para o espaço próprio Eλ1 , enquanto que
{(0, 1)} é uma base para o espaço próprio Eλ2 . Portanto a solução geral do sistema de
equações diferenciais acima descrito é:
x1 (t)
1 0
k1 e−3t
1
0
−3t
=
= k1
e + k2
e−2t .
−2t
x2 (t)
−3 1
k2 e
−3
1
Usando as condições iniciais x1 (0) = 40 e x2 (0) = 5 concluı́mos que
k1 = 40, −3k1 + k2 = 5, pelo que k1 = 40 e k2 = 125.
Portanto, o volume de fluido em cada célula no instante t é dado por:
x1 (t) = 40e−3t ,
7.4
x2 (t) = −120e−3t + 125e−2t .
Genes ligados ao sexo
A cegueira para as cores, ou daltonismo, é uma alteração hereditária cujo mecanismo de
transmissão só foi compreendido em 1910 (após os estudos de hereditariedade ligado so
sexo em diversos animais: aves, borboletas e drasófilas). Sabe-se actualmente que os genes
relacionados com determinação deste carácter encontra-se no cromossoma X e que o gene
para a visão normal é dominante sobre o alelo que determina o daltonismo.
Desta forma, compreende-se que a transmissão desta caracterı́stica obedeça às seguintes
regras:
• do casamento de um homem daltónico com uma mulher normal, resultem filhas normais
e filhos daltónico;
• do casamento de uma mulher daltónica com um homem normal, resultem filhas normais
e filhos daltónicos;
• as filhas de pai daltónico são sempre portadoras do daltonismo apesar de fenotipicamente normais.
Este tipo de herança resulta do facto de o homem receber o cromossoma X da mãe e
nunca o transmitir aos filhos homens. Por outro lado, as mulheres herdam um cromossoma
X da mãe e outro cromossoma X do pai.
Pelo que para encontrar um modelo matemático que descreva o daltonismo numa pop(0)
ulação, é necessário dividir a população em duas classes, homens e mulheres. Seja xm a
(0)
proporção de genes para o daltonismo na população masculina e seja xf a propoção femi(1)
nina. Como os homens recebem um cromossoma X da mãe e nenhum do pai, a proporção xm
99
de homens daltónicos na próxima geração será a mesma que a proporção de genes recessivos
na geração actual das mulheres. Como as mulheres recebem um cromossoma X da mãe e
(1)
outro do pai, a proporção xf de genes recessivos na próxima geração de mulheres será a
(0)
(0)
média entre xm e xf . Assim, temos:
1 (0) 1 (0)
(1)
x + xf = xf .
2 m
2
(0)
xf = x(1)
m ,
(0)
(0)
Se xf = xm então a proporção vai manter-se na próxima geração. Vamos então supor que
(0)
(0)
xf 6= xm e escrever o sistema na forma matricial
" (0) # " (1) #
xm
xm
0 1
=
.
1
1
(0)
(1)
xf
xf
2
2
"
#
(n)
x
m
Vamos designar por A a matriz dos coeficientes do sistema e por x(n) =
a proporção
(n)
xf
de genes para nas populações masculinas e femininas da (n + 1)-ésima geração. Então:
x(n) = An x(0) .
Para calcular An vamos provar que a matriz A é diagonalizável e construir matriz mudança
de base S e matriz diagonal D, tais que D = SAS −1 . Logo A = S −1 DS e portanto
An =
1 0
.
S −1 Dn S. Ora λ1 = 1 e λ2 = −1/2 são os valores próprios de A, pelo que D =
0 − 21
Além disso (1, 1) é vector próprio associado a λ1 e o (−2, 1) é vector próprio associado a λ2 ,
pelo que
1 2 1 −2
−1
3
3
S =
, S=
.
− 13 31
1 1
Logo,
x(n) =
1 −2
1 1
1 0
0 − 12
n 1
3
2
3
1
3
− 13
"
(0)
xm
(0)
xf
#
=
1
3
1 − (− 12 )n−1
1 − (− 12 )n
2 + (− 21 )n−1
2 + (− 21 )n
"
(0)
xm
(0)
xf
assim,
lim x(n) =
n→∞
1
3
1 2
1 2
"
(0)
xm
(0)
xf
#

=
(0)
(0)
xm +2xf
3
(0)
(0)
xm +2xf
3

.
Conclusão: as propoções de genes para o daltonismo nas populações masculina e feminina
vão tender para o mesmo valor quando o número de geraçõs cresce: se a proporção de homens
daltónicos for p ≤ 1 e se durante um certo número de gerações nenhuma pessoa de fora entrou
na população, justifica-se então supor que a proporção de daltonismo na população feminina
também é p.
Ora como o daltonismo é recessivo, esperarı́amos que a propoção de mulheres daltónicas
fosse da ordem p2 , o que este modelo matemático não confirma!
7.5
Redes e grafos
A teoria de grafos é uma das áreas importantes da matemática aplicada. É usada para
modelar problemas em praticamente todas as ciências aplicadas. A teoria de grafos é particularmente útil em aplicações envolvendo redes de comunicação.
100
#
;
Um grafo (não orientado) G é definido como um conjunto de pontos chamados vértices
junto com um conjunto pares não ordenados de vértices chamados de arestas. Obviamente
que podemos representar o grafo G geometricamente onde cada vértice Vi corresponde a
nós numa rede de comunicação. Os segmentos de recta unindo os vértices correspondem às
arestas. Numa rede, cada aresta representa um elo de comunicação directo entre dois nós
da rede. Uma rede de comunicação verdadeira pode envolver um grande número de vértices
e arestas, pelo que uma representaçãp gráfica da rede seria muito confusa. Uma alternativa
é usar uma representação matricial para a rede. Se o grafo contém um total de n vértices,
então a matriz A = [aij ] ∈ Mn×n de adjacência do grafo é definida da seguinte maneira:
1 se {vi , vj } é uma aresta de G
aij =
,
0 caso contrário
Observe que a matriz A é simétrica A = AT , por definição. Podemos pensar num caminho
no grafo G como uma sequência de arestas unindo vértices. Dizemos que o caminho tem
comprimento k se o caminho for a sequência de k arestas em G. (Incluir um grafo para
ilustrar o texto)
Problema: determinar os caminhos de comprimento k.
(k)
Teorema 7.5 Seja A matriz de adjacência de um grafo G e aij a entrada (i, j) da matriz
(k)
Ak . Então aij é o número de caminhos de comprimento k do vértice vi a vj .
Demontração: Aplicar indução matemática em k. No caso k = 1 segue da definição de
matriz de adjacência que aij é o número de caminhos de comprimento 1 entre os vértices vi
e vj .
(k)
Vamos agora supor que aij é o número de caminhos de comprimento k entre os vértices
(k+1)
é o número de caminhos de comprimento k + 1 entre
vi e vj . Queremos provar que aij
(k)
os vértices vi e vj . Ora se existe uma aresta entre vl e vj , então ail alj = ail é o número de
caminhos de comprimento k + 1 entre vi e vj da forma
vi → · · · → vl → vj .
Temos então que o número total de caminhos de comprimento k + 1 entre vi e vj é dado por
(k)
(k)
(k)
ai1 a1j + ai2 a2j + · · · ain anj .
Mas isto é por definição de produto matricial a entra (i, j) de Ak+1 , c.q.d.
Como A é uma matriz simétrica, A é diagonalizável, pelo que os valores próprios fornecem
a diagonal da matriz diagonal D, a determinação de bases para os espaços próprios fornecem
as colunas para a matriz S −1 , pelo que S = (S −1 )−1 . Mais D = SAS −1 , donde
Ak = S −1 Dk S.
Uma vez que A é simétrica podemos escolher as bases dos espaços próprios de tal forma que
a matriz S seja ortogonal S −1 = S T (ver aulas teóricas anteriores).
Note que no mesmo gráfo não orientado G podemos definir outra matriz A0 = [a0ij ] como
sendo
s se {vi , vj } estão ligados por s arestas
0
aij =
,
0 caso contrário
Problema: verifique a validade do teorema anterior!
101


1 1 1
Exemplo 7.6 a) Esboce o grafo cuja matriz de adjacência é A =  1 1 1 .
1 1 1
T
b) Determine uma matriz ortogonal Q tal que QAQ seja uma matriz diagonal.
c) Calcule o número de caminhos de comprimento 10 entre dois vértices diferentes (à sua
escolha) do grafo de a).
Grafos orientados
Refaça a secção anterior para grafos orientados. Conhecem-se aplicações destes grafos à
Sociologia, Telecomunicações etc.
Note que nestes grafos, em geral, a matriz que lhe está associada não é simétrica uma vez
que, p.ex., pode haver uma aresta do vértice vi para o vértice vj , mas não haver nenhuma
aresta de vj para vi .
7.6
Exercı́cios
Formas quadráticas
E7.1 Classificar as seguintes formas quadráticas, em definids positivas, definidas negativas,
semidefinidas positivas, semidefinidas negativas ou indefinidas:
(a) Q(x, y) = x2 + y 2 + 2xy (b) Q(x, y) = 2x2 + 2y 2 + 2xy (c) Q(x, y) = −3x2 + 2yx − 2y 2 .
(d) Q(x, y, z) = x2 + y 2 + 3z 2 + 4yx.



3 0 0 0
x
 0 1 α 0  y 


(e) Q(x, y, z, w) = x y z w 
 0 α 2 0   z , onde α é um parâmetro.
0 0 0 7
w
E7.2 Seja A uma matriz real simétrica n × n. Prove que A2 é definida positiva se e só se A
for invertı́vel.
Mı́nimos quadradros




4 1
10
−2
−1
ev=
.
E7.3 Seja A =  3 −1  , b =  2  , u =
3
1
4 1
2
(a) Calcule Au e Av e compare estes vectores com b.
(b) Diga se u pode ser uma solução de mı́nimos quadrados para a equação Ax = b.
(c) Determine o sistema normal associado AT Ax = AT b e determine a(s) suas soluções.
Compare com (b).
E7.4 Determine todas as soluções de mı́nimos quadrados
para

 a equação
  Ax = b:




1 1 0
3
1 1
7
 1 1 0 
 1 

 
(a) A =  −1 1  , b =  0 .
(b) A = 
 1 0 1  , b =  2 .
−1 2
−7
1 0 1
4
E7.5 Um produtor de aço obteve os seguintes dados:
Ano
1997 1998 1999 2000 2001 2002
vendas anuais (em milhões de euros) 1, 2 2, 3 3, 2 3, 6 3, 8 5, 1
102
Vamos representar os anos de 1997 a 2002 por 0, 1, 2, 3, 4, 5, respectivamente, e representar
o ano por x. Seja y a venda anual (em milhões de euros).
(a) Encontre a recta de mı́nimos quadrados relacionando x e y.
(b) Use a equação obtida em (a) para estimar as vendas no ano de 2006.
E7.6 Seja A uma matriz cujas colunas são linearmente independentes e b um vector ortogonal
a todas as colunas de A. Prove que a única solução de mı́nimos quadrados de Ax = b é x = 0.
3


1 1
2
E7.7 Considere as matrizes A = 1 2 e b =  12 .
1 3
3
(a) Verifique que o sistema Ax = b é impossı́vel.
(b) Determine todas as soluções de mı́nimos quadrados associadas ao sistema Ax = b.
(c) Foi observado que os lucros obtidos nas 3 primeiras semanas pela venda de um automóvel
na União Europeia foram:
Semana
1
2 3
Lucros (em milhões de euros) 1, 5 0, 5 3
Vamos representar as semanas por x e o lucro semanal por y. Encontre a recta y = α +βx de
mı́nimos quadrados relacionando x e y. Use a recta obtida para estimar os lucros na semana
6.
Equações diferenciais ordinárias
E7.8 Das funções y1 (t) = e2t , y2 (t) = e2t + π, y3 (t) = πe2t , y4 (t) = e2t+π quais são soluções
da equação diferencial y 0 (t) = 2y(t)?
E7.9 Determine a solução geral dos seguintes sistemas 
de quações diferenciais.
0
0
 y10 = 3y1 + 2y2
y1 = 3y1 + y2
y1 = 3y1 + 2y2
y 0 = y1 + y2
(a)
, (b)
,
(c)
.
y20 = 5y1 + y2
y20 = y1 + y2
 20
y3 = y2 − y3
E7.10 Para cada um dos sistemas do Problema anterior determinte a solução que verifica as
condições
(a) y1 (0) = 0 e y2 (0) = 0 (b) y1 (0) = 2 e y2 (0) = 1 (c) y1 (0) = −1, y2 (0) = 1 e y3 (0) = 0.
2 1
E7.11 (a) Mostre que a matriz A =
é diagonalizável, indicando uma matriz
−2 5
diagonal D e matriz mudança de base P −1 tais que D = P AP −1 .
(b) Encontre a única solução do seguinte sistema de equações diferenciais:
2y1 (t) + y2 (t) = y10 (t)
−2y1 (t) + 5y2 (t) = y20 (t)
com as condições y1 (0) = 1, y2 (0) = −1.
 0
 y1 = y1 + 2y2
y 0 = 3y2
E7.12 Considere o seguinte sistema de equações diferenciais:
 2
y1 (0) = 8 e y2 (0) = 5.
A solução deste sistema é:
A) y1 (t) = 3et + 5e3t , y2 (t) = 5e3t
B) y1 (t) = 8et , y2 (t) = 5e3t
C) y1 (t) = 3e3t + 5et , y2 (t) = 5et
D) y1 (t) = 3et + 5e2t , y2 (t) = 5e3t .
103
E7.13 Determine o conjunto de todas as soluções do seguinte sistema de equações diferenciais
de 1a ordem:
−3y1 (t) = y10 (t)
3y1 (t) − 2y2 (t) = y20 (t)
(a) Usando as condições iniciais y1 (0) = 40 e y2 (0) = 5, verifique que
y1 (t) = 40e−3t ,
y2 (t) = −120e−3t + 125e−2t ,
é a (única) solução do sistema de equações diferenciais descrito anteriormente.
104
Download

Paulo R. Pinto