Capítulo 4
TRANSFORMAÇÕES
LINEARES
Denição 156 Sejam Y e Z dois espaços vetoriais. Uma Transformação Linear (aplicação linear) é uma função de Y em Z> W : Y $ Z> que satisfaz as
seguintes condições:
• Qualquer que sejam x e y em Y ,
W (x + y) = W (x) + W (y)
• Qualquer que sejam n 5 R e y em Y ,
W (ny) = nW (y)
Exemplo 157 : Um agricultor planta e comercializa três tipos de verduras:
Tomate, Batata, Cenoura. Sejam {1 > {2 > {3 as quantidades em quilos de Tomate, Batata, Cenoura respectivamente. Se o agricultor vende o quilo do tomate a U$ 2> 00>da batata a U$ 1> 50 e da cenoura a U$ 1> 90 então o total de
vendas (WY ) é dado por 2{1 + 1> 5{2 + 1> 9{3 . A aplicação que a cada tripla
({1 > {2 > {3 ) 5 R3 associa o total de vendas WY ({1 > {2 > {3 ) é uma aplicação linear.
Matematicamente temos uma transformação linear do E.V R3 no E.V R :
WY : R3 $ R
WY ({1 > {2 > {3 ) = 2{1 + 1> 5{2 + 1> 9{3
Vamos agora mostrar que de fato esta aplicação é uma transformação linear
Chamando x = ({1 > {2 > {3 ) 5 R3 > y = (|1 > |2 > |3 ) 5 R3 e n 5 R temos:
125
i)
WY (x + y) =
=
=
=
=
WY (({1 > {2 > {3 ) + (|1 > |2 > |3 ))
WY ({1 + |1 > {2 + |2 > {3 + |3 )
2({1 + |1 ) + 1> 5({2 + |2 ) + 1> 9({3 + |3 )
2{1 + 1> 5{2 + 1> 9{3 + 2|1 + 1> 5|2 + 1> 9|3
(2{1 + 1> 5{2 + 1> 9{3 ) + (2|1 + 1> 5|2 + 1> 9|3 )
WY (x) = W ({1 > {2 > {3 ) = 2{1 + 1> 5{2 + 1> 9{3
WY (y) = W (|1 > |2 > |3 ) = 2|1 + 1> 5|2 + 1> 9|3
WY (x) + WY (y) = (2{1 + 1> 5{2 + 1> 9{3 ) + (2|1 + 1> 5|2 + 1> 9|3 )
Logo WY (x + y) = WY (x) + WY (y)=
ii)
WY (nx) =
=
=
=
=
WY (n({1 > {2 > {3 ))
WY (n{1 > n{2 > n{3 )
2n{1 + 1> 5n{2 + 1> 9n{3
n (2{1 + 1> 5{2 + 1> 9{3 )
nW (x)
Logo WY (nx) = nWY (x)= De i) e ii) vemos que WY é uma transformação linear.
Exemplo 158 . Sejam Y = R> Z = R e I : R $ R dado I (x) = x2 . A
aplicação I não é uma transformação linear pois:
I (x + y) = (x + y)2 = x2 + 2xy + y2
I (x) + I (y) = x2 + y2
I (x + y) 6= I (x) + I (y)
Exemplo 159 W : R2 $ R3 > W ({> |) = (2{> 0> { + |)
T é uma transformação linear pois,
i)
W (x + y) =
=
=
=
=
=
W (({1 > |1 ) + ({2 > |2 ))
W ({1 + {2 > |1 + |2 )
(2({1 + {2 )> 0> ({1 + {2 ) + (|1 + |2 ))
(2{1 + 2{2 > 0 + 0> ({1 + |1 ) + ({2 + |2 ))
(2{1 > 0> {1 + |1 ) > (2{2 > 0> {2 + |2 )
W (x) + W (y)
126
ii)
W (nx) =
=
=
=
W (n({1 > |1 ))
W (n{1 > n|1 )
(2n{1 > 0> n{1 + n|1 )
n (2{1 > 0> {1 + |1 )
nW (x)
Portanto W é uma transformação linear.
Exemplo 160 . Y = Z = Sq e
G : Sq $ Sq1
G(i ) = i 0
a aplicação derivada que a cada polinômio associa sua derivada, a qual também
é um polinômio é uma aplicação linear. De fato, para quaisquer i> j 5 Sq e
n 5 R>
i)
0
G(i + j) = (i + j)
= i 0 + j0
= G(i ) + G(j)
ii)
G(ni ) = (ni )0
= ni 0
= nG(i )
Exemplo 161 Y = Sq > Z = Sq+1 > s({) = d0 + d1 { + d2 {2 + = = = + dq {q
W : Sq $ Sq+1
W (s({)) = {s({) = d0 { + d1 {2 + d2 {3 + = = = + dq {q+1
A aplicação W é uma transformação linear pois
W (ns) = {(ns)({) = {ns({) = n{s({) = nW (s)
W (s + t) = {(s + t)({) = {(s({) + t({)) = {s({) + {t({) = W (s) + W (t)
Exemplo 162 Y = Z = Sq , s({) = d0 + d1 { + d2 {2 + = = = + dq {q > d> e 5 R e
W : Sq $ Sq
W (s({)) = s(d{ + e) = d0 + d1 (d{ + e) + d2 (d{ + e)2 + = = = + dq (d{ + e)q
127
Esta aplicação também é linear pois,
W (ns) = (ns)(d{ + e) = ns(d{ + e) = nW (s)
W (s + t) = (s + t)(d{ + e) = s(d{ + e) + t(d{ + e) = W (s) + W (t)
Exemplo 163 Uma transformação linear inportante é aquela que se obtém
usando-se o produto escalar. Seja Rq com o produto escalar usual h=> =i e y0 5
Rq um vetor qualquer xado. Seja,
W : Rq $ R
W (y) = hy> y0 i
T é uma aplicação linear (mostre isso, use as propriedades do produto escalar)
Exemplo 164 : Sejam F(R) = {i : R $ R @ i é contínua} = Considere
M : F(R) $ R
M(i ) = i (0)
Por exemplo se i (w) = w2 então
M(i ) = i (0) = 02 = 0
M é uma aplicação linear pois, se i> j 5 F(R) e n 5 R então
M(i + j) = (i + j)(0) = i (0) + j(0) = M(i ) + M(j)
M(ni ) = (ni ) (0) = ni (0) = nM(i )
Exemplo 165 : Seja,
µ·
W
d e
f g
W
¸¶
P2 $ P2
·
¸
d+e e+f
=
f+g g+d
:
Esta aplicação é uma transformação linear, pois
µ·
W
d1
f1
e1
g1
¸
·
+
d2
f2
e2
g2
¸¶
µ·
= W
=
d1 + d2
f1 + f2
e1 + e2
g1 + g2
d1 + d2 + e1 + e2
f1 + f2 + g1 + g2
¸¶
e1 + e2 + f1 + f2
g1 + g2 + d1 + d2
d1 + e1 e1 + f1
d + e2
e2 + f2
+ 2
f1 + g1 g1 + d1
f2 + g2 g2 + d1 + d2
¸¶ µ·
¸¶
µ·
d2 e2
d1 e1
+
= W
f1 g1
f2 g2
=
128
W
µ ·
¸¶
µ ·
¸¶
d e
nd ne
n
= W n
f g
nf ng
·
¸
nd + ne ne + nf
=
nf + ng ng + nd
·
¸
d+e e+f
= n
f+g g+d
µ·
¸¶
d e
= nW
f g
Exemplo 166 : Seja,
W : Pq $ R
W (D) = det(D)
Esta aplicação não é uma transformação linear, pois, em geral
det(D1 + D2 ) 6= det(D1 ) + det(D2 )
4.1
Propriedades das Transformações Lineares
Teorema 167 Dados dois espaços vetoriais reais Y e Z e uma base de Y> =
{y1 > · · · > yq } > sejam z1 > · · · > zq elementos arbitrários de Z . Então existe uma
aplicação linear W : Y $ Z tal que W (y1 ) = z1 > · · · > W (yq ) = zq = Esta aplicação
é dada por: Se y = d1 y1 + · · · + dq yq >
W (y) = d1 W (y1 ) + · · · dq W (yq ) = d1 z1 + · · · dq zq
Exemplo 168 Qual a transformação linear W : R2 $ R3 tal que W (1> 0) =
(2> 1> 0) e W (0> 1) = (0> 0> 1)?
Solução: Temos neste caso y1 = (1> 0) e y2 = (0> 1) base de R2 e z1 =
(2> 1> 0) e z2 = (0> 0> 1)=
Dado y = ({> |) arbitrário,
y
W (y)
W (y)
W (y)
W (y)
=
=
=
=
=
{y1 + |y2
W ({y1 + |y2 )
{W (y1 ) + |W (y2 )
{(2> 1> 0) + |(0> 0> 1)
(2{> {> |)
129
Exemplo 169 Qual a transformação linear
µ·
¸¶
1 0
W
=
0 0
µ·
¸¶
0 1
W
=
0 0
µ·
¸¶
0 0
W
=
1 0
µ·
¸¶
0 0
W
=
0 1
Solução
W : P2 $ S4 tal que
{4 + {
{3 + {2
{2 + {3
{ + {4
·
d
Uma matriz D 5 P2 é da forma D =
·
¸
·
¸
·
¸ f·
d e
1 0
0 1
=d
+e
+f
f g
0 0
0 0
µ·
W
d e
f g
µ·
= dW
µ·
W
µ·
W
¸¶
1 0
0 0
d e
f g
d e
f g
¸
e
= Podemos escrever:
g
¸
·
¸
0 0
0 0
+g
, portanto
1 0
0 1
µ ·
¸
·
¸
·
¸
·
¸¶
1 0
0 1
0 0
0 0
=W d
+e
+f
+g
0 0
0 0
1 0
0 1
¸¶
¸¶
¸¶
µ·
+ eW
0 1
0 0
¸¶
µ·
+ fW
0 0
1 0
¸¶
µ·
+ gW
0 0
0 1
¸¶
¡
¢
¡
¢
¡
¢
¡
¢
= d {4 + { + e {3 + {2 + f {2 + {3 + g { + {4
= (d + g){ + (e + f){2 + (e + f){3 + (d + g){4
Denição 170 : Seja W : Y $ Z uma transformação linear. A imagem de
W é o conjunto de vetores z 5 Z tais que existe um vetor y 5 Y , que satisfaz
W (y) = z= Ou seja
Im(W ) = {z 5 Z / W (y) = z para algum y 5 Y }
Observação 171 Note que Im(W ) é um subconjunto de Z e, além disso, é um
subespaço vetorial de Z=
Exemplo 172 Seja W : R2 $ R2 a transformação linear dada por W ({> |) =
(2{ |> 10{ + |)= Qual dos vetores abaixo pertence a imagem de W
a) x = (1> 2)
b) z = (1> 2)
130
Solução: a) Para que x 5 Im(W ) deve existir algum y = ({> |) tal que
W (y) = x, ou seja, W ({> |) = (1> 2); temos então:
W ({> |) = (1> 2)
(2{ |> 10{ + |) = (1> 2)
½
2{ | = 1
10{ + | = 2
Resolvendo o sistema temos { = 38 e | = 74 > logo x pertence a imagem de W
pois W ( 38 > 74 ) = x=
b) Analogamente deve existir algum y = ({> |) tal que W (y) = z> ou seja
W ({> |) = (1> 2)
(2{ |> 10{ + |) = (1> 2)
½
2{ | = 1
10{ + | = 2
Resolvendo o sistema temos { = 18 e | =
pois W ( 18 > 34 ) = z
3
4
logo z pertence a imagem de W
Exemplo 173 Determine a imagem da transformação linear W : R3 $ R3 >
W ({> |> }) = (2{ | }> { | }> { + | })=
Solução: Se z 5 Im(W ) então z = W ({> |> })> ou seja,
z
= (2{ | }> { | }> { + | })
= {(2> 1> 1) + |(1> 1> 1) + }(1> 1> 1)
Logo todo vetor que pertence a imagem de W é gerado pelos vetores y1 =
(2> 1> 1)> y2 = (1> 1> 1) e y3 = (1> 1> 1). Podemos então escrever que
Im(W ) = [(2> 1> 1)> (1> 1> 1)> (1> 1> 1)] =
Como o conjunto = {(2> 1> 1)> (1> 1> 1)> (1> 1> 1)} é LI ( verique
isto) temos que é uma base para a Im(W )> mas é base para R3 , logo
concluimos que Im(W ) = R3 =
Denição 174 Seja W : Y $ Z> uma transformação linear. O conjunto de
$
todos os vetores y 5 Y tais que W (y) = 0 é chamado núcleo de W , sendo
denotado por Nhu(W )= Isto é,
n
$o
Nhu(W ) = y 5 Y Á W (y) = 0
Observação 175 Observe que Nhu(W ) Y é um subconjunto de Y e, ainda
mais, é um subespaço vetorial de Y= Alguns autores denotam o núcleo de W por
Q (W )=
131
$
Exemplo 176 Seja W : Y $ Z , dada por W (y) = 0 = Neste caso todo vetor de
Y é levado no vetor nulo pela transformação W> assim temos que Nhu(W ) = Y
Exemplo 177 Seja W : R3 $ R3 a projeção ortogonal sobre o plano {|=
Neste caso temos W ({> |> }) = ({> |> 0)= Se W ({> |> }) = (0> 0> 0) , ({> |> }) =
(0> 0> 0) , { = 0 e | = 0= ©Como nada é dito sobre
ª a variável }, temos que } é
qualquer, logo Nhu(W ) = (0> 0> }) 5 R3 Á } 5 R > ou seja o núcleo de W são
todos os vetores que estão sobre o eixo }=
Exemplo 178 Encontre o núcleo da transformação linear:
W : R4 $ R3
W ({> |> }> w) = ({ + | + } w> 2{ + } w> 2| w)
Solução: Devemos encontrar os vetores y = ({> |> }> w) 5 R4 tais que W (y) =
W ({> |> }> w) = (0> 0> 0> 0)= Neste caso temos que resolver o sistema homogêneo:
;
? {+|+}w=0
2{ + } w = 0
=
2| w = 0
A
6
6
5 é:
5 matriz ampliada do sistema
..
..
1 1 . 0 :
9 1 1
9 1 1 1 1 . 0 :
:
:
9
9
.
.
9 2 0 1 1 .. 0 : , 9 0 2 1 1 .. 0 :
8
8
7
7
..
..
0 0 1 0 . 0
0 2 0 1 . 0
sd = sf = 3 e s = 3 ? q = 4 logo o sistema é compatível e indeterminado
com grau de liberdade 1.
132
Logo,
;
? {+|+}w= 0
2| } + w = 0
=
} = 0
o que nos fornece,
{ = |
} = 0
w = 2|
©
ª
Portanto Nhu(W ) = (|> |> 0> 2|) 5 R4 Á | 5 R = [(1> 1> 0> 2)]
Exemplo 179 Seja W : R3 $ R3 a transformação linear que é a projeção
ortogonal sobre a reta cujas equações paramétricas são:
;
? { = 1 + 2w
| = 2 2w
=
} =3+w
Encontre o Núcleo de W=
Solução: Projetar um vetor sobre uma reta é o mesmo que encontrar a
projeção ortogonal sobre o vetor diretor dessa mesma reta. No nosso caso, o
vetor diretor é x = (2> 2> 1)> logo
³ y=x ´
W (y) = surmx y =
x
x=x
¶
µ
({> |> })=(2> 2> 1)
(2> 2> 1)
W ({> |> }) =
(2> 2> 1)=(2> 2> 1)
µ
¶
2{ 2| + }
W ({> |> }) =
(2> 2> 1)
9
µ
¶
4{ 4| + 2} 4{ + 4| 2} 2{ 2| + }
W ({> |> }) =
>
>
9
9
9
Para encontrar o núcleo devemos ter,
µ
W ({> |> }) =
4{ 4| + 2} 4{ + 4| 2} 2{ 2| + }
>
>
9
9
9
4{ 4| + 2}
4{ + 4| 2}
2{ 2| + }
133
= 0
= 0
= 0
¶
= (0> 0> 0)
5
6
5
6
4 4 2
4 4 2
7 4 4 2 8 , fazendo o escalonamento temos 7 0 0 0 8 > assim
2 2 1
0 0 0
4{ + 4| + 2} = 0
0 = 0
0 = 0
2}
}
= 4{ 4|
= 2{ 2|
©
ª
Portanto Nhu(W ) = ({> |> 2{ 2|) 5 R3 Á { 5 R = [(1> 0> 2)> (0> 1> 2)]
Denição 180 Dada uma aplicação W : Y $ Z , diremos que W é injetora
se dados x> y 5 Y com W (x) = W (y) tivermos x = y= Ou equivalentemente, W é
injetora se dados x> y 5 Y com x 6= y, então W (x) 6= W (y)=
Denição 181 Uma aplicação W : Y $ Z será sobrejetora se a imagem de
W coincidir com Z> ou seja, W (Y ) = Z=
Observação 182 Da denição acima vemos que uma função será sobrejetora
se dado z 5 Z , existir y 5 Y tal que W (y) = z=
n
$o
Teorema 183 Seja W : Y $ Z , uma aplicação linear. então Nhu(W ) = 0 >
se e somente se W é injetora.
Teorema 184 Seja W : Y $ Z , uma aplicação linear. Então
dim Nhu(W ) + dim Im(W ) = dim Y
Corolário 185 Se dim Y = dim Z , então W linear é injetora se e somente se
W é sobrejetora.
Corolário 186 Seja W : Y $ Z , uma aplicação linear injetora. Se dim Y =
dim Z , então W leva base em base.
Exemplo 187 Seja W : Sq $ Sq+1 , dada por W (s({)) = {s({)=Verique se W
é bijetora.
Solução: Devemos vericar se W é injetora e sobrejetora ao mesmo tempo.
Usando o teorema (183) devemos apenas calcular o núcleo de W :
W (s({)) = {s({)
W (d0 + d1 { + = = = + dq {q ) = {(d0 + d1 { + = = = + dq {q )
W (d0 + d1 { + = = = + dq {q ) = (d0 { + d1 {2 + = = = + dq {q+1 )
134
Se
W (s({)) = 0
d0 { + d1 {2 + = = = + dq {q+1 = 0 = 0 + 0{ + 0{2 + = = = + 0{q+1
logo
d0 = d1 = = = = = dq = 0 , s({) = 0 (s({) é o polinômio nulo) , Nhu(W ) =
n
$o
0 (observe que neste caso o vetor nulo de Sq é o polinômio nulo de grau n).
Portanto W é injetora.
Como dim Sq = q + 1> dim Sq+1 = q + 2 e dim Nhu(W ) = 0> temos que
dim Nhu(W ) + dim Im(W ) = q + 1
0 + dim Im(W ) = q + 1
dim Im(W ) = q + 1
Note que dim Im(W ) = q+1 6= q+2 = dim Sq+1 , Im(W ) 6= Sq+1 = Portanto
W não é sobrejetora.
4.2
4.2.1
Transformações Lineares e Matrizes
Transformação linear associada a uma matriz
Seja D uma matriz p × q. Associada a matriz D denimos a transformação
linear:
OD : Rq $ Rp
y $ D=y
onde y é tomado como vetor coluna,
5
6
{1
:
9
y = 7 ... 8
{q
OD (y) = D=y
5
d11
9 ..
OD (y) = 7 .
35
64
5
dp1
···
..
.
···
65
d1q
.. : 9
. 87
dpq
6
{1
.. :
. 8
{q
6
{1
d11 {1 + · · · d1q {q
E9 .. :F
9
:
..
OD C7 . 8D = 7
8
.
{q
dp1 {1 + · · · + dpq {q
Das propriedades de operações de matrizes:
135
OD (x + y) = D=(x + y) = D=x + D=y = OD (x) + OD (y)
OD (nx) = D=(nx) = nD=x = nOD (x)
e portanto OD é uma transformação linear.
Exemplo 188 Seja
5
6
1 1 1 1
D = 7 2 0 1 1 8
0 2 0 1
Observe que a matriz D tem ordem 3 × 4 e portanto ela induzirá uma transformação linear de R4 para R3 , denida por:
35
{
E9 |
9
OD E
C7 }
w
R4 $ R3
5
1 1 1 1
:F
:F = 7 2 0 1 1
8D
0 2 0 1
5
{+|+}w
= 7 2{ + } w
2| w
OD
64
:
6
{
9
:
89 | :
7 } 8
w
6
6
5
8
Note que a transformação acima está escrita em forma matricial, mas podemos
escreve-la também na forma vetorial que estamos acostumados:
OD ({> |> }> w) = ({ + | + } w> 2{ + } w> 2| w)
Surpresa!! Esta é a mesma transformação do exemplo (178)
Exemplo 189
Dada a transformação linear:
W : R3 $ R2
W ({> |> }) = (10{ 20| 30}> { 2| 3})
Encontre a matriz da transformação W (Isto é, encontre a matriz D cuja transformação associada a ela é exatamente a transformação W )
Solução: Passando da forma vetorial para a forma matricial temos:
35
64
·
¸
{
10{ 20| 30}
W C7 | 8D =
{ 2| 3}
}
5
6
·
¸ {
10 20 30 7
| 8
=
1 2 3
}
136
Portanto a matriz de W> que denotaremos por [W ] é
·
¸
10 20 30
[W ] =
1 2 3
Observação 190 Ao obtermos a transformação associada a uma matriz D (ou,
caso contrário, a matriz de uma transformação W ), não mencionamos as bases
dos espaços envolvidos. De fato, ao obtermos a matriz de uma transformação
estamos levando em conta as bases associadas aos espaços Rq e Rp mas neste
caso em particular estamos considerando as bases canônicas. Isto cará claro
na exposição a seguir.
De um modo geral, xadas as bases = {y1 > y2 > · · · > yq } e 0 = {z1 > z2 > · · · > zp } >
à matriz
6
5
d11 · · · d1q
9
.. :
..
Dp×q = 7 ...
.
. 8
dp1
···
dpq
podemos associar
WD
: Rq $ Rp
y $ WD (y)
da seguinte maneira: Seja
6
{1
:
9
[ = [y] = 7 ... 8
{q
65
6 5
5
{1
d11 · · · d1q
9
.. : 9 .. : = 9
..
D=[ = 7 ...
.
. 87 . 8 7
dp1 · · · dpq
{q
5
6
|1
.. :
. 8
|p
então
WD (y) = |1 z1 + · · · + |p zp
onde |l = Dl =[ e Dl é a i-ésima linha de D=
Em geral, dada uma matriz Dp×q , ela é encarada como uma aplicação linear
WD : Rq $ Rp em relação às bases canônica de Rq e Rp =
4.2.2
Matriz de uma transformação linear
Agora iremos encontrar a matriz associada a uma transformação linear. Seja
W : Y $ Z linear> = {y1 > · · · > yq } base de Y e 0 = {z1 > · · · > zp } base de Z=
Então W (y1 )> = = = > W (yq ) são vetores de Z e portanto
W (y1 )
..
.
W (yq )
=
d11 z1
..
.
+ ···
+
d1q z1
+ ···
+ dpq zp
137
dp1 zp
..
.
A transposta da matriz dos coecientes deste sistema, denotada por [W ] 0 é
chamada matriz de W em relação às bases e 0 :
6
5
d11 · · · d1q
9
.. :
[W ] 0 = 7 ...
. 8
dp1
···
dpq
6
d11 · · · d1q
9
.. : a transforObservação 191 Note que se D = [W ] 0 = 7 ...
. 8
dp1 · · · dpq
mação linear W passa a ser a transformação linear associada à matriz D e
bases e 0 , iste é, W = WD
5
Exemplo 192 Seja W : R3 $ R2 tal que W ({> |> }) = (2{ + | }> 3{ 2| + 4})=
Sejam = {(1> 1> 1> )> (1> 1> 0)> (1> 0> 0)} e 0 = {(1> 3)> (1> 4)} =
Procuremos [W ] 0
W ({> |> }) = (2{ + | }> 3{ 2| + 4})
W (1> 1> 1) = (2> 5) = d(1> 3) + e(1> 4)
W (1> 1> 0) = (3> 1) = f(1> 3) + g(1> 4)
W (1> 0> 0) = (2> 3) = h(1> 3) + i (1> 4)
Portanto temos os sistemas:
·½
d+e=2
>
3d + 4e = 5
½
>
f+g=3
3f + 4g = 1
Resolvendo os sistemas temos:
£
d=3
e = 1 > f = 11 > g = 8
[W ] 0
½
>
h=5
h+i =2
3h + 4i = 3
¸
¤
i = 3
·
¸
3
11
5
=
1 8 3
Teorema 193 : Sejam Y e Z espaços vetoriais, base de Y , base de Z e
W : Y $ Z uma aplicação linear. Então, para todo y 5 Y vale:
Teorema 194
[W (y)] = [W ] ¦ [y]
Denição 195 Dada uma base e tranformação linear W : Y $ Y denotare
mos a matriz [W ] apenas por [W ] e ela será chamada de matriz de W em relação
a base =
138
Denição 196 Seja W : Rq $ Rq uma transformação linear e a base
canônica de Rq > então a matriz de W em relação a base canônica > [W ]
> será
denotada simplesmente por [W ] =
Exemplo 197 Seja W : S2 $ S2 denido
porªW (s({)) = s(3{ 5)= Determine
©
a matriz de W em relação a base = 1> {> {2
Devemos calcular [W ] = [W ]
W (s)
W (d0 + d1 { + d2 {2 )
W (d0 + d1 { + d2 {2 )
W (d0 + d1 { + d2 {2 )
=
=
=
=
s(3{ 5)
d0 + d1 (3{ 5) + d2 (3{ 5)2
d0 + 3d1 { 5d1 + d2 (9{2 30{ + 25)
(d0 5d1 + 25d2 ) + (3d1 30d2 ){ + 9d2 {2
W (1) = W (1 + 0{ + 0{2 ) = 1 = 1 + 0{ + 0{2
W ({) = W (0 + 1{ + 0{2 ) = 5 + 3{ = 5 + 3{ + 0{2
W ({2 ) = W (0 + 0{ + 1{2 ) = 25 30{ + 9{2
5
6
1 5 25
[W ] = 7 0 3 30 8
0 0
9
Exemplo 198 Seja W : R3 $ R3 dada por W ({> |> }) = (2{ 3| 2}> { | }> 2{ | + })
a) Sejam as bases
= {(1> 0> 0)> (1> 1> 0)> (1> 1> 1)}
= {(1> 1> 0)> (1> 0> 1)> (0> 1> 1)}
determine [W ]
,5[W ]6
1
b) Se [y] = 7 1 8 determine [W (y)] =
1
c) Calcule a multiplicação das matrizes: [W ]
¦[W ] = Que conclusão voce pode
tirar em relação as duas matrizes, ou que relação há entre as duas matrizes?
Solução: a) Cálculo de [W ]
W ({> |> }) = (2{ 3| 2}> { | }> 2{ | + })
W (1> 0> 0)
¡
¢
W (1> 0> 0) = 2> 1> 2 = d1 (1> 1> 0) + e1 (1> 0> 1) + f1 (0> 1> 1)
139
¡
¢
W (1> 1> 0) = ¡ 1> 0> 1 =
¢ d2 (1> 1> 0) + e2 (1> 0> 1) + f2 (0> 1> 1)
W (1> 1> 1) = 3> 1> 2 = d3 (1> 1> 0) + e3 (1> 0> 1) + f3 (0> 1> 1)
Devemos resolver os tres sistemas resultantes: Denotando por D a matriz
dos coecientes
do sistema,temos:
5
6
6
5 1
1
1 1 0
2 12
2
1
12 8
D = 7 1 0 1 8 , D1 = 7 12
2
1
1
0 1 1
2 12
2
Vamos
matriz inversa:
5
6resolver 5os sistemas
6 5 por
65 6 5 1 6
1
d1
2
12 12
2
2
2
1
1 87
7 e1 8 = D1 7 1 8 = 7 1
8 = 7 3 8
1
2
2
2
2
1
2
2
f1
12 12
12
2
5
6
5
6 5 1
d2
1
2
7 e2 8 = D1 7 0 8 = 7 1
2
1
1
f2
2
5
6
5
6 5 1
d3
3
2
7 e3 8 = D1 7 1 8 = 7 1
2
1
2
f3
2
Logo
12
1
2
12
12
12
1
2
12
12
1
2
12
1
2
12
5
12
[W ] = 7 32
12
65
6 5
6
1
1
87 0 8 = 7 0 8
1
1
65
6 5
6
3
3
8 7 1 8 = 7 0 8
2
2
6
1
3
0
0 8
1 2
Agora voce já está em condições de calcular [W ] = Faça esse cálculo como
exercício
b) Vamos usar a relação [W (y)] = [W ]
¦ [y]
[W (y)]
[W (y)]
[W (y)]
= [W ]
¦ [y]
5 1
65 6
2
1
3
1
0
0 87 1 8
= 7 32
1
1 1 2
5 72 6
2
= 7 32 8
72
c) Faça voce este item e tire suas conclusões. Mais adiante voce poderá
vericar se suas conclusões estavam corretas.
Teorema 199 Seja W : Y $ Z uma transformação linear e e bases de Y
e Z respectivamente. Então
dim Im(W ) =
dim Nhu(W ) =
posto de [W ]
nulidade de [W ]
= número de colunas de [W ] srvwr [W ]
140
4.3
Composição de transformações lineares
Denição 200 Se W1 : Y $ Z e W2 : Z $ X são duas transformações
lineares a composta das duas transformações lineares é denida do mesmo modo
que a composição de funcões ( lembre-se que um transformação linear é uma
função com a propriedade adicional de ser linear) da seguinte forma
W2 W1 : Y $ X
(W2 W1 )(y) = W2 (W1 (y))
Exemplo 201 Se W1 : R2 $ R3 > W1 ({> |) = ({ |> | {> | {) e W2 : R3 $ R>
W ({> |> }) = { | } então W2 W1 : R2 $ R e
(W2 W1 ) ({> |) =
=
=
=
=
W2 (W1 ({> |))
W2 ({ |> | {> | {)
({ |) (| {) (| {)
{||+{|+{
3{ 3|
Teorema 202 Sejam W1 : Y $ Z e W2 : Z $ X transformações lineares e >
> bases de Y> Z> X respectivamente. Então a composta de W2 com W1 > W2 W1 :
Y $ X é linear e
[W2 W1 ]
= [W2 ] ¦ [W1 ]
Proposição 203 Seja W : Y $ Z uma transformação linear . Sejam e 0
bases de Y e e 0 bases de Z= Então vale a relação:
0
0
0
[W ]
0 = [LZ W LY ] 0 = [LZ ] 0 [W ] [LY ]
onde LZ e LY são as aplicações identidades de Z e Y respectivamente.
4.4
A Inversa de uma transformação linear
Denição 204 Dá-se o nome de isomorsmo a uma transformação linear
W : Y $ Z que é injetora e sobrejetora ao mesmo tempo. Quando há um
isomorsmo entre dois espaços vetoriais dizemos que estes são Isomorfos.
Denição 205 Seja W : Y $ Z uma transformação linear. Se existe uma
transformação linear V : Z $ Y tal que W V = LZ , onde LZ : Z $ Z é
a identidade em Z> dizemos que V é a inversa a direita de W= Se existe uma
transformação U : Z $ Y , tal que UW = LY , onde LY : Y $ Y é a identidade
em Y , dizemos que U é a inversa a esquerda de W=
141
Denição 206 Seja W : Y $ Z uma transformação linear. Se existe uma
aplicação W 1 : Z $ Y> tal que W W 1 = LZ e W 1 W = LY então dizemos
que W é inversível e que W 1 é a inversa de W
Proposição 207 Seja W : Y $ Z uma transformação linear.
inversa de W> W 1 > então W 1 é uma transformação linear
Se existe a
Proposição 208 Se W : Y $ Z é um isomomorsmo, então W é inversível e
além disso W 1 também é um isomorsmo.
Proposição 209 Se W : Y $ Z uma transformação linear invertível (W é um
isomorsmo) e e são bases de Y e Z> então:
£ 1 ¤ ³ ´1
W
= [W ]
Observação: Quando estamos trabalhando com o espaço Rq e a base canônica
de Rq por simplicidade omitimos as bases e a matriz de W : Rq $ Rq >em relação
a base canônica, é denotada simplesmente por [W ] = Neste caso a proposição
acima
na forma mais conveniente: "Se W : Rq $ Rq é inversível então
£ 1 ¤ é escrita
1
W
= [W ] ”
Proposição 210 Seja W : Y $ Z uma transformação linear, com dim Y =
dim Z> e e bases de Y e Z respectivamente= Então W é inversível se, e
somente se det [W ]
6= 0=
Observação 211 Se na proposição acima tivermos Y = Z = Rq podemos
escrever: Seja W : Rq $ Rq uma transformação linear, então W é invertível se
det [W ] 6= 0
Exemplo 212 Seja W : R3 $ R3 > dada por W ({> |> }) = ({ + 2| + 2}> { + | +
3}> { + 2| + })> determine a transformação inversa W 1 =
Solução: Facilmente
5
1 2
[W ] = 7 1 1
1 2
podemos ver que
6
5
6
2
5 2
4
£ 1 ¤
3 8, W
= [W ]1 = 7 2 1 1 8
1
1
0 1
logo W 1 ¡({> |> }) =¢ (5{ + 2| + 4}> 2{ | }> { })= Como exercício verique
que vale W W 1 ({> |> }) = ({> |> })
Podemos também neste caso calcular a inversa usando diretamente a dinição
de transformação inversa da seguinte forma
Sabemos que W 1 : R3 $ R3 é uma transformação linear tal que W 1 W = L
ou W W 1 = L= Suponhamos que W 1 ({> |> }) = (p> q> v)> devemos encontrar
142
p> q e v tais que W W 1 = L (devemos usar esta igualdade pois com a outra
não funciona, tente e veja o que acontece). Portanto
¡
¢
W W 1 ({> |> }) = L({> |> }) = ({> |> })
W (W 1 ({> |> })) = ({> |> })
W (p> q> v) = ({> |> })
(p + 2q + 2v> p + q + 3v> p + 2q + v) = ({> |> })
p + 2q + 2v =
p + q + 3v =
p + 2q + v =
5
6
5
¸ 1 2 2
1 2 2 { ·
hvfdorqdqgr
71 1 3 | 8
70 1 1
=,
1 2 1 }
0 0 1
{
|
}
6
{
{ |8
{}
v = {}
q = { | + { } = 2{ | }
p = { 2(2{ | }) 2({ }) = 5{ + 2| + 4}
Logo
W 1 ({> |> }) = (5{ + 2| + 4}> 2{ | }> { })
143
4.5
Nona lista de exercícios
1) Seja W : Y $ Z uma função. Mostre que
a) Se W é uma transformação linear, então W (0) = 0=
b) Se W (0) 6= 0 então W não é uma tranformação linear.
2) Determine quais das seguintes funções são aplicações lineares:
a) i : R2 $ R2 , i ({> |) = ({ + |> { |)
b) j : R2 $ R> i ({> |) = {|
c) k·: P (2> 2)
¸ $R ·
¸
d e
d e
$ det
f g
f g
d) p : R $ R> p({) = |{| =
3) Resolva os itens abaixo:
a) Encontre a transformação linear W : R3 $ R2 tal que W (1> 0> 0) = (2> 0),
W (0> 1> 0) = (1> 1) e W (0> 0> 1) = (0> 1)=
b) Encontre y 5 R3 tal que W (y) = (3> 2)=
3
3
4) Sejam
lineares de R
5 U> V> W tres
6 transformações
5
6 em R = Se
1 0 1
2 1 1
1
2 8 > encontre
[U] = 7 2 1 1 8 e
[V] = 7 3
0 1 1
1 2 0
W tal que U = V W=
5) Sejam = {(1> 1)> (0> 2)} e = {(1> 0> 1) > (0> 1> 2) > (1> 2> 0)} bases de
R2 e R3 respectivamente e
5
6
1 0
7 1 1 8
[W ]
=
0 1
a) Encontre W
b) Se V({> |) = (2|> { |> {)> encontre [V]
=
6
1 0
=7 0 1 8
c) Encontre uma base de R3 tal que
0 0
3
6) Considere a transformação linear W : R $ R3 dada por W ({> |> }) =
(}> { |> })=
a) Determine uma base do núcleo de W=
b) Dê a dimensão da imagem de W=
c) W é sobrejetora? Justique.
d) Faça um desenho em R3 do conjunto de vetores que pertencem ao ker(W )
e a Im(W )=
7)µ·
Seja a¸¶
base canônica de P2 = Se W : P2 $ S3 é dada por
d e
W
= d + (e + f){ + (f g){2 + g{3
f g
©
ª
a) Encontre [W ] onde = 2> 2 + {> 2 + {2 > 2 + {3 é base de S3
b) Faça o escalonamento da matriz [W ]
[W ]
144
5
c) Detemine dim Nhu(W )
d) Determine dim Im(W )=
8) Responda as seguintes questões:
a) Se W : R5 $ R6 é uma transformação linear, podemos ter dim Im(W ) A
6?= Justique sua resposta
b) Existe alguma tranformação linear W : R2 $ R2 tal que W (1> 1) = (2> 2) e
W (2> 2) = (3> 1)? Justique sua resposta.
·
¸
1 2
2
2
9) Seja W : R $ R tal que [W ] =
= Encontre os vetores x e y
0
1
tais que
a) W (x) = x
b) W (y) = y
10) Sejam as transformações lineares V : S1 $ S2 e W : S2 $ S1 denidas
por
V(d + e{) = d + (d + e){ + 2e{2
W (d + e{ + f{2 ) = e + 2f{
a) Determine (V W )(3 + 2{ {2 )
b) É possível calcular (W V)(d+ e{)? Em caso armativo calcule (W V)( +
{)=
ALGUMAS SUGESTÕES
7) c) A dimensão de Nhu(W ) é a nulidade de [W ]
7) d) A dimensão de Im(W ) é o posto de [W ]
145
Capítulo 5
OPERADORES
LINEARES
Denição 213 Uma transformação linear W : Y $ Y é chamada de operador
linear.
Observação 214 Todas as propriedades já vistas para transformações lineares
em geral vale para um operador linear
5.1
Transformações especiais no plano e no espaço
Os operadores lineares que veremos a seguir são chamados de transformações
especiais do plano e do espaço por serem bastantes usados em aplicações práticas
e também em aplicações numéricas.
Transformações no Plano
a) Re exão em torno do eixo dos {
W : R2 $ R2
W ({> |) = ({> |)
Matricialmente
·
{
|
¸
·
$
1 0
0 1
Geometricamente:
146
¸·
{
|
¸
b) Re exão em torno do eixo dos y
W : R2 $ R2
W ({> |) = ({> |)
Matricialmente
·
{
|
¸
·
$
1 0
0 1
Geometricamente:
147
¸·
{
|
¸
c) Re exão na origem
W : R2 $ R2
W ({> |) = ({> |)
Matricialmente
·
{
|
¸
·
$
1 0
0 1
Geometricamente:
148
¸·
{
|
¸
d) Re exão em torno da reta | = {
W : R2 $ R2
W ({> |) = (|> {)
·
Matricialmente
{
|
¸
·
$
0 1
1 0
¸·
{
|
¸
Geometricamente:
e) Re exão em torno da reta | = {
W : R2 $ R2
W ({> |) = (|> {)
Matricialmente
·
{
|
¸
·
$
0 1
1 0
Geometricamente:
149
¸·
{
|
¸
f ) Dilatação ou contração
W : R2 $ R2
W ({> |) = ({> |)
Se || ? 1, W contrai o vetor
Se || A 1, W dilata o vetor
Se = 1, W é a identidade
Se ? 0, W inverte o sentido do vetor
Se A 0, W mantém o mesmo sentido do vetor
Matricialmente
·
¸
·
¸·
¸
{
0
{
$
|
0 |
Geometricamente:
150
g) Cisalhamento na direção do eixo dos {
W : R2 $ R2
W ({> |) = ({ + |> |)
Matricialmente
·
{
|
¸
·
$
1 0 1
Geometricamente:
151
¸·
{
|
¸
h) Cisalhamento na direção do eixo dos |
W : R2 $ R2
W ({> |) = ({> { + |)
Matricialmente
·
{
|
¸
·
$
1 0
1
Geometricamente:
152
¸·
{
|
¸
i) Rotação de um ângulo Geometricamente
U : R2 $ R2
U ({> |) = ({0 > | 0 )
Vamos agora determinar a matriz da transformação linear rotação de um
ângulo e a expressão de U em função de { e |=
Quando rotacionamos um vetor, pela própria denição de rotação, o comprimento (módulo) do vetor não se altera. Seja u = |y| > onde y = ({> |)=
Da gura acima e usando relações trigonométricas temos;
{0 = u cos( + ) = u cos cos u sin sin Mas
u cos = {
u sin = |
então
{0 = { cos | sin Analogamente
|0
|0
= u sin( + ) = u sin cos + u cos sin = | cos + { sin = { sin + | cos 153
Assim
U ({> |) = ({ cos | sin > { sin + | cos )
Matricialmente
·
¸
·
¸·
¸
{
cos sin {
$
|
sin cos |
Podemos ver neste caso que matriz de uma rotação é:
·
¸
cos sin [U ] =
sin cos Transformações no Espaço
a) Re exão em relação aos planos coordenados
a.1) Plano xy
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
5
6
5
65
6
{
1 0 0
{
7 | 8 $ 7 0 1 0 8 7 | 8
}
0 0 1
}
Geometricamente
a.2) Plano xz
W : R3 $ R3
W ({> |> }) = ({> |> })
154
5
6
5
65
6
{
1 0 0
{
Matricialmente7 | 8 $ 7 0 1 0 8 7 | 8
}
0 0 1
}
a.3) Plano yz
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
5
6
5
65
6
{
1 0 0
{
7 | 8 $ 7 0 1 0 8 7 | 8
}
0 0 1
}
b) Re exão em relação aos eixos coordenados
b.1) Em relação ao eixo x
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
5
6
5
65
6
{
1 0
0
{
7 | 8 $ 7 0 1 0 8 7 | 8
}
0 0 1
}
Geometricamente:
b.2) Em relação ao eixo y
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
5
6
5
65
6
{
1 0 0
{
7 | 8 $ 7 0 1 0 8 7 | 8
}
0 0 1
}
155
b.3) Em relação ao eixo z
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
c)
6
6
5
65
{
{
1 0 0
7 | 8 $ 7 0 1 0 8 7 | 8
}
0
0 1
}
5
Re exão no origem
W : R3 $ R3
W ({> |> }) = ({> |> })
Matricialmente
5
6
5
65
6
{
1 0
0
{
7 | 8 $ 7 0 1 0 8 7 | 8
}
0
0 1
}
Geometricamente
10
-10
-10
00 0
10
10
y
x
-10
156
z
d) Rotação de um ângulo d.1) Rotação em torno do eixo z
W : R3 $ R3
W ({> |> }) = ({ cos | sin > { sin + | cos > })
Matricialmente
5
6
5
{
cos 7 | 8 $ 7 sin }
0
sin cos 0
65
6
0
{
0 87 | 8
1
}
Exemplo
215s Determinar o ângulo formado entre y e W (y) quando o vetor
s
s
3
s
y = ( 2 2 > 42 > 22 ) gira em torno do eixo } de um ângulo 2 rad
157
Solução:
5
cos 2
[W (y)] = 7 sin 2
0
sin 2
cos 2
0
5
65
0
9
0 87
1
65 s
s
s3
2s 2
2
s4
2
2
s3
2s 2
2
s4
2
2
0=0 1=0 0=0
9
[W (y)] = 7 1=0 0=0 0=0 8 7
0=0 0=0 1=0
5 s 60
42
9 ss3 :
[W (y)] = 7 2 2 8
60
:
8
60
:
8
s
2
2
Como desejamos o ângulo entre y e W (y)>vamos usar afórmula do cosseno do
ângulo entre dois vetores:
cos =
y · W (y)
1
=
|y| |W (y)|
2
Portanto o ângulo entre y e W (y) é = arccos 12 =
5.2
1
3
Propriedades dos operadores inversíveis
Denição 216 Seja W : Y $ Y um operador linear. Se existir um operador
W 1 : Y $ Y tal que W W 1 = W 1 W = L ( neste caso L : Y $ Y é
a identidade em Y ) então dizemos que o operador W é inversível e W 1 é o
operador inverso de W=
Observação 217 Um operador é inversível se, e somente se, ele é um isomorsmo
Seja W : Y $ Y um operador linear:
I) Se W é inversível e W 1 sua inversa, então W W 1 = W 1 W = L
n
$o
II) O operador W é inversível se, e somente se, Nhu(W ) = 0 =
III) O operador W é inversível se, e somente se, det [W ] 6= 0
IV) Se W é inversível, W transforma base em base, isto é, se = {y1 > = = = > yq }
é base de Y então = {W (y1 )> = = = > W (yq )} é base de Y=
£
¤
Se W é inversível e uma base de Y então W 1 : Y $ Y é linear W 1 =
´1
³
£
¤
= Quando é a base canônica temos a forma mais simples W 1 =
[W ]
¤
£
£
¤
[W ]1 e portanto W 1 · [W ]1 = W 1 W = [L] = Com isso vemos que W é
inversível se e somente se det [W ] 6= 0.
158
Exemplo 218 Considere o operador U : R2 $ R2 > dado por
U ({> |) = ({ cos | sin > { sin + | cos )
verique se W é inversível e em caso armativo encontre W 1
2
2
Solução:
] = cos + sin = 1 6= 0> temos que U é inversível.
£ Como
¤ ghw [U
1
1
Como U = [U ] > basta calcular a inversa da matriz deU
·
¸
cos sin [U ] =
sin cos 1
[U ]
=
cos cos2 +sin2 sin cos2 +sin2 cos2 sin
+sin2 cos cos2 +sin2 1
[U ]
1
·
=
cos sin sin cos ¸
W
Note que [U ] = [U ] > ou seja, [U ] é uma matriz ortogonal, logo U1 :
R2 $ R2
·
¸
·
¸·
¸ ·
¸
{
cos sin {
{ cos + | sin $
=
|
sin cos |
| cos { sin U1 ({> |) = ({ cos + | sin > | cos { sin )
Exemplo 219 Seja W o operador W : R3 $ R3 que é a projeção ortogonal do
vetor y = ({> |> }) na direção da reta dada pela interseção dos planos | = { + 1
e } = | + 3=Verique se W é inversível e em caso armativo determine W 1 =
Solução:
Para determinar a projeção na direção da reta basta determinar a projeção ortogonal sobre o vetor diretor da reta. Devemos inicialmente
determinar o vetor diretor da reta:
½
| ={+1
} =|+3
Para obter a equações paramétricas fazemos { = w> logo
;
? {=w
| =w+1
=
} =w+4
159
portando o vetor diretor da reta é x = (1> 1> 1)=
³y · x´
W (y) = surmx y =
x
x·x ¶
µ
({> |> }) · (1> 1> 1)
(1> 1> 1)
W ({> |> }) =
(1> 1> 1) · (1> 1> 1)
µ
¶
{+|+}
W ({> |> }) =
(1> 1> 1)
3
µ
¶
{+|+} {+|+} {+|+}
W ({> |> }) =
>
>
3
3
3
6
5 1
1
1
9
9
[W ] = 9
9
7
3
3
3
1
3
1
3
1
3
1
3
1
3
1
3
:
:
:
:
8
det [W ] = 0
Como det [W ] = 0 temos que W não é inversível.
Exemplo 220 Seja W : R2 $ R2 a transformação que é uma rotação de 4 udg
e V : R2 $ R2 a transformação que é uma re exão em torno da reta | = 2{=
Determine a transformação U = V W=
Solução
U = VW
[U] = [V] [W ]
·
¸
cos 4 sin 4
sin 4
cos 4
s ¸
·1s
2 12s 2
2
s
[W ] =
1
1
2 2
2 2
[W ] =
V(y) = 2s y
µ
¶
({> |) · (1> 2)
V({> |) = 2
(1> 2) ({> |)
(1> 2) · (1> 2)
µ
¶
3{ 4| 4{ + 3|
V({> |) =
>
5
5
¸
· 3
5 45
[V] =
3
45
5
160
[U] = [V] [W ]
s ¸
¸· s
· 3
5 45 12 s2 12s 2
[U] =
3
1
1
45
5
2 2
2 2
s
¸
· 7s
1
10 s2 10s 2
[U] =
1
7
2
10
10 2
Ã
U({> |) =
5.2.1
s
s
s
s !
7 2
2
2
7 2
{
|> {+
|
10
10
10
10
Matrizes Semelhantes
Seja W : Y $ Y um operador linear. Sejam e bases de Y e [W ] > [W ]
matrizes de W em relação as bases e respectivamente, então:
[W ] = [L]
[W ] [L]
³
´1
Lembrando que [L] = [L]
temos que
³
´1
[W ] = [L]
[W ] [L]
Chamando [L]
=D:
[W ] = D [W ] D1
Denição 221 Dadas as matrizes D e E, se existe uma matriz S inversível tal
que
D = S ES 1
então dizemos que as matrizes D e E são semelhantes.
Observação 222 Se D e E são semelhantes então ghwD = ghwE> mas não vale
a recíproca.
5.3
Operadores autoadjuntos e ortogonais
Denição 223 Seja Y um espaço vetorial com produto interno, uma base
ortonormal e W : Y $ Y um operador linear. Então:
a) W é chamado um operador auto-adjunto se [W ]
é uma matriz simétrica
b) W é chamado um operador ortogonal se [W ] é uma matriz ortogonal
Observação 224 Consideraremos aqui apenas os operadores W : Rq $ Rq >
com o produto escalar usual (que é um produto interno no espaço Rq )=
161
Observação
225 Uma base = {y1 > y2 > · · · > yq } é ortonormal se yl · ym =
½
1> l = m
0> l 6= m
Portanto podemos dizer que um operador W : Rq $ Rq é um operador
auto-adjunto se [W ] (a matriz de W em relação a base canônica) é uma matriz
simétrica. W : Rq $ Rq é um operador ortogonal se [W ] (a matriz de W em
relação a base canônica) é uma matriz ortogonal.
Exemplo 226
Consideremos a transformação : R3 $ R3 , a rotação de um
ângulo em torno do eixo }=
W ({> |> }) = ({ cos | sin > { sin + | cos > })
A matriz da transformação W é
5
cos [W ] = 7 sin 0
sin cos 0
6
0
08
1
Como esta é uma matriz ortogonal, W é um operador ortogonal
Exemplo 227 Seja W : R2 $ R2 onde W ({> =|) = (2{ 2|> 2{ + 5|)= A matriz
de W é
·
¸
2 2
[W ] =
2 5
Como a matriz de W é simétrica, então W é um operador simétrico.
Teorema 228 Seja W : Rq $ Rq linear. Se W é um operador auto-adjunto
então
W (y) · z = y · W (z)> ;y> z 5 Rq
Teorema 229 Seja W : Rq $ Rq linear. Então são equivalentes as seguintes
armações
a) W é ortogonal
b) W preserva o produto escalar, isto é, W (y) · W (z) = y · z> ;y> z 5 R
c) W preserva o módulo, isto é, |W (y)| = |y|
d) W transforma bases ortonornais em bases ortonormais. Isto é, se
{y1> y2 > = = = > yq } é uma base ortonornal então {W (y1 )> W (y2 )> = = = > W (yq )} é uma
base ortonornal
5.4
Décima lista de exercicios
1) Seja W ({> |> }) = (2{ + |> { + | + }> | 3})
a) Mostre que W é um operador auto-adjunto mas não ortogonal
b) Se y = (2> 1> 5) e z = (3> 0> 1)> verique que W (y) • z = y • W (z)
162
2) Seja D é uma matriz de ordem q xada. Seja W : Pq $ Pq denida por
W (Q ) = DQ Q D= Mostre que W não é inversível.
3) Se W : Y $ Y é um operador linear e W 2 W L = 0 mostre que W é
inversíve
4) Sejam W : Y $ Y é um operador linear e e bases distintas de Y=
Mostre que det [W ]
= det [W ] ·
¸
·
¸
1 2
4 0
5) Mostre que a matriz D =
é semelhante à matriz
=
3 2
0 1
6) Se D e E são semelhantes mostre que D L e E L são semelhantes.
7) a) Encontre a transformação W do plano no plano que é uma re exão
em torno da reta | = 6{=
b) Escreva-a em forma matricial.
8)
No
plano, uma rotação anti-horária de 450 é seguida por uma dilatação
s
de 3= Ache a aplicação D que representa esta transformação do plano.
9) Seja W : R3 $ R3 é a projeção de vetor y no plano {+| + } = 0= Encontre
W ({> |> })=
10) Seja O : R3 $ R3 onde O é a re exão através do plano { + | + } = 0=
Encontre O({> |> })=
11) Seja D : R3 $ R3 onde O é a rotação de 2 em torno do eixo } seguida
de uma rotação de 3 do em torno do eixo |= Encontre D({> |> })=
a transformação
linear W : R3 $ R3 tal que Nhu(W ) =
© 12) Encontre
ª
3
({> |> }) 5 R Á| = 2{ }
s
s
13) Determine se a transformação W ({> |) = ( 23 { 12 |> 12 { + 23 |) é uma
transformação auto-adjunta ou ortogonal. Justique sua resposta.
2
= {(1>
· 14) Sejam
¸
· 0)> (0>¸1)} e = {(1> 1)> (1> 0)} bases de R , [W ] =
1 2
1 1
e [W ] =
=Encontre a matriz S tal que
1 2
4 0
[W ] = S [W ] S 1 =
a transformação
linear W : R3 $ R3 tal que Im(W ) =
© 15) Encontre
ª
3
({> |> }) 5 R Á | = 2{ } =
SUGESTÕES
2) Sugestão: Mostre que W não é injetora.
7) Sugestão: Use a projeção do vetor genérico ({> |) sobre algum vetor que
está sobre a reta | = 6{ e a adição de veotres=(Lembre-se que a³projeção
´ de
$
$
$
$
$
x =$
y
$
um vetor x na direção de um vetor y
é dada por surm y x = $
y )=
y =$
y
8) Lembre-se que a composição de transformações pode ser obtida pela multiplicação de suas matrizes (em relação a base canônica)
9) Faça a projeção do vetor ({> |> }) na direção do vetor normal do plano.
Use a denição de projeção e a adição de vetores.
10) Sugestão: Cosidere a projeção do vetor genérico ({> |> }) na direção do
vetor normal do plano dado. Use a denição de re exão e adição de vetores.
14) Utilize as matrizes mudança de base
163