Álgebra Linear: Listas 1-4 Exercícios p/
entregar
Prof.: Martin Weilandt
4 de outubro de 2012
Lista 1
1. Sejam u = (u1 , . . . , un ), v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) ∈ Rn . Verificamos:
(a)
(u + v) + w = ((u1 . . . , un ) + (v1 , . . . , vn )) + (w1 , . . . , wn )
= (u1 + v1 , . . . , un + vn ) + (w1 , . . . , wn )
= (u1 + v1 + w1 , . . . , un + vn + wn )
= (u1 , . . . , un ) + (v1 + w1 , . . . , vn + wn )
= u + (v + w)
(b) v + (−v) = (v1 , . . . , vn ) + (−v1 , . . . , −vn ) = (v1 − v1 , . . . , vn − vn ) = 0
(c)
u + v = (u1 , . . . , un ) + (v1 , . . . , vn ) = (u1 + v1 , . . . , un + vn )
= (v1 + u1 , . . . , vn + un ) = (v1 , . . . , vn ) + (u1 , . . . , un ) = v + u
As outras demonstrações são parecidas (i.e. são baseadas nas propriedades
correspondentes do corpo R).
2. Existência: Tome r := {P1 + t(P2 − P1 ); t ∈ R}. Isso é uma reta (pois é
na forma {P +tu; t ∈ R} para P = P1 ∈ Rn e u = P2 −P1 ∈ Rn \{0})
que contém P1 e P2 (substituir t = 0 e t = 1, respectivamente, na
representação de r acima).
Unicidade: Seja s uma reta contendo P1 , P2 . Por definição duma reta,
sabemos que existem Q ∈ Rn e v ∈ Rn \ {0} tais que s = {Q +
tv; t ∈ R}. Agora P1 , P2 ∈ s implica que existem t1 , t2 ∈ R tais que
P1 = Q + t1 v e P2 = Q + t2 v. Portanto (t1 − t2 )v = P1 − P2 . Como
P1 6= P2 , temos t1 − t2 6= 0 e portanto v é paralelo a P1 − P2 = u.
Como P1 ∈ s, concluimos r = s por um lema da aula.
1
2
3. Basta pegar u = (1, 0, 0), v = (0, 1, 0) e w := u + v = (1, 1, 0). A última
equação mostra que {u, v, w} é linearmente dependente. Para mostrar
(por exemplo) a independência linear de {v, w} com nossos métodos do
Cap. 1 sejam t1 , t2 ∈ R tais que 0 = t1 v + t2 w = (t2 , t1 + t2 , 0). Observamos que o único par (t1 , t2 ) satisfazendo t1 = 0 e t1 + t2 = 0 é dado por
(t1 , t2 ) = (0, 0). Concluimos que {v, w} é linearmente dependente.
Lista 2
1. Uma forma escalonada é:

1
 0

 0
0

0
−2 −6
1
3
6 −2 −k 

0
0
1
0 
0
0
0
k
Observamos que a última linha é pivô se e somente se k ∈ R \ {0}. Para
k = 0 observamos que o sistema possui uma variável livre (pois q = n−p =
4 − 3 = 1). Concluimos
(a) Nenhuma solução para k ∈ R \ {0}.
(b) Única solução para nenhum k ∈ R.
(c) Infinitas soluções para k = 0.
2. O efeito da operação li ↔ lj (operação arbitrária do tipo (a), onde i 6= j)
é o mesmo que o efeito das seguintes operações elementas dos tipos (b) e
(c):
1. lj ← lj + li
2. li ← li + (−1)lj
3. lj ← lj + li
4. li ← (−1)li
Argumento formal (não exigido aqui): Se denotamos a matriz original por
A0 e a matriz depois do passo n por An (i.e., a matriz final vai ser A4 )
temos (usando os quatro passos acima):
1. li (A1 ) = li (A0 ) e lj (A1 ) = lj (A0 ) + li (A0 )
2. li (A2 ) = li (A1 ) + (−1)lj (A1 ) e lj (A2 ) = li (A1 )
3. li (A3 ) = li (A2 ) e lj (A3 ) = lj (A2 ) + li (A2 )
4. li (A4 ) = (−1)li e lj (A4 ) = li (A4 )
Então podemos calcular:
lj (A4 ) = lj (A3 ) = lj (A2 )+li (A2 ) = lj (A1 )+li (A1 )−lj (A1 ) = li (A1 ) = li (A0 ).
3
e
li (A4 ) = −li (A3 ) = −li (A2 ) = −li (A1 )+lj (A1 ) = −li (A0 )+lj (A0 )−li (A0 ) = lj (A0 ).
(Um exemplo também podia ser útil para entender o que está acontecendo
aqui.)
3. (1P) Sejam 1 ≤ q ≤ n, 1 ≤ k1 < . . . < kq ≤ n e v1 , . . . , vq ∈ Rn como no
exercício. Sejam α1 , . . . αq ∈ R tais que
0=
q
X
αi v i .
i=1
Escrevendo
(
δij :=
1, i = j
0, senão
(δ de Kronecker), observamos vki j = δij para i, j ∈ {1, . . . , q}. Agora
seja j ∈ {1, . . . , q}. Calculando a kj -ésima componente do vetor acima,
obtemos
q
q
X
X
0=
αi vki j =
αi δij = αj
i=1
1
i=1
q
Concluimos que (v , . . . , v ) é um sistema linearmente independente.
Lista 3
1. (a) Escrevendo os vetores numa matriz e subtraindo 4 vezes a primeira
linha da última, obtemos uma matriz em forma escalonada:


1 −1
α
0 5
−2 
0 0 4(α2 − α)
Concluimos que o sistema homogêneo associado possui infinitas soluções se, e somente se, (p < n = 3, i.e.) 0 = α2 − α = α(α − 1) - o
que é equivalente a α ∈ {0, 1}.
(b) Escolhemos α = 1 e temos de achar uma solução não-trivial do sistema


1 −1
1 0
 0
5 −2 0 
4 −4
4 0
Escalonando totalmente, obtemos

3
1 0
5
2
 0 1 −
5
0 0
0

0
0 
0
4
A solução do sistema acima é dado por
3
2
{(α1 , α2 , α3 ) ∈ R3 ; α1 = − α3 , α2 = α3 }.
5
5
Escolhendo α3 = 5, obtemos α1 = −3 e α2 = 2 e concluimos
0 = −3u + 2v + 5w.
2. O elemento neutro é dado por (0V , 0W ) pois (v, w) + (0V , 0W ) = (v +
0V , w + 0W ) = (v, w). O elemento inverso é dados por −(v, w) =
(−v, −w). Dos outros axiomas mostramos somente (SM1), as outras demonostrações são parecidos:
α((v1 , v2 ) + (w1 , w2 )) = α(v1 + w1 , v2 + w2 ) = (α(v1 + w1 ), α(v2 + w2 ))
= (αv1 + αw1 , αv2 + αw2 ) = (αv1 , αv2 ) + (αw1 , αw2 )
= α(v1 , v2 ) + α(w1 , w2 )
3. (a) Seja u ∈ hSi. Então existem n ≥ 0, v1 , . . . vn ∈ S e α1 , . . . , αn ∈ R
tais que
n
X
αi vi .
u=
i=1
i
Como U é espaço vetorial e v ∈ U ∀i ∈ {1, . . . , n}, concluimos
u ∈ U.
(A ideia em (a) era considerar o espaço gerado por S como subconjunto de V e mostrar que hSi automaticamente é contido em U . Em
outras palavras os espaço hSi é exatamente o mesmo - se S for considerado como subconjunto de V ou de U . Isso pode parecer meio-óbvio
mas é uma observação central para (b) e merece a demonstração dada
acima. Como esse detalhe não foi tão claro na notação da questão,
(a) é desconsiderado se o aluno só fiz a observação trivial que o espaço
gerado por S em U é contido em U .)
(b) ⊂: Segundo (a) cada subespaço U ⊂ V contendo S contém hSi.
⊃: U := hSi é um subespaço de V contendo S.
Lista 4
1. (a) Escalonamos a seguinte matriz

0
 −1

 2
1
para identificar os pivôs.

1 1 3
2 1 5 

1 3 5 
0 1 1
5
A forma totalmente escalonada é

1 0
 0 1

 0 0
0 0
dada por

1 1
1 3 

0 0 
0 0
e observamos que os pivôs são dados pelas primeiras duas colunas.
(Qualquer forma escalonada devia dar os mesmos pivôs.) Concluimos
que uma base de hSi é dada por
    
1 
0



    
−1
 , 2
β= 
 2  1





0
1
2. Usamos a base canônica de R4

0
−1

2
1
e consideramos a matriz

1 1 0 0 0
2 0 1 0 0

1 0 0 1 0
0 0 0 0 1
Escalonamos que observamos que os pivôs são dados pelas primeiras quatro
colunas. Portanto podemos usar β 0 = β ∪ {e1 , e2 }.
3. (a) Observamos
v 1 + . . . + v n − (v 1 + . . . + v n ) = 0.
e (1, . . . , 1, −1) ∈ Rn+1 \ {0}.
(b) Sejam α1 . . . , αn ∈ R tais que
0=
n−1
X
n
X
αi v i + αn (
vi )
i=1
=
i=1
n−1
X
(αi − αn )v i + αn v n
i=1
Como (v 1 , . . . , v n ) é um sistema linearmente independente, concluimos
αi = αn ∀i ≤ n − 1 e αn = 0
e portanto αi = 0 para todo i ∈ {1, . . . , n}.
4. (i)⇒(ii): Como β é base, temos hβi = V .
6
Supomos que exista b ∈ β tal que hβ \ {b}i = hβi = V . Então b ∈
hβ \ {b}i e, portanto, existem n ∈ N, α1 , . . . , αn ∈ R e b1 , . . . , bn ∈
β \ {b} tais que
n
X
b=
αi bi ,
i=1
i.e.
n
X
αi bi + 1b = 0.
i=1
1
n
Mas como b, b , . . . , b são elementos distintos de β (e 1 6= 0), concluimos que β é linearmente dependente. Esta contradição implica
que o b da nossa hipótese não existe e, portanto, hβ \{b}i =
6 hβi ∀b ∈
β.
(ii)⇒(i): hβi = V significa que β é conjunto-gerador de V .
Falta mostrar que β é linearmente independente: Se β fosse linearmente dependente, existiriam n ∈ N, (α1 . . . , αn ) ∈ Rn \ {0} e
b1 , . . . , bn ∈ β tais que
0=
n
X
αi bi .
i=1
Mas (α1 . . . , αn ) ∈ Rn \ {0} implica que existe i0 ∈ {1, . . . , n} tal que
αi0 6= 0 e a equação acima implica
X αi i0
bi .
b =
−
αi0
1≤i≤n
i6=i0
Mas isso implica hβ \ {bi0 }i = hβi - uma contradição a (ii). Concluimos então que β é linearmente independente.
Para mais informações veja http://mtm.ufsc.br/∼martin/al/index.html.
Download

Álgebra Linear: Listas 1-4 Exercícios p/ entregar