CONTROLO 1
Conceitos fundamentais de algebra
Propriedades do determinante de uma matriz:
1.
2.
3.
4.
Sejam A e B duas matrizes de dimensão nxn, então |AB| = |A||B|
|A| = |AT|
Se A é não singular então |A-1| = 1/|A|
Multiplicando-se qualquer linha ou coluna por um escalar α então a matriz
resultante terá determinante αA.
5. Qualquer multiplo de uma coluna ou linha pode ser adicionado a outra coluna ou
linha sem alterar o valor do determinante.
6. O determinante de uma matriz triângular é o produto dos elementos da diagonal
principal.
7. O determinante de uma matriz triângular por blocos é igual ao produto do
determinante de cada um dos blocos na diagonal principal.
Propriedades da inversa de uma matriz
1. (AB)-1 = B-1A-1
def
2. (A-1)T = (AT)-1 = A-T
Teste da Gram (independência linear)
Definição da matriz de Gram:
Seja X = [x1 x2 … xk]
A matriz de Gram é dada por: G = XTX
Os vectores x1… xk ∈ ℜn são linearmente independentes se a matriz de Gram
associada tiver determinante não nulo.
O vector y pertence ao subespaço cuja base é x1… xk se G = [x1… xk y]T[x1… xk y]
tem determinante nulo.
Ortognalidade
Norma Euclidiana: ||x||2 = xTx = x12 + x22 + …+ xn2
Seja c = x – y, então: ||c||2 = ||x||2 + ||y||2 - 2||x|| ||y||cos(α), sendo α o ângulo formado
por x e y.
Por outro lado:
||c|| = ||x – y|| = ||y – x|| = (x – y)T(x – y) = ||x||2 – 2xTy + ||y||2
donde:
cos(α)=
xTy
||x|| ||y||
ou seja x e y são ortogonais de xTy = 0.
Dois subespaços S1 e S2 de ℜn são subespaços ortogonais se qualquer x ∈ S1 é
ortogonal a qualquer y ∈ S2. Se x1… xp é uma base de S1 e y1… yq é uma base de S2
então S1 e S2 são ortogonais se xiTyj = 0, i=1, …, p, j=1,…,q.
Projecções ortogonais
A distância minima entre um vector e um subespaço é um vector ortogonal a esse
subespaço.
Sendo y = yp + ye, em que yp ∈ R e ypTye=0, então yp é a melhor aproximação de y
pertencente ao subespaço R e denomina-se projecção de y em R.
Seja x1… xr uma base de R. A projecção de y em R pode então ser calculada através
de:
yeTxi = 0 ,
i=1,…, r
ou seja:
α)Txi = 0,
i=1,…, r
(y – yp) Txi = (y - Xα
ou seja:
(y - Xα
α)TX = 0 α = (XTX)-1XTy
O vector yp procurado será dado por:
yp = Xα
α = X(XTX)-1XTy = PRy
sendo PR a chamada matriz de projecção ortogonal no subspaço R. Para se projectar
qualquer vector no subespaço R basta multiplicar esse vector por PR.
Propriedades da matriz de projecção ortogonal:
Simétrica: PRT = PR
“idempotent”: PR PR = PR
Complemento ortogonal de um subespaço
Seja x1… xr uma base de um subespaço R. O complemento ortogonal de R é dado
por:
R⊥ = {y ∈ ℜn : yTxi = 0, i = 1, …, r}
Qualquer vector de qualquer base de R⊥ será obviamente ortogonal a qualquer vector
de qualquer base de R.
A dimensão de R⊥ será s = n – r
⊕R⊥
ℜn = R⊕
Espaço nulo de uma matriz
null(A) = { x ∈ ℜn : Ax = 0 }
Sendo protanto x ortogonal a todas as linhas de A, ou seja:
x ∈ null(A) => x ∈ row(A)⊥
Mostra-se tembém que a implicação inversa também é verdadeira donde:
null(A) = row(A)⊥
Valores e vectores próprios
Definição:
Ax = λx
Cálculo dos valores próprios: det(λI – A) = 0
Se λ é um valor próprio de A então αλ é um valor próprio de αΑ.
Α.
Se λ é um valor próprio de A então α + λ é um valor próprio de αΙΙ + Α.
def
Seja T uma matriz não singular e A = TAT-1. Diz-se que A e A são matrizes
similares.
Matrizes similares têm os mesmos valores próprios.
Vectores próprios correspondentes a valores próprios distintos são linearmente
independentes.
O determinante de uma matriz é dado pelo produto dos seus valores próprios.
Uma matriz e a sua transposta têm os mesmos valores próprios.
Os valores próprios de uma matriz triângular são os elementos da sua diagonal
principal.
Os valores próprios de uma matriz triângular por bloco é união dos valores próprios
de cada bloco.
Sejam os valores e vectores próprios de A:
Axi = λi xi,
i = 1, …, n
Ou seja:
AX=XD
em que as colunas de X são os vectores próprios de A e D é uma matriz diagonal em
cuja diagonal temos os respectivos valores próprios de A.
Prova-se que: Ak = XDkX-1
Decomposição em valores singulares
Uma matriz A de dimensão mxn e caracteristica r pode ser decomposta na seguinte
forma:
A = U Σ VT
em que:
[Σ
Σ] = mxn,
[U] = mxm,
[VT] = nxn
UTU = Im
VTV = In
σ1 . . .
0
0 ...
0
...
...
...
...
...
...
0
...
σr 0 . . .
0
0
...
0


Σ=


0 ... 0




Os valores σi são os valores singulares de A. São não negativos e estão ordenados em
ordem decrescente.
Mostra-se que:
i) o quadrado dos valores singulares não nulos de A são os valores próprios não nulos
de AAT ou ATA.
ii) as colunas de U são os vectores próprios de AAT
iii) as colunas de V são os vectores próprios de ATA
Decompondo-se U e V da seguinte forma:
U = [ui . . . ur | ur+1 . . . um] = [ U1 | U2 ]
V = [vi . . . vr | vr+1 . . . vm] = [ V1 | V2 ]
resulta:
A = U1 Σ1 V1T
sendo:
U1 uma base ortonormal do subespaço gerado pela colunas de A
U2 uma base ortonormal do complemento ortogonal do subespaço gerado pela
colunas de A
V1 uma base ortonormal do subespaço gerado pela linhas de A
V2 uma base ortonormal do espaço nulo de A
Equações lineares
Sejam m equações lineares a n incógnitas:
Ax=y
, [A] = mxn
[x] = nx1
[y] = mx1
sendo x o vector das incógnitas.
Seja W = [ A y]
Caracterização da solução pela caracteristica:
Se c(W) ≠ c(A) => y ∉ col(A) => não tem solução
Se c(W) = c(A) => y ∈ col(A) => tem solução
Se c(W) = c(A) = n => tem uma única solução
Se c(W) = c(A) = r < n => tem infinitas soluções soluções com grau de
liberdade n – r.
Se c(A) = m ≤ n existe uma solução (não única se m < n) para cada vector y.
Caracterização pela dimensão da matriz:
Seja m = n:
Se det(A) ≠ 0 a solução é única e dada por x = A-1y
Se det(A) = 0 não existe solução para qualquer y. No entanto se
c(W) = c(A) = r < n então existe uma infinidade de soluções (grau de
liberdade n – r).
Seja m > n:
Se c(A) = n então a solução única minimiza a norma de y – Ax sendo a
projecção de y no subespaço gerado pelas colunas de A e sendo dada
por:
xLS = (ATA)-1ATy
Se c(A) < n existe um numero infinito de soluçõe se o só se
c(W) = c(A) = r < n.
Seja m < n:
Se c(A) = m existe um número infinito de solução. No entanto a
solução de norma minima é dada por:
Xmin-norm = A(ATA)-1ATy
Se c(A) < m podem ou não existir soluções.
Utilização da decomposição em valores singulares para a resolução de equações
lineares
Considere-se o sistema de equações: Ax = y em que a matriz A tem dimensão mxn.
Seja a decomposição em valores singulares:
 Σ1 0   V1T

A = [ U1 U2 ] 

 0 0   V2T




A matriz Σ1 de dimensão rxr contem r valores singulares não nulos de A. As matrizes
U1 e V1 têm r colunas.
Se y = 0 então as soluções correspondem ao espaço nulo de A. A matriz V2 contem
uma base para esse espaço donde as soluções são do tipo:
x = V2α
em que α contêm n –r parâmetros.
Se y ≠ 0 calcula-se o seguinte vector:
z = V1Σ-11 UT1 y
O vector z tem as seguintes propriedades:
1. Se Ax = y tem uma solução única então z é a solução
2. Se Ax = y não tem solução então z dá a solução de mínimos quadrados. Se
a solução de mínimos quadrados não for única dá a solução de norma
mínima. Outras soluções de mínimos quadrados podem se obtidas
adicionando-se do espaço nulo de A:
x = z + V2α
3. Se Ax = y tem um número infinito de soluções, z é a solução de norma
mínima. Outras soluções podem ser obtidas de forma idêntica ao ponto
anterior.
Download

CONTROLO 1