GLOSSÁRIO: UM DICIONÁRIO PARA
ÁLGEBRA LINEAR
Matriz de adjacência de um grafo. Matriz quadrada com aij = 1 quando existe uma arestado nodo
i para o nodo j; caso contrário aij = 0. A = AT para um grafo não direcionado.
Transformação Afim T(v) = Av + v o = transformação linear mais desvio.
Lei Associativa (AB)C = A(BC). Os parênteses podem ser removidos para ler ABC.
Matriz aumentada [ A b ]. Ax = b é passível de solução quando b está no espaço de coluna de A;
então [ A b ] tem o mesmo posto de A. A eliminação em [ A b ] mantém as equações corretas.
Retrosubstituição. Sistemas triangulares superiores são resolvidos em ordem reversa de x n até x 1 .
Base para V. Vetores independentes v1 , ..., vd cujas combinações lineares geram qualquer v em V.
Um espaço de vetor tem muitas bases!
Grande fórmula para determinantes n por n. Det(A) é a soma de n! termos, um termo para cada
permutação P das colunas. Cada termo é o produto
abaixo da diagonal da matriz
reordenada vezes det(P) = ± 1.
Matriz de bloco. Uma matriz de blocos pode ser dividida em blocos matriciais por cortes entre as
linhas e/ou entre as colunas. A multiplicação de bloco de AB é permitida se as formas dos
blocos assim o permitirem (as colunas de A e as linhas de B devem constituir blocos
coincidentes).
Teorema de Cayley-Hamilton.
matriz zero.
Matriz M de Mudança de base. Os antigos vetores de base vj são combinações
novos vetores de base. As coordenadas de
relacionadas por d = M c. (Para
Equação Característica
dos
estão
).
. As n raízes são os autovalores de A.
Fatoração de Cholesky
para A positivo definida.
Matriz circulante C. Diagonais constantes se envolvem como em um desvio S cíclico. Cada
circulante é
. Cx = convolução c ∗ x. Autovetores em F.
Co-fator Cij. Remover a linha i e a coluna j; multiplicar o determinante por
.
Foto coluna de Ax = b. O vetor b se torna uma combinação das colunas de A. O sistema é passível
de resolução somente quando b estiver no espaço coluna C(A).
Espaço coluna C (A) = espaço de todas as combinações das colunas de A.
Matrizes que comutam AB = BA. Se diagonalizáveis, elas compartilham n autovetores.
Matriz companheira. Coloque c1 , ..., cn na linha n e coloque n – 1 1´s ao longo da diagonal 1. A
seguir
.
Solução completa x = xp + xn para Ax = b. (xp particular) + (xn no espaço nulo).
Complexo conjugado
para qualquer número z = a + ib complexo. Então
1
.
2
Glossário
Número de condição
. Em Ax = b, a mudança
relativa
é menor que cond (A) vezes a mudança relativa
. Os números de
condição medem a sensibilidade do resultado para alterações na entrada.
Método de Gradiente Conjugado. A seqüência de passos (final do Capítulo 9) para resolver
Ax = b positivo definida minimizando-se
sobre subespaços crescentes de
Krylov.
Matriz de Covariância Σ. Quando variáveis aleatórias x i possuem mediana = valor médio = 0, suas
covariâncias Σ i j são as médias de x i x j. Com médias
a matriz Σ = média de
é positiva (semi)definida; ela será diagonal se x i forem independentes.
Regra de Cramer para Ax = b. Bj tem b substituindo a coluna j de A e x j =Bj/A.
Produto vetorial u x v em R3 . O vetor perpendicular a u e v , extensão
paralelogramo, computada como o “determinante” de [i j k; u1 u2 u3 ; v 1 v 2 v 3 ].
= área do
Desvio cíclico S. Permutação com s21 = 1, s32 = 1, ..., finalmente
= 1. Seus autovalores são
raízes n-ésimas
de 1; autovetores são colunas da matriz F de Fourier.
Determinante A = det(A). Definida por det I = 1, sinal contrário para troca de linha e
linearidade em cada linha. Então A = 0 quando A for singular. Também AB =AB  e
. A grande fórmula para det (A) tem uma soma de n! termos, a
fórmula do co-fator usa determinantes de tamanho n – 1, volume da caixa = det(A).
Matriz diagonal D. d i j = 0 se i ≠ j. Diagonal de bloco: zero fora de blocos quadrados Di i .
Matriz diagonalizável A. Deve ter n autovetores independentes (nas colunas de S; automático com
n. autovalores diferentes). Então
matriz de autovalor.
Diagonalização
matriz de autovalor e S – matriz de autovetor. A deve ter n
autovetores independentes para tornar S não inversível. Para todo inteiro k, temos Ak = SΛk S-1 .
Dimensão do espaço vetorial dim (V) = número de vetores em qualquer base de V.
Lei Distributiva A(B + C) = AB + AC. Adicionar e multiplicar, ou multiplicar e adicionar.
Produto escalar
. O produto escalar complexo é
perpendiculares possuem produto escalar zero. (AB)ij = (linha i de A) ⋅ (coluna j de B).
. Vetores
Matriz escalonada U. A primeira entrada diferente de zero (o pivô) em cada linha vem depois do
pivô na linha anterior. Todas as linhas zero vêm por último.
Autovalor ? e autovetor x. Ax = ?x com x ≠ 0 de modo que det(A - ?I) = 0.
Eighshow. Autovalores gráficos 2 por 2 e valores únicos (MATLAB ou Java).
Eliminação. Uma seqüência de operações de linha que reduz A a uma triangular superior U ou a
uma forma R reduzida = rref (A). Então A = LU com multiplicadores
em L, ou PA = LU
com trocas de linha em P, ou EA = R com um E inversível.
Matriz de eliminação = Matriz elementar Ei j . A matriz de identidade com um
(i ≠ j). Então Ei j A subtrai
vezes a linha j de A da linha i .
na entrada i, j
Elipse (ou elipsóide) xTAx = 1. A deve ser positivo definida; os eixos da elipse são autovetores de
A, de comprimento
. (Para  x  = 1 os vetores y = Ax ficam na elipse
exibidas pelo eigshow; comprimentos de eixo ).
Exponencial
tem derivada
resolve u´= Au.
Glossário
3
Fatoração A = LU. Se a eliminação levar A até U sem troca de linhas, então a triangular inferior L
com multiplicadores
(e
) trará U de volta para A.
Transformação Rápida de Fourier (FFT). A fatoração da matriz Fn de Fourier em
matrizes Si vezes uma permutação. Cada Si precisa somente n/2 multiplicações, de modo que
e
podem ser calculadas com
multiplicações. Revolucionária.
Números de Fibonacci 0, 1, 1, 2, 3, 5, ... satisfazem
Taxa de crescimento
é o maior autovalor da matriz de Fibonacci
.
.
Quatro Subespaços fundamentais de A = C (A), N (A), C (AT), N (AT).
Matriz de Fourier F. As entradas
dão colunas ortogonais
Fc é a Transformada Discreta de Fourier (inversa)
.
. Então y =
Colunas livres de A. Colunas sem pivôs; combinações de colunas precedentes.
Variável livre xi . A coluna i não tem pivô na eliminação. Podemos dar quaisquer valores àsn - r
variáveis livres, então Ax = b determina as r variáveis pivô (se solúvel!).
Posto coluna completo r = n. Colunas independentes, N (A) = {0}, sem variáveis livres.
Posto
linha completo
r = m. Linhas independentes, pelo menos uma solução para
Ax = b, espaço coluna é todo de Rm. Posto completo significa posto coluna completo ou posto
linha completo.
Teorema Fundamental. O espaço nulo N (A) e o espaço de linha C (AT) são complementos
ortogonais (subespaços perpendiculares de Rm com dimensões r e n – r) a partir de Ax = 0.
Aplicado a AT, o espaço coluna C(A) é o complemento ortogonal de N (AT).
Método de Gauss-Jordan. Inverter A por operações de linha em [A I] para atingir [I A-1 ].
Ortogonalização de Gram-Schmidt A = QR. Colunas independentes em A, colunas ortonormais
em Q. Cada coluna qj de Q é uma combinação das primeiras colunas j de A (e reciprocamente,
R é triangular superior). Convenção: diag (R) > 0.
Grafo G. Conjunto de n nodos (ou vértices) conectados aos pares por m arestas. Um grafo
completo tem todas as n(n-1)/2 arestas entre os nodos. Uma árvore tem somente n – 1 arestas
e não tem ciclos. Um grafo dirigido tem a seta de direção especificada em cada aresta.
Matriz de Hankel H. Constante ao longo de cada diagonal; hi j depende de i + j .
Matriz de Hermit
. Complexo análogo de uma matriz simétrica:
.
Matriz de Hessenberg H. Matriz triangular com uma diagonal extra adjacente diferente de zero.
Matriz de Hilbert hilb (n). Entradas
mas extremamente pequena ? min e número de condição grande.
Matriz de Hipercubos
. Positivo Definida ,
. A linha n + 1 conta cantos, bordas, faces, ... de um cubo em Rn.
Matriz identidade I (ou In ). Entradas diagonais = 1, entradas fora de diagonais = 0.
Matriz de incidência de um grafo dirigido. A matriz m por n de incidência aresta-vértice tem uma
linha para cada aresta (nodo i até nodo j), com entradas –1 e 1 nas colunas i e j.
Matriz indefinida. Matriz simétrica com autovalores de ambos os sinais (+ e -).
Vetores independentes v1 , ...vk . Sem combinação c1 v 1 + ... + ckv k = vetor zero a menos que todos
ci = 0. Se os v são as colunas de A, a única solução para Ax = 0 será x = 0.
4
Glossário
Matriz inversa A-1 . Matriz quadrada com A-1 A = I e AA-1 = I. Sem inversão se det A = 0 e posto (A)
< n e AX = 0 para um vetor x diferente de zero. Os inversos de AB e AT são B-1 A-1 e (A-1 )T .
Fórmula de co-fator (A-1 )i j = Cj i / det A.
Método iterativo. Uma seqüência de passos visando aproximar a solução desejada.
Forma de Jordan J = M-1 AM. Se A tem s autovetores independentes, sua matriz de autovetores
“generalizados” M dá J = diag(J1,..., Js). O bloco Jk é ? k Ik + Nk onde Nk tem 1 na diagonal 1.
Cada bloco tem um autovalor ? k e um autovetor (1, 0, ..., 0).
Leis de Kirchhoff. Lei da Corrente: a corrente líquida (o que entra menos o que sai) é zero em
cada nodo. Lei da Voltagem: As diferenças de potencial (quedas de voltagem) somam a zero
ao redor de cada ciclo.
Produto de Kronecker (produto tensorial) A B. Blocos ai i B, autovalores ? p (A)? q(B).
Subespaço de Krylov Kj(A,b). O subespaço gerado por b, Ab, ...,Aj-1 b. Métodos numéricos
aproximam A-1 b por xj com resíduo b – Axj l nesse subespaço. Uma boa base para Kj exige
somente multiplicação por A em cada passo.
Solução com mínimos quadrados . O vetor
que minimiza o erro
Então
é ortogonal a todas as colunas de A.
resolve
.
Inversa esquerda A+.. Se A tem uma posto completo coluna, então A+ = (A TA)-1 AT tem
A+A = In.
Espaço Nulo à esquerda N (AT). O espaço nulo de AT = “espaço nulo à esquerda” de A porque
yT A = 0T.
comprimento
. Raiz quadrada de xTx (Pitágoras em n dimensões).
Combinação linear
. Adição de vetor e multiplicação escalar.
Transformação linear T. Cada vetor v no espaço domínio transforma-se em T(v) no espaço
imagem, e a linearidade exige
. Exemplos: Multiplicação de
matriz Av, diferenciação em espaços de função.
v1,...vn
linearmente dependentes. Combinação linear com nem
.
todos ci=0 que resulta em
Números de Lucas Ln = 2,1,3,4, ... satisfazem
com autovalores
da matriz de Fibonacci
. Compare L0 = 2 com Fibonacci.
Matriz de Markov M. Todas as
e cada soma de coluna é 1. O maior autovalor
k
, as colunas de M aproximan o autovetor em estado estacionário M s = s > 0.
. Se
Multiplicação de Matriz AB. A entrada i, j de AB é (linha i de A) ⋅ (coluna j de B) =
. Por
colunas: Coluna j de AB = A vezes coluna j de B. Por linhas: linha i de A multiplica B. Colunas
vezes linhas: AB = soma de (coluna k) (linha k). Todas essas definições equivalentes resultam
da regra de que AB vezes x é igual a A vezes Bx.
Polinômio mínimo de A. O polinômio de grau mais baixo com m(A) = matriz zero. As raízes de m
são autovalores, e m(?) divide det (A – ?I).
Multiplicação Ax = x 1 (coluna 1) + ... + x n (coluna n) = combinação de colunas.
Multiplicidades AM e GM. A multiplicidade algébrica AM de um autovalor ? é o número de vezes
em que ? aparece como raiz de det (A – ?I) = 0. A multiplicidade geométrica GM é o número
de autovetores independentes (= dimensão do autoespaço para ?).
Glossário
5
Multiplicador
entrada i,j,:
. A linha pivô j é multiplicada por
= (entrada a eliminar) / (pivô j).
e subtraída da linha i para eliminar a
Rede. Um gráfico dirigido com constantes c1 , ..., cm associadas com as arestas.
Matriz Nilpotente N. Alguma potência de N é a matriz zero, Nk = 0. O único autovalor é ? = 0
(repetido n vezes). Exemplos: matrizes triangulares com diagonal zero.
Norma
de uma matriz. A
e
; normas e
é a proporção máxima
. Então
e
. Norma de Frobenius
são as maiores somas de colunas e linhas de
.
Equação normal
. Fornece a solução de mínimos quadrados para Ax = b se A
possuir posto completo n. A equação diz que (colunas de A)⋅
= 0.
Matriz normal N. NNT = NTN, leva a autovetores ortonormais (complexos).
Espaço nulo N (A) = Soluções de Ax = 0. Dimensão n – r = (n.° de colunas) – posto.
Matriz de espaço nulo N. (As colunas de N são as n – r soluções especiais para As = 0. Matriz
ortogonal Q. Matriz quadrada com colunas ortonormais, de modo que QTQ = I implica QT =
Q-1 . Preserva extensão e ângulos,
. Todos os
, com
autovetores ortogonais. Exemplos: Rotação, reflexão, permutação.
Subespaços ortogonais. Cada v em V é ortogonal a cada w em W.
Vetores ortonormais q1 , ...qn. Produtos escalares são
se
e
. A matriz Q
com essas colunas ortonormais tem QTQ = I. Se m = n então QT = Q-1 e q1 , ..., qn é uma base
ortonormal para Rn : cada
.
Produto vetorial uvT = coluna vezes linha = matriz de posto um.
Pivotamento parcial Na eliminação, o j-ésimopivô é escolhido como a maior entrada disponível
(em valor absoluto) na coluna j. Então, todos os multiplicadores possuem
. O erro de
arredondamento é controlado (dependendo do número de condição de A).
Solução particular xp . Qualquer solução para Ax=b; freqüentemente xp tem variáveis livres = 0.
Matriz de Pascal PS = pascal(n). Matriz simétrica com entradas binomiais (formula). Todos os PS
= PLPU contêm o triângulo de Pascal com det = 1 (veja índice para mais propriedades).
Matriz de permutação P. Existem n! ordens de 1,...,n; os n! P têm as linhas de I nessas ordens. PA
coloca as linhas de A nessa mesma ordem. P é produto de trocas Pi j de linha; P é par ou ímpar
(detP = 1 ou –1) com base no número de trocas.
Colunas pivô de A. Colunas que contêm pivôs depois da redução por linhas; não são combinações
de colunas anteriores. As colunas de pivôs são a base para o espaço coluna.
Pivô d. A entrada da diagonal (primeira diferente de zero) quando uma linha é usada na eliminação.
Plano (ou hiperplano) em Rn . Soluções para aTx = 0 dão o plano (dimensão n – 1) perpendicular a
a ≠ 0.
Decomposição polar A = QH. Q ortogonal, positiva (semi)definida H.
Matriz A positivo definida. Matriz simétrica com autovalores positivos e pivôs positivos.
Definição: x TAx > 0 a menos que x = 0.
6
Glossário
Projeção p = a(aTb / aTa) na linha através de a. P = aaT / aTa tem posto 1.
Matriz de projeção P sobre o subespaço S. Projeção p = Pb é o ponto mais próximo a b em S,
erro e = b – Pb é perpendicular a S. P2 = P = PT, autovalores são 1 ou 0, autovetores estão em
S ou S⊥ . Se as colunas de A = base para S então P = A (A TA)-1 AT.
Pseudoinversa A+ (Inversa de Moore -Penrose). A matriz n por m que “inverte” A de espaço
coluna de volta para espaço linha, com N (A+) = N (AT). A+ A e AA+ são as matrizes de projeção
no espaço linha e no espaço coluna. Posto (A+) = Posto (A).
Matriz aleatória rand (n) ou randn (n). O Programa MATLAB cria uma matriz com entradas
aleatórias, uniformemente distribuídas em [0 1] para rand e com distribuição padronizada
normal para randn.
Matriz de posto um A = uvT ≠ 0. Espaços linha e coluna = linhas cu e cv.
Posto r (A) = número de pivôs = dimensão do espaço coluna = dimensão do espaço linha.
Quociente de Rayleigh q(x) = xT Ax/xTx para A simétrico:
extremos são atingidos nos autovetores x para
. Esses
.
Forma escalonada reduzida por linha R = rref(a). Pivôs = 1; zeros acima e abaixo dos pivôs; r
linhas diferentes de zero de R fornecem uma base para o espaço linha de A.
Matriz de reflexão Q = I - 2uuT. O vetor unitário v é refletido para Qu = -u. Todos os vetores x no
espelho plano xTx = 0 permanecem inalterados porque Qx = x. A “Matriz de Householder” tem
QT = Q-1 =Q.
Inversa direita A+. Se A tem posto completo m de linha, então A+ = AT (AAT)-1 tem AAT = Im .
Matriz de rotação R =
Matriz ortogonal, autovalores
gira o plano por
e
e R-1 = RT gira de volta por
.
, autovetores (1, ±i).
Aparência linha de Ax = b. Cada equação fornece um plano em Rn ; os planos se intersectam em x.
Espaço linha C (AT) = todas as combinações de linhas de A. Vetores coluna por convenção.
Ponto de sela de f (x 1 , ..., xn ). Um ponto no qual as primeiras derivadas de f são zero e a segunda
matriz derivada (
= matriz Hessiana) é indefinida.
Complemento de Schur S = D = CA-1 B. Aparece em eliminação de bloco em (formula).
Desigualdade de Schwarz
. Então
Matriz semidefinida A. Semidefinida (positiva) significa simétrica com
vetores x. Então, todos os autovalores
; não há pivôs negativos.
se A = CTC.
para todos os
Matrizes similares A e B. Toda B = M-1 AM tem os mesmos autovalores de A.
Método simplex de programação linear. O vetor de custo mínimo x* é encontrado movendo-se
do canto para o canto de custo menor ao longo das arestas do conjunto viável (onde as
restrições Ax= b e x ≥ 0 são satisfeitas). Custo mínimo no canto!
Matriz singular A. Uma matriz quadrada que não tem inversa: det(A) = 0.
Decomposição de Valor Único (SVD)
(U ortogonal) vezes (Σ diagonal) vezes
(VT ortogonal). Primeiras r colunas de U e de V são bases ortonormais de C(A) e de C(AT) com
e valor único
. As últimas colunas de u e de V são bases ortonormais dos
T
espaços nulos de A e de A.
Glossário
7
Matriz skew simétrica K. A transposta é –K, uma vez que Ki j = -Kj.i. Autovalores são imaginário
puro, autovetores são ortogonais,
é uma matriz ortogonal.
Sistema solúvel Ax = b. O lado direito b está no espaço de coluna de A.
Conjunto gerador v1, ...,vm para V. Todos os vetores em V são uma combinação de v1,...,vm.
Soluções especiais para As = 0. Uma variável livre é si = 1, outras variáveis livres = 0.
Teorema espectral A = Q? QT. A simétrico real tem ? i real e qi ortonormal com
mecânica, o qi fornece os eixos principais.
Espectro de A = o conjunto de autovalores {? 1,...,? n }. Raio espectral =
. Em
.
Base padrão para Rn . Colunas da matriz identidade n por n (escrito i, j, k em R3 ).
Matriz de rigidez K. Se x fornecer os movimentos dos nodos em uma estrutura discreta, Kx
fornecerá as forças internas. Com freqüência K = ATCA onde C contém constantes de mola da
Lei de Hooke e Ax = deslocamentos (tensões) dos movimentos x.
Subespaço S de V. Qualquer espaço vetorial dentro de V, incluindo V e Z = {vetor zero}.
Soma V + W de subespaços. Espaço de todos (v em V) + (w em W). Soma direta: dim (V + W) =
dim V + dim W quando V e W compartilham somente o vetor zero.
Fatorações simétricas A = LDL T e A = Q? QT.. O número de pivôs positivos em D e os autovalores
positivos em ? é o mesmo.
Matriz simétrica A. A transposta é AT = A, e ai j = ai j . A-1 também é simétrica. Todas as matrizes
da formação RT R e LDL T e Q?QT são simétricas. Matrizes simétricas possuem autovalores reais
em ? e autovetores ortonormais em Q.
Matriz de Toeplitz T. Matriz com diagonal constante, de modo que t i j depende somente de j – i.
Matrizes de Toeplitz representam filtros lineares invariantes no tempo em processamento de
sinais.
Traço de A = soma das entradas da diagonal = soma de autovalores de A. Tr AB = Tr BA.
Matriz transposta AT. Entradas (formula). AT é n por m, ATA é quadrada, simétrica, positivo
semidefinida. As transpostas de AB e A-1 são BT AT e (AT)-1 .
Desigualdade
triangular
.
.
Para
normas
matriciais:
Matriz tridiagonal T: ti j = 0 se i - j > 1. T-1 tem posto 1 acima e abaixo diagonal.
Matriz unitária
. Colunas ortonormais (análogo complexo de Q).
Matriz de VandermondeV. Vc = b fornece o polinômio
em n pontos.
e det V = produto de
com
.
Vetor v em Rn . Seqüência de n números reais v = (v 1 , ..., v n ) = ponto em Rn .
Adição de vetor. v + w = (v 1 + w1 , ..., v n + wn ) = diagonal do paralelogramo.
Espaço vetorial V. Conjunto de vetores tal que todas as combinações cv + dw permanecem em V.
As oito regras exigidas são fornecidas na Seção 3.1 para cv + dw.
Volume da caixa. As linhas (ou colunas) de A geram uma caixa com volume det(A).
Ondaletas (Ondas pequenas: wavelets) wj k (t) ou vetores wj k . Estendem e desviam o eixo de
tempo para criar
. Vetores de w00 = (1, 1, -1, -1) seriam (1, -1, 0,0) e
(0,0,1, - 1).
8
Glossário
Download

Glossário: Um Dicionário para Álgebra Linear