Álgebra Linear
Índice
Lógica e Demonstração
3
1 Demonstração Directa
3
2 Recíproco e Contrapositivo
3
3 Demonstração Indirecta ou por Redução ao Absurdo
4
4 Demonstração por Indução Matemática
5
Matrizes e Determinantes
7
5 Nota Histórica
7
6 Teoria das Matrizes
15
6.1 Definições e Generalidades . . . . . . . . . . . . . . . . . . . . . . 15
6.2 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
6.2.1 Soma de matrizes. . . . . . . . . . . . . . . . . . . . . . . 18
6.2.2 Multiplicação de uma matriz por um escalar. . . . . . . . 20
6.2.3 Multiplicação de matrizes. . . . . . . . . . . . . . . . . . . 22
6.2.4 Multiplicação por blocos. . . . . . . . . . . . . . . . . . . 27
6.3 Transposição de matrizes. Matrizes Simétricas. . . . . . . . . . . 30
6.4 Traço de uma matriz . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.5 Dependência e independência lineares de filas paralelas de uma
matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.6 Característica de uma matriz. Operações elementares. . . . . . . 41
6.6.1 Operações Elementares . . . . . . . . . . . . . . . . . . . 42
6.6.2 Determinação da Característica de Linha de uma Matriz . 51
6.7 Inversão de Matrizes . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.7.1 Definições e Resultados . . . . . . . . . . . . . . . . . . . 56
6.7.2 Determinação da Inversa de uma Matriz Regular . . . . . 66
6.8 A Característica Revisitada . . . . . . . . . . . . . . . . . . . . . 70
6.9 Resolução de Sistemas de Equações Lineares . . . . . . . . . . . . 74
6.9.1 Enquadramento Teórico . . . . . . . . . . . . . . . . . . . 74
6.9.2 Sistemas de Equações Lineares Indeterminados . . . . . . 87
6.9.3 Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . 97
6.10 Matrizes com propriedades especiais . . . . . . . . . . . . . . . . 98
2
2 Recíproco e Contrapositivo
Lógica e Demonstração
Resumem-se, neste capítulo, os três métodos de demonstração matemática existentes, e cuja aplicação será assídua ao longo de todo o texto.
1
Demonstração Directa
O modo directo de demonstrar a proposição A ⇒ B consiste em determnar
uma sequência de teoremas e/ou axiomas aceites na forma Ai ⇒ Ai+1 , para
i = 1, · · · , n de modo a que A1 ⇒ A e An ⇒ B. A dificuladade está, obviamente,
em encontrar a sequência de axiomas e/ou teoremas que preenchem o vazio entre
A e B. A afirmação A designa-se por hipótese, ou seja, aquilo que é dado e a
afirmação B designa-se por tese, isto é, a conclusão. O método assim descrito
denomina-se raciocínio dedutivo.
Consideremos o seguinte Teorema ilustrativo:
Teorema 1 Seja m um inteiro par e p um inteiro qualquer. Então m × p é um
inteiro par.
Demonstração.
1. m é um inteiro par (Dado, por hipótese).
2. existe um inteiro q tal que m = 2 × q (Definição de um número inteiro
par).
3. m × p = (2q) p (Utilizando o axioma a = b ⇒ ac = bc).
4. m × p = 2 (qp) (Pela propriedade associativa da multiplicação).
5. m × p é um inteiro (Pela definição de um número inteiro par).
2
Recíproco e Contrapositivo
Definição 1 Considere-se a proposição Π da forma A ⇒ B : se a hipótese A
se verifica então a tese, B, também se verifica. O recíproco da proposição Π é
a proposição B ⇒ A.
3
3 Demonstração Indirecta ou por Redução ao Absurdo
O recíproco de uma proposição Π consiste em inverter os papéis da hipótese
e da tese de Π. Há muitas situações em que o recíproco e uma proposição verdadeira não é verdadeiro. Por exemplo, a proposição a = b ⇒ ac = bc, ∀a,b,c∈R é
sempre verdadeira, mas ac = bc ⇒ a = b não é verdadeira para quaisquer
a, b, c ∈ R; basta, evidentemente, que c = 0. Outras situações há, no entanto,
em que uma proposição e o seu recíproco são ambas verdadeiras.
Definição 2 Se a proposição A ⇒ B e o seu recíproco, B ⇒ A, são ambos
verdadeiros diz-se que A se verifica se e só se B se verifica. Alternativamente,
diz-se que A e B são equivalentes e escreve-se A ⇐⇒ B.
Existe uma proposição, formada a partir de qualquer proposição Π, que é
verdadeira sempre que Π é verdadeira: o contrapositivo de Π.
Definição 3 Considere-se uma proposição Π : A =⇒ B. A proposição ∼ B =⇒∼
A designa-se por contrapositivo de Π.
Exemplo 1 Considere-se a seguinte proposição:
(A) n é um número primo diferente de 2.=⇒ (B) n é um inteiro ímpar.
O contrapositivo desta proposição será dado por:
(∼ B) n é um inteiro par.=⇒ (A) n não é um número primo ou n = 2.
3
Demonstração Indirecta ou por Redução ao
Absurdo
Consideremos o seguinte resultado:
Proposição 1 A proposição A =⇒ B é verdadeira se e só se o seu contrapositivo é verdadeiro.
Demonstração. Com recurso a uma tabela de verdade é extremamente
simples provar que (A =⇒ B) ⇐⇒ (∼ B =⇒∼ A):
A
V
F
V
F
B
V
V
F
F
A =⇒ B
V
V
F
V
∼B
V
F
V
F
∼A
V
V
F
F
∼ B =⇒∼ A
V
V
F
V
Note-se as colunas relativas a (A =⇒ B) e (∼ B =⇒∼ A) o que completa a
demonstração.
4
4 Demonstração por Indução Matemática
Assim, uma forma de mostrar a validade de uma proposição A =⇒ B é
mostrar a validade do seu contrapositivo ∼ B =⇒∼ A. Esta linha de raciocínio
designa-se por demonstração indirecta ou demonstração por redução ao absurdo.
Com efeito, se, partindo de ∼ B, provarmos directamente que ∼ A é verdadeira,
o absurdo reside no facto de, originalmente, assumirmos que a afirmação A é
verdadeira.
Conideremos o seguinte Teorema ilustrativo.
Teorema 2 Se p é um número natural e p2 é par, então p é par.
¢
¡
Demonstração. Pretende-se mostrar p2 é par ⇒ (p é par), para qualquer p ∈ N.
Suponhamos então que existe um natural p tal que p é ímpar. Então ∃q∈N :
2
2
p = 2q +1. Assim,
virá (2q + 1)2 = 4q 2 +4q +1,
¡ 2 p ¢= (2q + 1) . Desenvolvendo,
2
2
isto é, p = 4 q + q + 1. Mas então p é um número ímpar, o que é absurdo,
pois a hipótese original era a de que p2 era par. O absurdo vem de se assumir
que p é par, logo p terá de ser ímpar.
4
Demonstração por Indução Matemática
Existe um terceiro método de demonstração que difere significativamente do
método por demonstração directa e do método de transformação por indução:
a demonstração por indução matemática.
As demonstrações por indução têm a limitação de só poderem ser aplicadas a
afirmações envolvendo os números inteiros ou, indexadas aos números inteiros.
Consideremos então uma sequência de afirmações indexadas aos números inteiros, de modo que Π (1) é a primeira afirmação, Π (2) é a segunda afirmação
e Π (n) é a n − ésima afirmação. Suponhamos que é possível demonstrar dois
factos àcerca desta sequência:
(i) A afirmação Π (1) é verdadeira.
(ii) Se, para algum k ∈ N, a afirmação Π (k) é verdadeira então a afirmação
Π (k + 1) também é verdadeira.
Nestas circunstâncias a afirmação Π (n) é verdadeira para qualquer n ∈ N.
Conideremos o seguinte Teorema ilustrativo.
Teorema 3 A soma dos primeiros n números naturais, 1 + 2 + · · · + n, é igual
a 12 n (n + 1).
5
4 Demonstração por Indução Matemática
Demonstração. Procedamos à demonstração por Indução Matemática,
sabendo que a afirmação a demonstrar é dada por:
Π (n) = 1 + 2 + · · · + n =
1
n (n + 1)
2
(i) Consideremos n = 1. Neste caso, a soma dos primeiros naturais será 1,
que é precisamente igual a 12 × 1 × (1 + 1).
(ii) Suponhamos que a afirmação é válida para qualquer k ∈ N. Mostemos
que então deverá ser válida para k + 1. Assumindo que Π (k) é verdadeira,
sabemos que:
Π (k) = 1 + 2 + · · · + k =
1
k (k + 1)
2
Queremos mostrar que:
Π (k + 1) = 1 + 2 + · · · + (k + 1) =
1
(k + 1) (k + 2)
2
Mas,
Π (k + 1) = (1 + 2 + · · · + k) + (k + 1) =
{z
}
|
Π(k)
=
=
=
=
1
k (k + 1) + (k + 1) =
2
¶
µ
1
k + 1 (k + 1) =
2
µ
¶
k+2
(k + 1) =
2
1
(k + 2) (k + 1)
2
Logo, Π (n) é válida para qualquer n ∈ N.
6
5 Nota Histórica
Matrizes e Determinantes
5
Nota Histórica
Historicamente, os primeiros esboços de matrizes e determinantes remontam ao
segundo século a. C. embora existam traços da sua existência em épocas tão
distantes quanto o séc. IV a. C. No entanto, não foi senão nos finais do séc.
XVII da nossa era que as ideias reapareceram e o seu desenvolvimento floresceu.
Não é surpreendente que os primórdios das matrizes e determinantes tenham surgido através do estudo de sistemas de equações lineares. Os Babilónios
estudaram problemas que levaram à resolução simultânea de equações lineares.
Alguns destes problemas sobreviveram até hoje preservados em placas de argila.
Por exemplo, uma placa datada de cerca de 300 a. C. contém o seguinte problema:
Existem dois campos com uma área total de 1800 m2 . Um produz
grão à taxa de 23 de alqueire por m2 enquanto o outro produz grão à
taxa de 12 de alqueire por m2 . Se a colheita total é de 1100 alqueires
qual é a área de cada campo.
Este problema conduz, modernamente, à resolução do sistema de equações
(1) ilustrado em seguida:
½
x + y = 1800
+ 12 y = 1100
2
3x
(1)
Os Chineses, no período entre 200 a. C. e 100 a. C., chegaram mais próximo
da noção de matriz que os Babilónios. Efectivamente, é justo referir que o
texto chinês ”Nove Capítulos da Arte Matemática” escrito durante o período da
dinastia Han (206 a. C.-220 d. C.) ilustra os primeiros exemplos conhecidos de
métodos matriciais, descrevendo principalmente um conjunto de problemas com
regras gerais para a sua solução. Estes problemas têm um carácter aritmético e
conduzem a equações algébricas com coeficientes numéricos. A título ilustrativo
considere-se um desses problemas:
Existem três tipos de milho. Três molhos do primeiro tipo, dois do
segundo e um do terceiro completam 39 medidas. Dois molhos do
primeiro tipo, três do segundo e um do terceiro prefazem 34 medidas. Finalmente, um molho do primeiro tipo, dois do segundo e três
do terceiro prefazem 26 medidas. Quantas medidas de milho estão
contidas num molho de cada tipo?
Modernamente, o sistema de equações lineares (2) permite resolver o problema em aberto.
7
5 Nota Histórica

 3x + 2y + z = 39
2x + 3y + z = 34

x + 2y + 3z = 26
(2)
O autor do texto propôs um método de resolução notável: os coeficientes
das três equações a três incógnitas que compõem o sistema são dispostos como
uma tabela num ”quadro de contagem”:
1 2 3
2 3 2
3 1 1
26 34 39
Os métodos modernos dos finais do séc. XX levariam a dispor os coeficientes das equações lineares em linhas, em vez de colunas, mas intrinsecamente
o método é idêntico.
Seguidamente, o autor, escrevendo em 200 a. C. instrui o leitor a multiplicar
a coluna central por 3 e subtrair a coluna da direita, tantas vezes quanto possível;
de modo semelhante, subtrai-se a coluna da direita, tantas vezes quanto possível,
da primeira coluna multiplicada por 3. Destas operações ,resulta o quadro:
0 0 3
4 5 2
8 1 1
39 24 39
Seguidamente, a coluna da esquerda é multiplicada 5 vezes e a coluna central
subtraída tantas vezes quanto possível, resultando no quadro:
0 0 3
0 5 2
36 1 1
99 24 39
Desta tabela é possível determinar, em primeiro lugar, a solução relativamente ao terceiro tipo de milho, seguida do segundo e finalmente do primeiro
tipo. Este método é hoje em dia conhecido como o Método de Eliminação de
Gauss, discutido no âmbito da resolução de sistemas de equações lineares, tema
abordado na secção 6.9, que só virá a ser bem compreendido no início do séc.
XIX.
O matemático italiano Cardan, na sua obra ”Ars Magna”(1545), fornece
uma regra para resolver sistemas de 2 equações lineares, a que dá o nome de
regula de modo. Esta regra é, substantivamente, o que modernamente se designa
por Regra de Cramer para a resolução de sistemas de 2 equações lineares a 2
incógnitas, embora Cardan não tenha dado o passo decisivo e final na definição
8
5 Nota Histórica
da regra. Assim, Cardan não chega até á definição de determinante, mas, numa
perpectiva actual é possível concluir que o seu método leva efectivamente à
definição de determinante.
Muitos dos resultados associados à Teoria Elementar das Matrizes apareceram antes das Matrizes serem objecto de investigação matemática. Por exemplo,
de Witt, na sua obra ”Elementos das Curvas”, publicado como parte dos comentários à edição latina de 1660 da ”Geometria” de Descartes, mostra como
uma transformação dos eixos ordenados reduz a equação de uma cónica à forma
canónica. O processo consiste, modernamente, na diagonalização de uma matriz
simétrica, mas de Witt nunca raciocinou nestes termos.
A ideia de um conceito de determinante surge mais ou menos simultaneamente na Europa e no Japão no último quartel do séc. XVII, embora Seki, no
Japão, tenha publicado em primeiro lugar. Em 1683, Seki escreve o ”Método
para Resolver Problemas Dissimulados”, que contém métodos matriciais descritos em tabelas, de forma em tudo idêntica à descrita nos métodos chineses,
acima abordados. Embora sem conter nenhuma palavra que corresponda ao
conceito ”determinante”, Seki mesmo assim introduz a noção e fornece métodos gerais que permitem o seu cálculo, basados em exemplos. Utilizando os seus
”determinantes”, Seki conseguiu calcular determinantes de ordem 2, 3, 4 e 5
e aplicou-os à resolução, não de sistemas de equações lineares, mas de equaçõe
lineares.
De modo extraordinário, o primeiro aparecimento de um determinante na
Europa, ocorreu no exacto ano de 1683. Nesse ano, Leibniz escreveu a de
l’Hôpital explicando-lhe que o sistema de equações dado por:
... tinha solução porque

 10 + 11x + 12y = 0
20 + 21x + 22y = 0

30 + 31x + 32y = 0
10×21×32+11×22×30+12×20×31=10×22×31+11×20×32+12×21×30
Esta igualdade é precisamente a condição que determina que a solvabilidade
de um sistema de equações requer que o determinante da matriz dos coeficientes
seja nulo. note-se que Leibniz não utiliza coeficientes numéricos mas dois símbolos, em que o primeiro indica a equação em que ocorre e o segundo a que letra
pertence. Assim, ”21” denota o que modernamente escreveríamos como a21 .
Leibniz estava convencido que a notação matemática era a chave para o progresso, tendo experimentado com várias notações para o sistema de coefcientes.
Os seus manuscritos não publicados contêm mais de cinquenta formas de representar sistemas de coeficientes, sobre as quais trabalhou por um período de 50
9
5 Nota Histórica
anos, com início em 1678. Apenas duas publicações, em 1700 e 1710, contêm
resultados sobre sistemas de coeficientes, cuja notação é a mesma da utilizada
na carta a de l’Hôpital acima mencionada.
Leibniz utilizou o termo ”resultante” para certas somas combinatórias de
termos de um determinante. Demonstrou vários resultados sobre ”resultantes”,
incluindo o que é actualmente conhecido como a Regra de Cramer. Leibniz também sabia que um determinante podia ser desenvolvido utilizando uma qualquer
coluna do sistema de coeficientes, no que é conhecido actualmente como o Desenvolvimento de Laplace. Assim como o estudo de sistemas de coeficientes
de equações lineares levaram Leibniz na rota dos determinantes, o estudo de
sistemas de coeficientes de formas quadráticas resultou naturalmente num desenvolvimento no sentido de uma Teoria das Matrizes.
Na década de 1730 McLaurin escreveu o seu ”Tratado de Álgebra”, embora
não tenha sido publicado até 1748, dois anos após a sua morte. A obre contém
os primeiros resultados sobre determinantes, demonstrando a Regra de Cramer
para matrizes de ordem 2 e 3 e indicando como se deveria proceder para matrizes
de ordem 4.
Cramer forneceu a regra geral, que hoje aporta o seu nome, para a resolução
de sistemas de n equações a n incógnitas no artigo ”Introdução à Análise de
Curvas Algébricas”, publicado em 1750. O artigo foi motivado pelo desejo de
determinar a equação de uma curva plana que passasse por um certo número de
pontos. A regra propriamente dita surge como apêndice ao artigo, mas não é
fornecida qualquer demonstração. O seu enunciado, segundo o próprio Cramer,
é como se segue:
O valor de cada incógnita é determinado por um conjunto de n quocientes, cujo denominador comum é composto de tantas parcelas
quantas as permutações de n ”coisas”.
Cramer prossegue, explicando precisamente como estas parcelas são calculadas, assim como os respectivos sinais (”+” ou ”-”). São efectivamente produtos de certos coeficientes das equações. Refere ainda que os n numradores das
fracções podem ser determinados substituindo certos coeficientes neste cálculo
por termos constantes do sistema de equações.
O trabalho sobre determinantes começava agora a emergir com certa regularidade. Em 1764, Bézout forneceu métodos para calcular determinantes,
assim como Vandermonde em 1771. Em 1772, Laplace afirmou que os métodos introduzidos por Cramer e Bézout eram impraticáveis. Num artigo onde
estuda as órbitas dos planetas interiores, Laplace discute a solução de sistemas
de equações lineares sem efectivamente os calcular, utilizando determinantes.
Surpreendentemente, Laplace utilizou o termo ”resultante” para referir o que
modernamente se designa por determinante; surpreendente, uma vez que é o
mesmo termo utilizado por Leibniz embora não consta que Laplace tivesse estado a par do trabalho de Leibniz. Laplace propôs ainda o desenvolvimento de
um determinante, método que aporta hoje em dia o seu nome.
10
5 Nota Histórica
Num artigo de 1773, Lagrange estudou identidades para determinantes funcionais de ordem 3. No entanto, este comentário é feito a posteriori, uma vez
que Lagrange não via nenhuma relação entre o seu trabalho e o de Vandermonde
e Laplace. Este artigo de 1773, sobre Mecânica, contém pela primeira vez o que
hoje é a interpretação volumétrica de um determinante. Efectivamente, Lagrange demonstrou que o tetraedro formado pelos pontos O (0, 0, 0), M (x, y, z),
M 0 (x0 , y 0 , z 0 ) e M 00 (x00 , y 00 , z 00 ) tem volume dado por
1
[z (x0 y 00 − y 0 x00 ) + z 0 (yx00 − xy 00 ) + z 00 (xy 0 − yx0 )]
6
que é precisamente igual a
1
6
do determinante da matriz

x x0
 y y0
z z0

x00
y 00 
z 00
O termo ”determinante” foi inicialmente introduzido por Gauss em ”Disquisitiones Arithmeticae” de 1801, no decurso da discussão sobre formas quadráticas. Gauss utilizou este termo porque o determinante determina as propiedades
de uma forma quadrática. No entanto, o conceito não é o mesmo que o conceito moderno de determinante. Na mesma obra, Gauss dispõe os coeficientes
das suas formas quadráticas em tabelas rectangulares. Gauss descreve a multiplicação de matrizes, mas em termos de uma composição, pelo que ainda não
vislumbrava o conceito de uma Ágebra Matricial. Descreve ainda a inversão de
matrizes no contexto particular de matrizes de coeficientes relativas a formas
quadráticas.
O Método de Eliminação de Gauss, cuja aparição remonta ao texto ”Nove
Capítulos da Arte Matemática” em 200 a. C., foi utilizado por Gauss no seu
trabalho envolvendo o estudo da órbita do asteróide Pallas. Utilizando observações de Pallas feitas entre 1803 e 1809, Gauss obteve um sistema de 6 equações
lineares a 6 incógnitas. Gauss propôs um método sistemático para a resolução
de tais equações, precisamente o Método de Eliminação de Gauss sobre a matriz
dos coeficientes.
Foi Cauchy, em 1812, que usou o termo ”determinante” no seu sentido actual. O trabalho de Cauchy é o mais completo de entre os primeiros trabalhos
sobre determinantes. Reprovou os primeiros resultados e forneceu novos resultados por si descobertos sobre menores complementares e matrizes adjuntas.
No seu artigo de 1812, apresentado numa conferência no Institut de France,
o teorema da multiplicação de determinantes é demonstrado pela primeira vez
embora na mesma conferência, Binet tenha apresentado um artigo contendo
uma demonstração do mesmo teorema mas menos satisfatória que a prova de
Cauchy.
Em 1826 e no contexto das formas quadráticas em n variáveis, Cauchy utilizou o termo ”tableau” para a matriz de coeficientes. Descobriu os seus valores
11
5 Nota Histórica
próprios e forneceu resultados sobre a diagonalização de uma matriz, no processo que envolvia a transformação de uma forma quadrática numa soma de
quadrados. Cauchy introduz ainda a ideia de matrizes semelhantes, mas não
o termo, e mostrou que se duas matrizes são semelhantes então têm a mesma
equação característica. Ainda no contexto das formas quadráticas, mostrou que
qualquer matriz real simétrica é diagonalizável.
Jacques Sturm forneceu uma generalização do problema dos valores próprios
no ocontexto da resolução de sistemas de equações diferenciais ordinárias. Com
efeito, o conceito de valor próprio surgiu 80 anos antes, de novo em trabalhos
sobre sistemas de equações diferenciais realizados por d’Alembert. Na altura,
d’Alembert estudava o movimento de uma corda com massas associadas em
vários pontos do seu comprimento.
Deve ser notado que nem Cauchy nem Jacques Sturm se aperceberam do
alcance e generalidade das ideias que introduziram, considerando-as apenas no
contexto específico das suas áreas de investigação. Jacobi, na década de 1830
e posteriormente Kronecker e Weierstarss nas décadas de 1850 e 1860, respectivamente, também desenvolveram resultados sobre matrizes mas, de novo, no
contexto específico das transformações lineares. Jacobi publicou três tratados
sobre determinantes em 1841. Estes foram importantes na medida em que a
definição de determinante é introduzida de forma algorítmica. Para além disso,
Jacobi não especifica quais os termos dos determinantes, pelo que os resultados
se aplicam tão bem a casos onde os termos são números ou funções. Estes três
artigo de Jacobi tornaram a idieia de determinante largamente conhecida
Cayley, também escrevendo em 1841, publicou a primeira contribuição inglesa para a Teoria dos Determinantes. No seu artigo, utilizou duas linhas
verticais limitando uma matriz, para denotar o seu determinante, notação esta
que permaneceu até aos nossos dias.
Eisenstein, em 1844, denotou substituições lineares por uma letra única e
mostrou como adiconá-las e multiplicá-las como vulgares números, excepto no
que respeita à sua comutatividade. É justo referir que Eisenstein foi o primeiro
a pensar que as substituições lineares poderiam formar uma álgebra, como se
pode induzir de um seu artigo publicado em 1844:
Um algoritmo para o seu cálculo pode ser baseado na aplicação das
regras normais para as operações soma, multiplicação, divisão e exponenciação a equações simbólicas entre sistemas lineares. Obtêm-se
deste modo equações simbólicas correctas, apenas ressalvando que a
ordem dos factores não pode ser alterada.
O primeiro a uilizar o termo ”matriz ” foi Sylvester em 1850. Sylvester
definiu uma matriz como sendo um arranjo rectangular de termos no qual se
podiam definir vários determinantes sobre arranjos de termos contidos no arranjo global. Após ter deixado a América de regresso a Inglaterra em 1851,
Sylvester tornou-se advogado e conheceu Cayley, também advogada e que partilhava com o primeiro o mesmo interesse pela Matemática. Cayley reconheceu
12
5 Nota Histórica
imediatamente o significado do conceito e matriz e, em 1853 publicaria uma
nota, mencionando, pela primeira vez, o conceito de inversa de uma matriz.
Em 1858, Cayley publicou o seu ”Memorando sobre a Teoria das Matrizes”,
o qual constitu um texto notável por conter a primeira definição abstracta de
matriz. Cayley mostra que os arranjos de coeficientes anteriormente estudados
relativos a formas quadráticase transformações lineares são casos especiais de
um conceito mais geral, o conceito de matriz. Cayley propõe uma Álegbra
Matricial onde define a adição, multiplicação, multiplicação por um escalar e
inversão. Adicionalmente, propõe uma construção explícita para a forma da
inversa de uma matriz em termos do seu determinante. Mais ainda, Cayley
mostra que, no caso das matrizes de ordem 2, qualquer matriz satisfaz a sua
equação característica. Refere que verificou o resultado para matrizes de ordem
3, propondo uma demonstração mas:
[...] não me parece necessário empreender numa demonstração formal para o caso geral de matrizes de qualquer ordem [...]
O importante resultado de que uma matriz satisfaz a sua equação característica tem a designação especial de Teorema de Cayley-Hamilton. Qual então o
pael de Hamilton? Efectivamente, Hamilton demonstrou o caso especial para
matrizes de ordem 4, no decurso das suas investigações sobre quaterniões.
Em 1870 surgiu a Forma Canónica de Jordan no ”Tratado sobre Substituições
e Equações Algébricas”, escrito por Jordan. O conceito surge no contexto de
uma forma canónica para substituições lineares sobre o corpo finito de ordem
primo.
Frobenius, em 1878 escreveu um importante texto sobre matrizes, ”Sobre
Substituições Lineares e Formas Bilineares”, embora não pareça ao corrente do
trabalho de Cayley. Neste artigo, Frobenius trata dos coeficientes de formas e
não utiliza o termo ”matriz ”. No entanto, demonstra resultados importantes
sobre matrizes canónicas como representantes de classes de equivalência de matrizes. Cita Kronecker e Weierstrass como tendo considerado casos especiais
dos seus resultados em 1874 e 1868, respectivamente. Frobenius também demonstrou o resultado geral de que uma matriz satisfaz a sua equação característica.
Este artigo de Frobenius de 1878 também encerra a definição de característica
de uma matriz, a qual foi utilizada nas suas investigações em formas canónicas
e na definição de matrizes ortogonais.
A nulidade de uma matriz quadrada foi definida por Sylvester em 1884.
Sylvester definiu a nulidade da matriz A, denotada por n (A), como sendo o
maior i tal que todo o menor complementar de A de ordem n − i + 1 é nulo.
Sylvester estava interessado em invariantes de matrizes, isto é, propriedades que
não são alteradas por certas transformações. Sylvester demonstrou que:
máx {n(A), n(B)} ≤ n(AB) ≤ n(A) + n(B)
Em 1896, Frobenius tomou conhecimento do texto ”Memorando sobre a Teoria das Matrizes” escrito em 1858 por Cayley, adoptando desde então o termo
13
5 Nota Histórica
”matriz ”. Embora Cayley tenha apenas demonstrado o Teorema de CayleyHamilton para matrizes de ordem 2 e 3, Frobenius atribui generosamente o resultado a Cayley, mau grado ter sido aquele o primeiro a demonstrar o teorema
no caso geral.
Uma definição axiomática de determinante foi utilizada por Weierstrass nas
suas lições e, após a sua morte, foi publicada em 1903 na nota ”Sobre a Teoria dos Determinantes”. No mesmo ano, as lições de Kronecker sobre determinantes também foram publicadas, de novo, postumamente. Com estas duas
publicações, a moderna Teoria dos Determinantes tomou vida própria mas levou
um pouco mais de tempo a que a Teoria das Matrizes no seu todo se estabelecesse como uma teoria totalmente aceite. Um importante texto, que deu às
matrizes o devido espaço dentro da Matemática foi a ”Introdução à Álgebra
Superior ” de Bôcher, publicado em 1907. Turnbull e Aitken escreveram textos
influentes nos anos 30 do séc. XX. O texto ”Uma Introdução à Álgebra Linear ”
de 1955 escrito por Mirsky deu à Teoria das Matrizes o impulso necessário para
se manter até hoje como um dos mais importantes temas das licenciaturas em
Matemática.
14
6 Teoria das Matrizes
6
Teoria das Matrizes
6.1
Definições e Generalidades
Definição 4 (Matriz) Sejam K um corpo e m e n números inteiros positivos;
designa-se por matriz sobre K (cujos elementos se designam por escalares) a
todo o quadro de elementos de K dispostos em m linhas e n colunas.
Nota 1 K, em particular, pode ser o conjunto dos números reais, R. Neste
caso, as matrizes dizem-se reais.
Para designar genericamente uma matriz utilizam-se as seguintes notações:



A=

a11
a21
..
.
a12
a22
..
.
···
···
a1,n−1
a2,n−1
..
.
a1n
a2n
..
.
am1
am2
···
am,n−1
amn


 aij ∈ K


i = 1, ..., m
 = [aij ] ,


j = 1, ..., n
(3)
Nestas notações, o primeiro índice (i) do elemento genérico aij indica a
linha e o segundo (j) a coluna em que se encontra o elemento de K. Por
exemplo, a23 é o elemento da matriz que se encontra na linha 2 e na coluna
3. A matriz denotada acima mostra que, em geral, é costume designar-se uma
matriz por uma letra maiúscula (quando não houver necessidade de especificar
os seus elementos) e os elementos pela correspondente letra minúscula afectada
pelos índices convenientes. Em algumas circunstâncias é por vezes conveniente
representar o elemento (i, j) por (A)ij .
Definição 5 Designa-se por Mm×n (K) o conjunto de todas as matrizes do tipo
m × n (e lê-se ”éme-por-éne”) sobre o corpo K.
As matrizes do conjunto Mm×n (K) podem ser classificadas quanto à forma
em matrizes rectangulares ou matrizes quadradas. Relativamente às matrizes
rectangulares destacam-se alguns tipos como ilustrado na Tab. 1.
Relativamente às matrizes quadradas, estas constituem um importante caso
particular que se caracteriza pelo número de linhas (m) ser igual ao número de
colunas (n). No caso das matrizes quadradas do tipo n × n , a sua dimensão é
definida como ordem, designando-se a matriz como matriz de ordem n. Dentro
desta sub-classe de matrizes destacam-se alguns tipos como ilustrado na Tab.
2.
Definição 6 (Matriz quadrada) Designa-se por matriz quadrada de ordem
n a uma matriz A do tipo n × n. O conjunto das matrizes quadradas de ordem
n sobre um corpo K designa-se por Mn (K).
15
6 Teoria das Matrizes
Matrizes Rectangulares (m 6= n)
Designação
Forma Geral
Matriz Linha
£
¤
ou
a11 a12 · · · a1n
Vector Linha
(m = 1)


a11
 a21 
Matriz Coluna


 .. 
ou
 . 
Vector Coluna
am1
(n = 1)
ou
{a11 , a21 , · · · , am1 }
Tabela 1: Principais tipos de Matrizes Rectangulares
Matrizes Quadradas (m = n)
Designação
Forma Geral

a11 a12 · · · a1n
 0 a22 · · · a2n
Matriz Triangular Superior

 ..
..
..
(i > j =⇒ aij = 0)
 .
.
.
0
a11
a21
..
.
0 ···
0 ···
a22 · · ·
..
.
ann
0
0
..
.
 an1
a11
 0

 ..
 .
an2 · · ·
0 ···
a22 · · ·
..
.
ann
0
0
..
.





Matriz Triangular Inferior
(i < j =⇒ aij = 0)
Matriz Diagonal
(aij = 0; i 6= j)
0
0















· · · ann
ou
diag {a11 , a22 , · · · , ann }
É uma matriz diagonal em que
Matriz Escalar
aij = 0, i 6= j; aij = a ∈ K, i = j
diag {a, a, · · · , a}
É a matriz escalar em que
Matriz Identidade
m=n=1
aij = 0, i 6= j; aij = 1 ∈ K, i = j
diag {1, 1, · · · , 1}
Representa-se por In (ou apenas I)
Neste caso identifica-se a matriz
[a] com o próprio escalar a ∈ R
Tabela 2: Principais tipos de Matrizes Quadradas
16
6 Teoria das Matrizes
Uma matriz diagonal pode tanbém ser entendida como uma matriz simultaneamente triangular superior e triangular inferior.
Definição 7 (Elementos homólogos) Dadas as matrizes A = [aij ] e B = [bij ]
do mesmo tipo m × n sobre um corpo K, designam-se por elementos homólogos
aos elementos com os mesmos índices, isto é, àqueles elementos que estão nas
mesmas linha e coluna. Por exemplo, a36 e b36 são elementos homólogos.
Definição 8 (Matrizes iguais) Dadas duas matrizes A = [aij ] e B = [bij ]
do mesmo tipo m × n sobre um corpo K, estas dizem-se iguais se os elementos
homólogos forem iguais. Denota-se simbolicamente essa igualdade por A = B.
Definição 9 (Diagonal) Seja a matriz A = [aij ] ∈ Mm×n (K). Designa-se
por diagonal principal da matriz A aos elementos
ª
©
a11 , a22 , · · · , amin(m,n),min(m,n)
(que se designam por elementos principais da matriz).
Se A = [aij ] ∈ Mn (K) a diagonal principal da matriz A será dada por
{a11 , a22 , · · · , ann } e é possível definir a diagonal secundária dada pelos elementos {a1n , a2,n−1 , · · · , an1 }.
Nota 2 As diagonais de uma matriz tomam uma relevância especial quando se
consideram matrizes quadradas.
Exemplo 2 Considerem-se as seguintes matrizes e identifiquemos as respectivas diagonais:


3
0
1
3 1


•  -1 2
0
-1 1 . Diagonal Principal: {3, 2, −3}. Diagonal Se0 -2 -3
1 1
cundária: não tem.


3
0
•  -1 2 . Diagonal Principal: {3, 2}. Diagonal Secundária: não tem.
0 -2


3
0
1


0 . Diagonal Principal: {3, 2, −3}. Diagonal Secundária:
•  -1 2
0 -2 -3
{1, 2, 0}.
17
6 Teoria das Matrizes
Definição 10 (Matriz nula) Designa-se por matriz nula do tipo Mm×n (K)
à matriz A = [aij ] tal que aij = 0, ∀(i,j)∈{1,...,m}×{1,...,n} . Neste caso, denota-se
A por 0m×n ou simplesmente por 0 se a ordem estiver subentendida e não houver risco de confusão com o escalar 0 (o elemento neutro para a adição do corpo
K).
Definição 11 (Matriz identidade) Designa-se por matriz identidade de ordem n à matriz escalar A = [aij ] ∈ Mn (K), tal que aii = 1 (onde ”1” é
o elemento neutro para a multiplicação no corpo K). Neste caso, denota-se A
por In ou simplesmente por I se a ordem estiver subentendida e não hou- ver
ambiguidade.
6.2
Álgebra Matricial
Discutem-se nesta secção as principais operações com matrizes: adição de matrizes, multiplicação de uma matriz por um escalar e multiplicação de matrizes.
6.2.1
Soma de matrizes.
Definição 12 Sejam A = [aij ] , B = [bij ] ∈ Mm×n (K). Define-se soma A + B
à matriz C = [cij ], tal que cij = aij + bij , ∀(i,j)∈{1,...,m}×{1,...,n} .
Nota 3 Se as matrizes A e B não forem do mesmo tipo, isto é, se não tiverem
as mesmas dimensões e/ou o corpo subjacente não for igual, não é possível
determinar A + B, pelo que a soma de A com B diz-se indefinida.
Proposição 2 O conjunto Mm×n (K) munido da adição definida na Definição
12 constitui um grupo abeliano (ou comutativo):
1. ∀A,B∈Mm×n (K) , ∃C∈Mm×n (K) : C = A + B. Esta é a propriedade mais
simples das estruturas algébricas. Ao verificar esta propriedade diz-se
que o conjunto Mm×n (K) é um grupóide. Alternativamente, diz-se que
Mm×n (K) é fechado para a adição.
2. ∀A,B,C∈Mm×n (K) , A + (B + C) = (A + B) + C. Propriedade associativa
para a adição de matrizes.
3. ∀A,B∈Mm×n (K) , A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀A∈Mm×n (K) , ∃B∈Mm×n (K) : A + B = A. A matriz B designa-se por elemento neutro para a adição de matrizes e representa-se, como já verificámos, por 0, ou por 0m×n .
18
6 Teoria das Matrizes
5. ∀A∈Mm×n (K) , ∃B∈Mm×n (K) : A + B = 0. A matriz B designa-se por simétrico da matriz A para a adição de matrizes e representa-se por −A.
Diz-se ainda que todos os elementos A ∈ Mm×n (K) são regulares.
Demonstração.
1. Como A, B ∈ Mm×n (K), A + B ∈ Mm×n (K). Adicionalmente
= [aij ] + [bij ]
= [aij + bij ]
(A + B)ij
Como aij , bij ∈ K então K é fechado para a adição, isto é aij + bij ∈ K e
portanto [aij + bij ] ∈ Mm×n (K).
2. Como A, B, C ∈ Mm×n (K) então A + (B + C) e (A + B) + C estão
definidas. Adicionalmente
{A + (B + C)}ij
= [aij ] + [bij + cij ]
= [aij + (bij + cij )]
(porque a adição é associativa em K)
= [(aij + bij ) + cij ]
= [aij + bij ] + [cij ]
= {(A + B) + C}ij
3. Como A, B ∈ Mm×n (K) então A + B e B + A estão definidas. Adicionalmente
(A + B)ij
= [aij ] + [bij ]
= [aij + bij ]
(porque a adição é comutativa em K)
= [bij + aij ]
= [bij ] + [aij ]
= (B + A)ij
4. Seja A ∈ Mm×n (K) e B = 0m×n ∈ Mm×n (K). Então:
(A + B)ij
= [aij ] + [bij ]
= [aij + 0]
(porque 0 é o elemento neutro da adição em K)
= [aij ]
= (A)ij
19
6 Teoria das Matrizes
5. Seja A = [aij ] ∈ Mm×n (K) e B = [bij ] ∈ Mm×n (K) tal que bij =
−aij , i = 1, ..., m; j = 1, ..., n. Então:
(A + B)ij
(porque ∀a∈K , ∃b∈K
Exemplo
·
1
•
3
·
1
•
2
£
3
•
6.2.2
=
=
=
:
=
=
[aij ] + [bij ]
[aij + bij ]
[aij + (−aij )]
a + b = 0 e b = −a)
[0]
(0)ij
3 Considerem-se os seguintes casos:
¸ ·
¸ ·
¸ ·
¸
2
5 6
1+5 2+6
6
8
+
=
=
4
7 8
3+7 4+8
10 12
¸ ·
¸ ·
¸ ·
¸
3
1+3
4
+
=
=
4
2+4
6
¤ £
¤ £
¤
¤ £
4 + 1 2 = 3+1 4+2 = 4 6
Multiplicação de uma matriz por um escalar.
Definição 13 Seja A = [aij ] ∈ Mm×n (K) e λ ∈ K um escalar. Define-se o
produto de λ por A e denota-se por λ·A (ou λA) à matriz B = [bij ] ∈ Mm×n (K)
tal que bij = λaij , ∀(i,j)∈{1,...,m}×{1,...,n} .
Proposição 3 Sejam A, B ∈ Mm×n (K) e λ, µ ∈ K. As seguintes propriedades
são verificadas:
1. λ (A + B) = λA + λB
2. (λ + µ) A = λA + µA
3. λ (µA) = (λµ) A
4. 1 · A = A. O escalar 1 designa-se por unidade ou elemento neutro do
corpo K.
Demonstração.
20
6 Teoria das Matrizes
1.
(λ (A + B))ij
=
=
=
=
=
=
λ [(aij + bij )]
[λ (aij + bij )]
[λaij + λbij ]
[λaij ] + [λbij ]
λ [aij ] + λ [bij ]
(λA)ij + (λB)ij
(λ + µ) (A)ij
=
=
=
=
=
=
(λ + µ) [aij ]
[(λ + µ) aij ]
[λaij + µaij ]
[λaij ] + [µaij ]
λ [aij ] + µ [aij ]
(λA)ij + (µA)ij
2.
3.
(λ (µA))ij
=
=
=
=
=
λ (µ [aij ])
λ [µaij ]
[(λµ) aij ]
(λµ) [aij ]
((λµ) A)ij
4.
(1 (A))ij
=
=
=
=
1· [aij ]
[1·aij ]
[aij ]
(A)ij
Exemplo 4 Considerem-se os seguintes casos:
·
¸ ·
¸ ·
¸
1 2
3×1 3×2
3 6
=
=
• 3×
3 4
3×3 3×4
9 12
21
6 Teoria das Matrizes
•
•
· √
¸ · √ ¸
√2 × 1 =
√2
2×2
2 2
£
¤ £
¤ £
× 3 4 = 12 × 3 12 × 4 = 32
√
2×
1
2
·
1
2
¸
=
2
¤
Proposição 4 O conjunto Mm×n (K) munido da adição definida na Definição
12 e da multiplicação por um escalar definida na Definição 13 é um espaço
vectorial sobre o corpo K de dimensão m · n.
Adiante se estudarão mais aprofundadamente os espaços vectoriais.
6.2.3
Multiplicação de matrizes.
Definição 14 Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K). A matriz produto de A
por B, que seP
denota AB (ou A · B), é dada pela matriz C = [crs ] ∈ Mm×n (K)
p
tal que crs = i=1 ari · bis , ∀(i,j)∈{1,...,m}×{1,...,n} .
Note-se que a matriz A, que multiplica à esquerda, tem tantas colunas quantas as linhas de B. O elemento crs obtém-se multiplicando os elementos da linha
r de A pelos elementos da coluna s de B, pela mesma ordem, e somando os produtos obtidos. Em nenhuma outra circunstância é possível multiplicar duas
matrizes. De um modo geral, dadas duas matrizes A e B de dimensões, respectivamente m × n e p × q, os produtos C = AB e D = BA são possíveis nas
seguintes circunstâncias:
Produto
A × B
(m×n)
B ×
(p×q)
(p×q)
A
(m×n)
Possível se ...
n=p
Resultado
C
(m×q)
q=m
D
(p×n)
Exemplo 5 Considerem-se as seguinte matrizes reais:

−2
A= 3
· 3
3
C=
−5
3
5
5
−5
−4

−3
3 
−5 ¸
5
−1


2
0
B =  −2 1 
−1 −3
£
¤
D = −3 5 −3
Os produtos possíveis são AB, BC, CA, CB, DA e DB. A título exemplificativo, ter-se-á:
22
6 Teoria das Matrizes



2
0
−2 3 −3
AB =  3 5 3   −2 1 
3 5 −5
−1 −3


(−2) · 2 + 3 · (−2) + (−3) · (−1) (−2) · 0 + 3 · 1 + (−3) · (−3)

3 · 2 + 5 · (−2) + 3 · (−1)
3 · 0 + 5 · 1 + 3 · (−3)
=
3 · 2 + 5 · (−2) + (−1) · (−1)
3 · 0 + 5 · 1 + (−5) · (−3)


−7 12
=  −7 −4 
1
20
Exemplo 6 Considerem-se os seguintes casos:
•
•
·
1 2
3 4
¸·
5 6
7 8
¸
·
5 6
7 8
¸·
1 2
3 4
¸
•
·
•
•
£
·
1 −1
1 −1
¸·
¸
1
2
£
3 4
1 −1
1 −1
¸
·
¸
·
¸
1×5+2×7 1×6+2×8
3×5+4×7 3×6+4×8
·
¸
19 22
=
43 50
=
5×1+6×3 5×2+6×4
=
7×1+8×4 7×2+8×4
·
¸
23 34
=
41 46
¤
3 4
¤
·
1
2
·
1×3 1×4
2×3 2×4
·
¸
3 4
=
6 8
=
¸
·
¸
= [3 × 1 + 4 × 2]
= [11] = 11
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
=
1 · 1 + (−1) · 1 1 · (−1) + (−1) · (−1)
·
¸
0 0
=
0 0
23
¸
6 Teoria das Matrizes
Nota 4 Em geral AB 6= BA. Veja-se o exemplo 6.
Definição 15 (Matrizes comutáveis) Sejam A, B ∈ Mn (K). Se AB = BA,
diz-se que A e B são matrizes comutáveis.
É evidente que só é possível que duas matrizes sejam comutáveis se forem
quadradas. Se não o forem, ou bem que pelo menos um dos produtos não é
possível, ou, se o forem, as matrizes produto têm dimensões diferentes.
Proposição 5 Considerem-se as matrizes A = [aij ] , B = [bij ] ∈ Mm×p (K),
C = [cjk ] , D = [djk ] ∈ Mp×q (K), F = [fkl ] ∈ Mq×n (K) e o escalar λ ∈ K.
Verificam-se as seguintes propriedades:
1. (A + B) D = AD +AB e A (C + D) = AC +AD. Propriedade distributiva
da multiplicação de matrizes em relação à adição de matrizes.
2. λ (AD) = (λA) D = A (λD).
3. (AD) F = A (DF ). Propriedade associativa da multiplicação de matrizes.
4. A0 = 0 e 0A = 0. A matriz nula é o elemento absorvente para a multiplicação de matrizes. As 4 matrizes nulas representadas nestas expressões
são diferentes uma vez que têm dimensões diferentes. Terão de ter as dimensões adequadas para o produto faça sentido. As suas dimensões são,
respectivamente, p × q, m × q, q × m e q × p.
24
6 Teoria das Matrizes
Demonstração.
1. Observemos primeiro que A e B têm dimensão m×p e que D tem dimensão
p × q pelo que (A + B) D e AD + AB têm dimensão m × q.
((A + B) D)ik =
=
=
p
X
j=1
p
X
(A + B)ij djk
(aij + bij ) djk
j=1
p
X
aij djk +
j=1
p
X
bij djk
j=1
= (AD)ik + (BD)ik
2. De modo semelhante se mostra que A (C + D) = AC + AD.
p
X
(λ (AD))ik = λ aij djk
=
=
j=1
p
X
(λaij ) djk
j=1
p
X
(λA)ij djk
j=1
= ((λA) D)ik .
Mas também,
p
p
X
X
λ aij djk =
λaij (λdjk )
j=1
j=1
p
X
=
aij (λD)jk
j=1
= (A (λD))ik .
3. Note-se em primeiro lugar que as matrizes (AD) F e A (DF ) têm ambas
dimensão m × n.
25
6 Teoria das Matrizes
((AD) F )il =
q
X
k=1
=
q
X
k=1
=
(AD)ik fkl


p
X
 aij djk  fkl
j=1
q X
p
X
aij djk fkl
k=1 j=1
p
X
=
aij
=
j=1
p
X
à q
!
X
djk fkl
k=1
aij (DF )jl
j=1
= (A (DF ))il .
Proposição 6 O conjunto Mn (K) munido da adição definida na Definição 12
e da multiplicação definida na Definição 14 constitui um anel:
1. ∀A,B∈Mn (K) , ∃C∈Mn (K) : C = A + B. O conjunto Mn (K) é fechado para
a adição.
2. ∀A,B,C∈Mn (K) , A + (B + C) = (A + B) + C. Propriedade associativa da
adição de matrizes.
3. ∀A,B∈Mn (K) , A + B = B + A. Propriedade comutativa para a adição de
matrizes.
4. ∀A∈Mn (K) , ∃B∈Mn (K) : A + B = A. A matriz B designa-se por elemento
neutro para a adição de matrizes.
5. ∀A∈Mn (K) , ∃B∈Mn (K) : A + B = 0. Todos os elementos são regulares para
a adição de matrizes.
6. ∀A,B∈Mn (K) , ∃C∈Mn (K) : C = A · B. O conjunto Mn (K) é fechado para a
multiplicaçao.
7. ∀A,B,C∈Mn (K) , A (BC) = (AB) C. Propriedade associativa da multiplicação de matrizes.
26
6 Teoria das Matrizes
8. ∀A∈Mn (K) , ∃B∈Mn (K) : AB = BA = A. A matriz B é o elemento neutro
para a multiplicação de matrizes, e denomina-se por identidade de ordem
n, denotando-se por In ou simplesmente I se não houver dúvida quanto à
ordem.
9. ∀A,B,C∈Mn (K) , A (B + C) = AB + BC. Propriedade distributiva da multiplicação em relação à adição de matrizes.
Nota 5 Note-se que, se A ∈ Mm×n (K) tem-se Im A = A e AIn = A. Isto é,
desde que a matriz identidade tenha a ordem correcta para que o produto possa
ser efectuado, o produto (à esquerda ou à direita) de qualquer
matriz A pela
³ ´
1
identidade é sempre a matriz, como a seguir se demonstra
(Im A)ik =
(AIn )ik =
:
m
X
δ ij ajk = aik = (A)ik
j=1
n
X
aij δ jk = aik = (A)ik
j=1
6.2.4
Multiplicação por blocos.
Definição 16 (Submatriz) Seja A ∈ Mm×n (K). Designa-se submatriz de A
a uma matriz formada pelos elementos de A que pertencem a algumas linhas e
algumas colunas previamente fixadas de A.
Definição 17 (Partição em blocos) Seja A ∈ Mm×n (K). Diz-se que A está
particionada em blocos se cada bloco ocupar as mesmas linhas de A que os blocos
situados à sua esquerda ou direita e ocupar as mesmas colunas de A que os blocos
situados acima ou abaixo.
Por outras palavras, para que uma matriz esteja particionada em blocos é
necessário que as submatrizes que constituem cada bloco sejam formadas por
linhas e colunas consecutivas da matriz A.
A multiplicação por blocos realiza-se da seguinte forma:
(a) Sejam A ∈ Mm×p (K) e B ∈ Mp×n (K) e C = AB.
(b) Considerem-se números inteiros p1 , p2 , · · · , ph tais que sejam verificadas as relações 1 ≤ p1 < p2 < · · · < ph < p.
27
6 Teoria das Matrizes
(c) Escreva-se cij =
p1
X
r=1
(1)
|
air brj +
{z
(1)
cij
p2
X
r=p1 +1
}
|
air brj + · · · +
{z
}
(2)
cij
p
X
air brj . O
r=ph +1
|
{z
(h+1)
cij
}
elemento cij resulta de somar os produtos dos primeiros p1 elementos
(2)
da linha i de A pelos primeiros p1 elementos da coluna j de B; cij
é a soma dos produtos dos p2 − p1 elementos seguintes da linha i de
A pelos p2 − p1 elementos seguintes da coluna j de B e assim por
diante.
Em resumo, dadas duas matrizes A e B, é possível calcular o seu produto
AB por blocos se forem verificadas as seguintes condições:
(a) A ∈ Mm×p (K) e B ∈ Mp×n (K). Esta é a condição que requer que
o número de colunas da matriz que multiplica à esquerda seja igual
ao número de linhas da matriz que multiplica à direita.
(b) O número de colunas de blocos de A tem de ser igual ao número de
linhas de blocos de B.
(c) O número de colunas de cada bloco Aij tem de ser igual ao número
de linhas de cada bloco Bjt , a fim de se poder efectuar o produto
Aij Bjt .
Se, por exemplo, as colunas da matriz A, em número de 6, forem divididas
nos seguintes blocos (1, 2), (3, 4, 5), (6), então as linhas da matriz B terão de
ser divididas da mesma forma. A divisão das linhas da matriz A e colunas da
matriz B é independente uma da outra.
A multiplicação por blocos é por vezes cómoda em particular se alguns dos
blocos forem matrizes nulas ou matrizes identidades.
Exemplo 7 Considerem-se as matrizes

1
 0
A= 
 0
−2
0
1
0
3
0
0
1
−5
0
0
0
−5
−1
−3
1
1



−4



−3 

e
B
=


5


5
−2
3
0
3
−1
3
3
3
1
−5
−3
5
−3
5
1
5
0
0
3
−5
1
−5
0
0
5
2
−3
−4
0
0








Os blocos considerados na partição acima transformam a matriz A nu- ma
matriz, que em termos da partição escolhida, pode ser classificada do tipo 2 × 3.
De igual modo, a matriz B, em termos da sua partição é do tipo 3×2. O produto
C = AB considerando os blocos assinalados resulta numa matriz do tipo 2 × 2.
28
6 Teoria das Matrizes
Simbolicamente, as partições consideradas para as matrizes A e B podem ser
representadas como:


·
¸
B11 B12
A11 A12 A13
e B =  B21 B22 
A=
A21 A22 A23
B31 B32
Consequentemente, a matriz C será particionada, em termos de blocos, como
se simboliza de seguida:
¸
·
C11 C12
C=
C21 C22
Teremos assim:
•
C11
•
C12
•
= A11 B11 + A12 B21 + A13 B31 =



  
−1 −4 ·
0 £
−2 3
¤
−1
3  +  0  3 −5 +  −3 −3 
= I3  3
3
0
1
5
0
1
 


 
−6 −17
0 0
−2 3
3  +  0 0  +  −6 −6 
=  3
0 0
14
22
0
1


−8 −14
=  −3 −3 
14
23
= A11 B12 + A12 B22 + A13 B32 =

  
0 £
−3 3 5
= I3  5 −5 2  +  0  5 −5
0
1 1 −3

 
0 0
−3
3
5
−5
2 + 0 0
=  5
0 0
1
1
−3


−3
3
5
−5
2 
=  5
1
1
−3
C21

−1
−4 +  −3
1
 
0
0
0 + 0
0
0
¤
−3
5
¸

¸
−4 ·
0 0 0

−3
0 0 0
5

0 0
0 0 
0 0
= A21 B11 + A22 B21 + A23 B31 =


·
¸
£
¤ −2 3
£
¤ £
¤ −1 −3


−2 3 −5
3 3 − 5 · 3 −5 + 1 5
=
3 5
0 1
£
¤ £
¤ £
¤
13 −2 + 15 −25 + 14 22
=
£
¤
42 −5
=
29
6 Teoria das Matrizes
•
C22
= A21 B12 + A22 B22 + A23 B32 =


·
¸
£
¤ −3 3 5
£
¤£
¤ 0 0 0


= −2 3 −5 5 −5 2 − 5 · 5 −5 −4 + 1 5
0 0 0
1 1 −3
£
¤ £
¤ £
¤
16 −16 11 + −25 25 20 + 0 0 0
=
£
¤
−9 9 31
=
A matriz C será portanto:


−8 −14 −3 3
5
 −3 −3
5 −5 2 

C=
 14
23
1
1 −3 
42 −5 −9 9
31
Definição 18 (Potência de uma matriz) Seja A ∈ Mn (K). Designa-se
por potência de ordem k ∈ N de A, e escreve-se Ak , à matriz C tal que
C = Ak = A × · · · × A.
|
{z
}
k vezes
6.3
Transposição de matrizes. Matrizes Simétricas.
Definição 19 (Matriz transposta) Dada uma matriz A ∈ Mm×n (K), denomina-se matriz transposta de A, e denota-se por AT , a matriz B ∈ Mn×m (K)
tal que bij = aji , ∀(i,j)∈{1,...,m}×{1,...,n} .
Por outras palavras, se uma matriz A é do tipo m × n, a transposta de A,
AT , é do tipo n × m; as linhas de A são as colunas de AT , pela mesma ordem,
e, consequntemente, as colunas de A serão as linhas de AT , pela mesma ordem.
Exemplo 8 Considerem-se os seguintes casos:
•
·
•
·
•
£
1 2
3 4
1
2
¸T
3 4
¸T
=
¤T
=
£
·
1 3
2 4
1 2
=
·
3
4
¸
¤
¸
30
6 Teoria das Matrizes
•
·
3 −5 5
−5 −4 −1
¸T

3 −5
=  −5 −4 
5 −1

Definição 20 (Matriz simétrica/anti-simétrica) Seja A ∈ Mn (K), maT
triz quadrada³ de
´ ordem n. Diz-se que A é simétrica se A = A e anti-simétrica
T
se A = −A
2
.
Exemplo 9 A matriz
A=
·
a b
b c
¸
é a forma geral de uma matriz simétrica de ordem 2.
A matriz
A=
·
0 b
−b 0
¸
é a forma geral de uma matriz anti-simétrica de ordem 2. Com efeito, por
definição, dever-se-á ter aii = −aii o que implica 2aii = 0 e portanto aii = 0.
Por outras palavras, numa matriz anti-simétrica, os elementos principais são
sempre nulos.
Proposição 7 Sejam A = [aij ] , B = [bij ] ∈ Mm×p (K) , C = [cjk ] ∈ Mp×n (K)
e Dk = [dkl ] ∈ Mn (K) , k = 1, ..., M . Verificam-se as seguintes propriedades:
¡ ¢T
= A.
1. AT
2. (A ± B)T = AT ± B T .
3. (AC)T = C T AT .
´T Q
³Q
M
M
= k=1 DkT .
4.
k=1 Dk
Demonstração.
1.
³¡ ¢T ´
¡ ¢
AT
= AT ji
ij
= (A)ij .
31
6 Teoria das Matrizes
2.
´
³
T
(A ± B)
= (A ± B)ji
ij
= aji ± bji
¡ ¢
¡ ¢
= AT ij ± B T ij .
3.
³
´
T
(AC)
ki
= (AC)ik
p
X
aij cjk
=
j=1
p
X
¡
=
j=1
p
X
=
j=1
¡
AT
CT
¢ ¡
ji
¢
kj
¢
¡
= C T AT ki .
CT
¢
kj
¡ T¢
A ji
4. Por indução em M . O caso M = 2 verifica-se na Propriedade 3. Supon´T
³Q
QM−1 T
M−1
hamos que, por hipótese,
= k=1
Dk . Mostremos que
k=1 Dk
³Q
´T Q
M
T
= M
k=1 Dk
k=1 Dk também se verifica.
Ã
M
Y
k=1
Dk
!T
=
ÃÃM−1
Y
k=1
= (DM )
T
Dk
!
ÃM−1
Y
k=1
= (DM )T
DM
M−1
Y
Dk
!T
!T
(pela Propriedade 3)
DkT (por hipótese)
k=1
=
M
Y
DkT
k=1
Proposição 8 O produto de duas matrizes A, B ∈ Mn (K) simétricas é uma
matriz simétrica sse os seus factores comutam.
32
6 Teoria das Matrizes
Demonstração.
(=⇒)
T
AB = (AB) (porque ABé simétrica)
= B T AT (pela Propriedade 3 da transposição de matrizes)
= BA (porque A e B são comutáveis)
(⇐=)
T
T
(AB) = (BA) (porque A e B comutam)
= AT B T (pela Propriedade 3 da transposição de matrizes.
= AB (porque A e B são simétricas)
6.4
Traço de uma matriz
Definição 21 (Traço de uma Matriz) Seja A = [aij ] ∈ Mm×n (K). O traço
da matriz A é definido como a soma os seus elementos principais, ou, por outras
palavras, dos elementos ao longo da diagonal principal. Denota-se por:
tr (A) = a11 + a22 + · · · + app , onde p = min (m, n) .
Exemplo 10 Considerem-se as seguintes matrizes e determinemos os respectivos traços:


3
0
1
3 1


•  −1 2
0
−1 1 . tr (A) = 3 + 2 + (−3) = 2.
0 −2 -3
1 1


3
0
•  −1 2 . tr (A) = 3 + 2 = 5.
0 −2


1
3
1


•  0
-1
1 . tr (A) = 1 + (−1) + 1 = 1.
1
−3
1
O operador tr (·) satisfaz as seguintes propriedades:
33
6 Teoria das Matrizes
Proposição 9 Sejam A=[aij ] , B =[bij ] ∈ Mm×n (K) e C =[cpq ] ∈ Mn×m (K).
Verificam-se as seguintes igualdades:
1. tr (A + B) = tr (A) + tr (B).
2. tr (A + B) = tr (B + A).
3. tr (AC) = tr (CA).
Demonstração.
1. Dado que A e B têm as mesmas dimensões a soma A + B encontra-se
definida. Prosseguindo com a argumentação, segue que:
´
³
tr (A + B) = tr (A + B)ij
min(m,n)
X
=
(all + bll )
l=1
min(m,n)
X
=
min(m,n)
all +
l=1
X
bll
l=1
= tr (A) + tr (B)
2. Dado que A e B têm as mesmas dimensões as somas A + B e B + A
encontram-se definidas. Prosseguindo com a argumentação, segue que:
³
´
tr (A + B) = tr (A + B)ij
min(m,n)
=
X
(all + bll )
l=1
min(m,n)
=
X
(bll + all )
l=1
´
³
= tr (B + A)ij
= tr (B + A)
3. Se A ∈ Mm×n (K) e C ∈ Mn×m (K) , tem-se naturalmente AC ∈ Mm (K).
O traco de AC será:
34
6 Teoria das Matrizes
´
³
tr (AC) = tr (AC)iq


n
X
= tr  aij cjq 
j=1
=
m
X
i=1


n
X
 aij cji 
j=1
m X
n
X
aij cji
=
i=1 j=1
Por outro lado tem-se CA ∈ Mn (K). O traco de CA será:
´
³
tr (CA) = tr (CA)pj
Ãm
!
X
cpi aij
= tr
i=1
Ãm
!
n
X
X
=
cji aij
=
=
j=1 i=1
m
n X
X
cji aij
j=1 i=1
m X
n
X
aij cji
i=1 j=1
= tr (AC)
6.5
Dependência e independência lineares de filas paralelas de uma matriz.
Definição 22 (Combinação linear £das filas de uma matriz)
Seja a ma¤
triz A ∈ Mm×n (K) e sejam Li = ai1 ai2 · · · ain , i = 1, · · · , m as
linhas da matriz A e Cj = {a1j , a2j , · · · , amj } , j = 1, · · · , n as colunas da matriz A.
m
P
λi Li designa-se combinação linear das linhas de A, onde
1. À expressão
i=1
{λi }i=1,··· ,m são quaisquer escalares do corpo K.
35
6 Teoria das Matrizes
n
P
2. À expressão
µj Cj designa-se combinação linear das colunas de A, onde
j=1
© ª
µj j=1,··· ,n são quaisquer escalares do corpo K.
Definição 23 (Combinação linear nula das filas de uma matriz) Sejam
A ∈ Mm×n (K), {Li }i=1,··· ,m as linhas da matriz A e {Cj }j=1,··· ,n as colunas
da matriz A.
m
P
1. À expressão
λi Li = 0 designa-se combinação linear nula das linhas de
i=1
A, onde {λi }i=1,··· ,m são quaisquer escalares do corpo K.
n
P
µj Cj = 0 designa-se combinação linear nula das colunas
2. À expressão
©j=1ª
de A, onde µj j=1,··· ,n são quaisquer escalares do corpo K.
Definição 24 (Independência linear) Sejam A ∈ Mm×n (K), {Li }i=1,··· ,m
as linhas da matriz A e {Cj }j=1,··· ,n as colunas da matriz A. Diz-se que as
m
n
P
P
0Li (ou
0Cj para
linhas (colunas) de A são linearmente independentes se
i=1
j=1
as colunas) é a única combinação linear nula dessas linhas (colunas).
Por outras palavras, as linhas (ou colunas) de uma matriz dizem-se linearmente independentes se a única combinação linear nula daquelas é a que se
obtém com todos os escalares nulos.
A seguinte constatação é consequência imediata da definição acima:
Nota 6 As linhas (colunas) de uma matriz são linearmente dependentes se é
possível obter uma combinação linear nula daquelas com pelo menos um escalar
diferente de 0.
As definições acima aplicam-se indiferentemente às linhas e colunas de uma
qualquer matriz. Por esse motivo, faremos referência às filas de uma matriz
sempre que não for necessário referir explicitamente as linhas ou colunas da
matriz. Denotaremos por {Fk }k=1,··· ,p as filas da matriz. Note-se, no entanto,
que a referência às filas de uma matriz deverá ser entendida como referência às
linhas ou às colunas e não aos dois conjuntos simultaneamente.
Matematicamente, a condição de independência linear das filas de uma matriz pode ser descrita pelas equações (4).
m
P
λi Li = 0 =⇒λi = 0, i = 1, · · · , m (linhas)
i=1
n
P
(4)
µj Cj = 0 =⇒µj = 0, j = 1, · · · , n (colunas)
j=1
Em geral, os resultados válidos para as linhas também o são para as colunas.
36
6 Teoria das Matrizes
Proposição 10 Sejam A ∈ Mm×n (K) e {Fk }k=1,··· ,p as filas da matriz A.
Verificam-se os seguintes resultados:
1. Se uma das filas de A é constituída integralmente por zeros, as filas são
linearmente dependentes.
2. Algumas das filas de A são linearmente dependentes se e só se todas o
são.
3. As filas de A são linearmente dependentes se e só as filas em que a fila Fk é
0
substituída pela fila Fk = α · Fk , α ∈ K\ {0} são linearmente dependentes.
4. As filas de A são linearmente dependentes se e só as filas em que a fila Fk
0
é substituída pela fila Fk = Fk + Fl , k 6= l são linearmente dependentes.
5. As filas de A são linearmente dependentes se e só se o mesmo sucede
às filas que se obtêm somando a uma delas uma combinação linear das
restantes.
6. As filas de A são linearmente dependentes se e só se algumas delas se
podem escrever como combinação linear das restantes.
Demonstração. Para efeito da demonstração utilizar-se-ão as linhas da
matriz. A prova para as colunas é equivalente.
1. Suponhamos que a linha Lk é inteiramente
nula. A combinação linear
P
nula das linhas da matriz é dada por i6=k λi Li + λk Lk = 0. Sabendo
que Lk = 0 teremos λk Lk = 0 para qualquer λk ∈ K. Em particular, se
escolhermos λk 6= 0, teremos uma combinação linear nula das linhas com
pelo menos um escalar não nulo, precisamente o escalar λk , logo, as linhas
da matriz A são linearmente dependentes
2.(=⇒) Suponhamos, sem perda de generalidade, que as p primeiras linhas
da matriz A são linearmente dependentes. Existirá assim pelo menos
um P
escalar não nulo, digamos λk , com algum k : 1 ≤ k ≤ p tal
p
que i=1 λi Li = 0. Se escolhermos
escalares
nulos para as restantes
P
Pm
linhas da matriz teremos m
λ
L
=
i
i
i=p+1 0Li = 0. Assim,
Pp
Pm i=p+1
teremos i=1 λi Li + i=p+1 λi Li = 0 com o escalar λk não-nulo,
isto é, as linhas da matriz A são linearmente dependentes.
(⇐=) Se as linhas da matriz A são linearmente dependentes, então
∃k∈{1,··· ,m} : λk 6= 0 ∧
X
λi Li + λk Lk = 0
i6=k
Se os restantes escalares forem nulos, teremos
37
6 Teoria das Matrizes
X
λi Li + λk Lk +
i6=k
X
0Li + λk Lk = λk Lk = 0
i6=k
Deste modo, qualquer conjunto de linhas que inclua a linha Lk , que
nestas circunstâncias é integralmente nula, é linearmente dependente.
3.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0
Substituamos a linha Lk pela linha Lk = α·Lk , α 6= 0. A combinação
0
linear nula das linhas de A onde a linha Lk é substituída por Lk é
P
P
0
dada por i6=k λi Li + λk Lk = 0 ⇐⇒ i6=k λi Li + (λk · α) · Lk = 0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva
combinação linear nula se obtém com pelo menos um escalar não nulo.
Ou bem que esse escalar é λi , i 6= k, ou bem que será λk · α. Neste
caso, como α 6= 0 teremos λk 6= 0. Em qualquer caso, é possível
0
obter uma combinação linear nula das linhas {Li }i=1,···n ∪ Lk com
i6=k
pelo menos um escalar não nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
λi Li + λk Lk = 0,
i6=k
a qual é passível de ser reescrita como
X
i6=k
λi Li +
X
λk
λk 0
λi Li +
(α · Lk ) =
L = 0.
α
α k
i6=k
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k ou teremos λαk 6= 0. Neste caso, como α 6= 0 teremos
λk 6= 0. Em qualquer caso, é possível obter uma combinação linear
nula das linhas {Li }i=1,··· ,m com pelo menos um escalar não nulo.
4.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
0
Substituamos a linha Lk pela linha Lk = Lk + Ll , k 6= l. A combi0
nação linear nula das linhas de A onde a linha Lk é substituída por Lk
P
P
0
é dada por i6=k λi Li +λk Lk = Pi6=k λi Li +λk (Lk + Ll )=0. Esta expressão pode ser reescrita como i6=k,l λi Li +λk Lk +(λk + λl ) Ll =0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar
não nulo. Ou bem que esse escalar é λi , i 6= k, l, ou bem que será
λk , ou então será (λk + λl ). Neste caso, ter-se-á obrigatoriamente
38
6 Teoria das Matrizes
λk 6= 0 ∨ λl =
6 0. Em qualquer caso, é possível obter uma combinação
0
linear nula das linhas {Li }i6=k ∪ Lk com pelo menos um escalar não
nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
λi Li + λk Lk = 0,
i6=k
a qual é passível de ser reescrita como
X
i6=k
λi Li + (λk Lk + λk Ll ) − λk Ll =
|
{z
}
0
λk Lk
X
i6=k,l
0
λi Li + (λl −λk ) Ll + λk Lk =0
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λi 6= 0, i 6= k, l ou teremos λk 6= 0 ou ainda (λl − λk ) 6= 0. Neste
caso, ter-se-á obrigatoriamente λk 6= 0 ∨ λl 6= 0. Em qualquer caso,
é possível obter uma combinação linear nula das linhas {Li }i=1,··· ,m
com pelo menos um escalar não nulo.
5.(=⇒) Suponhamos que as linhas de A são linearmente dependentes.
P
0
Substituamos a linha Lk pela linha Lk = Lk + i6=k αi Li . A combi0
Lk
nação linear nula das linhas de A onde a linha L³k é substituída por
´
P
P
P
0
é dada por i6=k λi Li +λk Lk = i6=k λi Li +λk Lk + i6=k αi Li =0.
P
Esta expressão pode ser reescrita como i6=k(λi +λk αi )Li+λk Lk =0.
Mas as linhas de A são linearmente dependentes pelo que a respectiva combinação linear nula se obtém com pelo menos um escalar não nulo. Ou bem que esse escalar é λk ou bem que será
(λi + λk αi ) , i 6= k. Neste caso, ter-se-á obrigatoriamente λk αi 6= 0
(o que implica λk 6= 0)∨λi 6= 0, i 6= k. Em qualquer caso, é possível
0
obter uma combinação linear nula das linhas {Li }i6=k ∪ Lk com pelo
menos um escalar não nulo.
0
(⇐=) Suponhamos que as linhas {Li }i6=k ∪Lk são linearmente dependentes.
A combinação linear nula das linhas de A é dada por
X
λi Li + λk Lk = 0,
i6=k
a qual é passível de ser reescrita como
39
6 Teoria das Matrizes
X
X
X
X
0
λi Li +λk Lk +λk
αi Li −λk
αi Li = (λi − λk ) Li +λk Lk =0
i6=k
i6=k
i6=k
i6=k
0
Dada a dependência linear de {Li }i6=k ∪ Lk ou bem que teremos
λk 6= 0 ou bem que teremos (λi − λk ) 6= 0, i 6= k. Neste caso, ter-se-á
obrigatoriamente (λk 6= 0 ∨ λi 6= 0)i6=k . Em qualquer caso, é possível
obter uma combinação linear nula das linhas {Li }i=1,··· ,m com pelo
menos um escalar não nulo.
6.(=⇒) Suponhamos que as linhas de A são linearmente dependentes. Seja λk
um dos escalares não nulos para os quais se obtém umaP
combinação
linear nula das linhas de A. A combinação
linear
nula
i λi Li = 0
P
pode ser reescrita como Lk = − λ1k i6=k λi Li , uma vez que λk 6= 0.
A expressão mostra que a linha Lk pode ser escrita como combinação
linear das restantes linhas da matriz.
(⇐=) Suponhamos que é possível escrever a linha
P Lk como combinação
linear P
das restantes linhas, isto é, Lk =
i6=k λi Li . Resulta que
Lk − i6=k λi Li = 0, isto é, obteve-se uma combinação linear nula
das linhas da matriz A, em que pelo menos um escalar é não nulo (o
escalar 1 associado à linha Lk ). Tal mostra que as linhas de A são
linearmente dependentes.
Proposição 11 Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C = AB. Então cada
linha (respectivamente coluna) de C é combinação linear das linhas (respectivamente colunas) de B (respectivamente A). Mais precisamente:
1. A linha i0 de C é combinação linear das linhas de B que se obtém utilizando os escalares da linha i0 de A.
2. A coluna j0 de C é combinação linear das colunas de A que se obtém
utilizando os escalares da coluna j0 de B.
Demonstração.
1. ci0 k = (AB)i0 k =
LC
i0
Pn
j=1
ai0 j bjk . Logo,
¤
ci0 1 ci0 2 · · · ci0 p
£ Pn
Pn
=
j=1 ai0 j bj1
j=1 ai0 j bj2 · · ·
n
X
£
¤
ai0 j bj1 bj2 · · · bjp
=
=
=
£
j=1
n
X
ai0 j LB
j
j=1
40
Pn
j=1
ai0 j bjp
¤
6 Teoria das Matrizes
2. A prova é em tudo semelhante à anterior mutatis mutantis.
6.6
Característica de uma matriz. Operações elementares.
Definição 25 (Característica) Seja A∈Mm×n (K). Designa-se característica de linha da matriz A ao número máximo de linhas linearmente independentes; denota—se este valor por rl (A). Analogamente a característica de coluna da matriz A, rc (A), é o número máximo de colunas linearmente independentes. A característica da matriz, denotada por rA (ou simplesmente r quando
estiver claro a matriz a que se refere) define-se como o número máximo de linhas
ou colunas linearmente independentes, isto é, rA = mı́n{rl (A) , rc (A)}.
Tem-se claramente rl (A) ≤ m e rc (A) ≤ n e portanto rA ≤ mı́n {m, n},
onde m e n são respectivamente o número de linhas e colunas da matriz em
causa.
Resta desenvolver um processo que permita determinar a característica de
linha (ou coluna) de uma matriz, e portanto da sua característica.
Proposição 12 Sejam A ∈ Mm×n (K), B ∈ Mn×p (K) e C = AB. Então
rl (C) ≤ rl (B) e rc (C) ≤ rc (A).
Demonstração. Recordando a proposição 11 verificámos que,
LC
i =
n
X
j=1
aij LB
j , ∀i=1,··· ,m ,
isto é, cada linha de C é combinação linear das linhas de B. Ora, se o número
máximo de linhas linearmente independentes de B é rl (B) então, cada linha de
C pode ser escrita apenas à custa das rl (B) linhas de B que são efectivamente
linearmente independentes; as restantes linhas de B ou bem que são nulas ou
bem que se podem escrever como combinação das que são linearmente independentes como vimos na Proposição (10). Suponhamos, sem perda de generalidade
que são precisamente as primeiras rl (B) linhas de B que são linearmente independentes. Tal significa que as linhas de C podem ser escritas como combinação
destas linhas de B (agora com outros escalares que não aqueles dados pelas liPrl (B) i B
nhas de A). Isto é, LC
i =
k=1 λk Lk , ∀i=1,··· ,m . Suponhamos, por redução ao
absurdo que C tem rl (B) + 1 linhas lineamente independentes, precisamente as
primeiras. Sabemos então que a combinação linear nula destas rl (B) + 1 linhas
só é passível de ser obtida com todos os escalares nulos.
41
6 Teoria das Matrizes
rl (B)+1
X
0 =
µi LC
i
i=1
rl (B)+1
=

X
rl (B)
µi
i=1
rl (B)+1
= 
X
i=1
X
λik LB
k
k=1



rl (B)+1

µi λi1  LB
1 +
X
i=1

rl (B)+1

µi λi2  LB
2 + ··· +
X
i=1

µi λirl (B)  LB
rl (B)
Ora, as rl (B) primeiras linhas de B são linearmente independentes pelo que
a combinação nula anterior só se poderá obter com todos os escalares nulos, o
que corresponde a resolver o sistema em ordem a {µi }i=1,··· ,rl (B)+1 :





Prl (B)+1
µi λi1 = 0
Pri=1
l (B)+1
µi λi2 = 0
i=1

···


 Prl (B)+1 µ λi
i rl (B) = 0
i=1
O sistema acima tem rl (B) e rl (B)+1 incógnitas. Trata-se de um sistema indeterminado possuindo outras soluções que não a solução {µi = 0}i=1,··· ,rl (B)+1 .
Mas isto é um absurdo pois por hipótese as primeiras rl (B)+1 linhas de C eram
linearmente independentes. O absurdo reside evidentemente no facto de se ter
assumido que o número máximo de linhas linearmente idependentes de C era
superior a rl (B), logo dever-se-á ter rl (C) ≤ rl (B).
A prova relativamente à afirmação rc (C) ≤ rc (A) é em tudo semelhante à
anterior.
6.6.1
Operações Elementares
Os resultados da Proposição (10) permitem concluir que a dependência ou independência lineares das linhas (ou colunas) de uma matriz não é alterada por
um conjunto de operações que no seu conjunto se designam por Operações Elementares Sobre Filas de uma Matriz.
Definição 26 (Operações Elementares) Seja A ∈ Mm×n (K). Define-se
como operação elementar sobre as filas da matriz A, a cada uma das seguintes
operações:
i. Troca entre si de duas linhas (ou colunas) da matriz.
ii. Multiplicação de uma linha (ou coluna) da matriz por um escalar diferente
de 0.
42
6 Teoria das Matrizes
iii. Substituição de uma linha (ou coluna) pela que se obtém somando-lhe
outra, multiplicada por um qualquer escalar (Operação de Jacobi).
As operações elementares acima definidas correspondem à multiplicação (à
esquerda ou à direita) da matriz A por matrizes que resultam da matriz identidade, que deverá ter dimensão apropriada, por aplicação das operações elementares.
Definição 27 (Matriz Elementar) Seja I ∈ Mn (K) a matriz identidade de
ordem n. Designa-se por matriz elementar de ordem n a qualquer matriz E que
resulte de I por aplicação de uma das três operações elementares.
Consideremos genericamente uma matriz A ∈ Mm×n (K). Vejamos, caso
a caso, que matriz, resultante da aplicação de operações elementares sobre a
matriz identidade, deve multiplicar, ou pela qual se deve multiplicar, a matriz
A de forma a que as mesmas operações elementares tenham o mesmo efeito
sobre A. Naturalmente que, a multiplicação à esquerda ou à direita da matriz
A implica uma escolha acertada para a ordem das matrizes elementares a multiplicar. Assim, a multiplicação à esquerda da matriz A implica a utilização
de matrizes elementares de ordem m, enquanto que a multiplicação à direita
implica a utilização de matrizes elementares de ordem n.
• Regra geral
Operações elementares sobre as linhas da matriz A fazem-se por multiplicações à esquerda desta enquanto que operações elementares sobre as
colunas se fazem por multiplicações à direita.
• Troca de Linhas
Dadas duas linhas, Li e Lk , i 6= k da matriz A, a troca destas linhas
processa-se multiplicando a matriz A, à esquerda, pela matriz E que resulta da troca das linhas i e k da matriz identidade I. Representa-se por
(Li ←→ Lk ). Matriz elementar associada: Eik .
• Troca de Colunas
Dadas duas colunas, Cj e Cl , j 6= l da matriz A, a troca destas colunas
processa-se multiplicando a matriz A, à direita, pela matriz F que resulta
da troca das colunas j e l da matriz identidade I. Representa-se por
(Cj ←→ Cl ). Matriz elementar associada: Fjl .
• Multiplicação de Linha por um Escalar
Dado um escalar α ∈ K, a multiplicação da linha Li da matriz A corresponde a multiplicar A, à esquerda, pela matriz E que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
α, ou, por outras palavras, consiste na multiplicação da i-ésima linha da
matriz diagonal pelo escalar α. Representa-se por (Li ← αLi ). Matriz
elementar associada: Ei (α).
43
6 Teoria das Matrizes
• Multiplicação de Coluna por um Escalar
Dado um escalar β ∈ K, a multiplicação da coluna Cj da matriz A corresponde a multiplicar A, à direita, pela matriz F que resulta da matriz
identidade por substituição do i-ésimo elemento da diagonal, que é 1, por
β, ou, por outras palavras, consiste na multiplicação da i-ésima coluna da
matriz diagonal pelo escalar β. Representa-se por (Cj ← αCj ). Matriz
elementar associada: Fj (β).
• Operação de Jacobi sobre Linhas
Dadas duas linhas, Li e Lk , i 6= k da matriz A e um escalar α ∈ K, a
substituição da linha Li pela linha Li + α · Lk processa-se multiplicando
a matriz A, à esquerda, pela matriz E que resulta da matriz identidade
por substituição da linha i pela que se obtém somando-lhe a linha k multiplicada pelo escalar α. Representa-se por (Li ← Li + α · Lk ). Matriz
elementar associada: Eik (α).
• Operação de Jacobi sobre Colunas
Dadas duas colunas, Cj e Cl , j 6= l da matriz A e um escalar β ∈ K, a
substituição da linha Cj pela linha Cj + β · Cl processa-se multiplicando
a matriz A, à direita, pela matriz F que resulta da matriz identidade
por substituição da coluna j pela que se obtém somando-lhe a coluna l
multiplicada pelo escalar β. Representa-se por (Cj ← Cj + β · Cl ). Matriz
elementar associada: Fjl (β).
Exemplo 11 Considere-se a matriz


−34 −68 −85 −38
52
43
91 
A =  90
30
90 −24 −52
Vejamos como cada uma das seguintes operações elementares sobre a matriz A resulta da multiplicação desta matriz pela que resulta da identidade por
aplicação das mesmas operações elementares:
1. Troca das linhas 1 e 3.
Deveremos considerar uma multiplicação à esquerda. Tomamos a matriz
identidade I3 e trocamos as linhas 1 e 3 para obter a matriz E:



0 0 1
1 0 0
 0 1 0  L1 ←→ L3  0 1 0 
−−−−−−−→
1 0 0
0 0 1

Procedendo à multiplicação obtém-se:
44
6 Teoria das Matrizes
0
A
= E13 · A

0 0
=  0 1
1 0

30
=  90
−34


1
−34 −68 −85 −38
0   90
52
43
91 
0
30
90 −24 −52

90 −24 −52
52
43
91 
−68 −85 −38
0
A matriz A resultou da matriz A por troca das linhas 1 e 3 como se
pretendia.
2. Troca das colunas 2 e 3.
Deveremos considerar uma multiplicação à direita. Tomamos a matriz
identidade I4 e trocamos as colunas 2 e 3 para obter a matriz F :

1
 0

 0
0
0
1
0
0
0
0
1
0


0

0 
 C2 ←→ C3 


−
−
−
−
−
−
−
→
0
1
1
0
0
0
0
0
1
0

0
0 

0 
1
0
1
0
0
Procedendo à multiplicação obtém-se:
0
A
= A · E23



−34 −68 −85 −38 
52
43
91  
=  90

30
90 −24 −52


−34 −85 −68 −38
43
52
91 
=  90
30 −24 90 −52
1
0
0
0
0
0
1
0
0
1
0
0

0
0 

0 
1
0
A matriz A resultou da matriz A por troca das colunas 2 e 3 como se
pretendia.
3. Multiplicação de uma linha por um escalar.
Suponhamos
que se pretende multiplicar a linha 2 da matriz A pelo escalar
√
2. Para tal, tomamos a matriz identidade I3 e multiplicamos a segunda
linha pelo escalar pretendido para obter a matriz E. Seguidamente faz-se
o produto EA para obter a matriz pretendida.
45
6 Teoria das Matrizes



1 √0 0
1 0 0
√
0
 0 1 0  L2 ←− 2L2  0
2 0 
−−−−−−−−−→
0 0 1
0 0 1

Procedendo à multiplicação obtém-se:
0
A
= E2

³√ ´
2 ·A
1 √0
=  0
2
0 0

−34
√
=  90 2
30
0


0
−34 −68 −85 −38
52
43
91 
0   90
30
90 −24 −52
1

−68
−85
−38
√
√
√
52 2 43 2 91 2 
90
−24
−52
A matriz A resultou da matriz A por multiplicação da 2a linha por
√
2.
4. Multiplicação de uma coluna por um escalar.
Suponhamos que se pretende multiplicar a coluna 3 da matriz A pelo escalar 25 . Para tal, tomamos a matriz identidade I4 e multiplicamos a terceira coluna pelo escalar pretendido para obter a matriz F . Seguidamente
faz-se o produto AF para obter a matriz pretendida.

1
 0

 0
0
0
1
0
0
0
0
1
0


0

0 
 C30 ←− 2 C3 

0 −−−−−−−
5−→ 
1
1
0
0
0
0
1
0
0
0
0
0
1
0
0
0
0
1
0
0
2
5
Procedendo à multiplicação obtém-se:
0
A
0
µ ¶
2
= A · F3
5



−34 −68 −85 −38 
52
43
91  
=  90

30
90 −24 −52


−34 −68 −34 −38
86
52
91 
=  90
5
30
90 − 48
−52
5

0
0 

0 
1
0
0
2
5
0

0
0 

0 
1
A matriz A resultou da matriz A por multiplicação da linha 3a coluna por
2
5.
46
6 Teoria das Matrizes
5. Operação de Jacobi sobre as linhas da matriz A.
Consideremos as linhas 1 e 3 da matriz A. Suponhamos que se pretende
substituir a linha
√ L3 pela que se obtém somando-lhe a linha L1 multiplicada
pelo escalar 2. Tomamos a matriz√identidade I3 e substituímos a linha
L3 pela que se obtém somando-lhe 2L1 . A matriz F assim obtida é
multiplicada por A, à esquerda.



1 0 0
1 0 0
√
 0 1 0  L3 ←− L3 + 2L1  0 1 0 
−−−−−−−−−−−−−→ √
0 0 1
2 0 1

Procedendo à multiplicação obtém-se:
0
A
= E31

³√ ´
2 ·A


1 0 0
−34 −68 −85 −38
52
43
91 
=  √0 1 0   90
30
90
−24
−52
2 0 1


−34
−68
−85
−38

= 
√52
√43
√91
√90
−34 2 + 30 −68 2 + 90 −85 2 − 24 −38 2 − 52
0
A matriz A resultou da matriz A por substituição
√ da linha 3 pela que se
obteve somando-lhe a linha 1 multiplicada por 2.
6. Operação de Jacobi sobre as colunas da matriz A.
Consideremos as colunas 2 e 3 da matriz A. Suponhamos que se pretende
substituir a coluna C3 pela que se obtém somando-lhe a coluna C2 multiplicada pelo escalar 25 . Tomamos a matriz identidade I4 e substituímos a
coluna C3 pela que se obtém somando-lhe 25 C2 . A matriz F assim obtida
é multiplicada por A, à direita.

1
 0

 0
0
0
1
0
0
0
0
1
0


0

0 
 C3 ←− C3 + 2 C2 

0  −−
−−−−−−−−−5−→
1
Procedendo à multiplicação obtém-se:
47
1
0
0
0
0
1
0
0
0
2
5
1
0

0
0 

0 
1
6 Teoria das Matrizes
0
A
= A · F32
µ ¶
2
5

 1 0
−34 −68 −85 −38 
0 1
52
43
91  
=  90
 0 0
30
90 −24 −52
0 0


561
−34 −68 − 5
−38
319
91 
52
=  90
5
30
90
12
−52

0
2
5
1
0

0
0 

0 
1
0
A matriz A resultou da matriz A por substituição da coluna 3 pela que se
obteve somando-lhe a coluna 2 multiplicada por 25 .
O exemplo acima ilustra o facto de operações elementares sobre uma matriz
A qualquer poderem ser definidas como o produto de matrizes elementares pela
matriz A.
Exemplo 12 Considere-se a matriz


−34 −68 −85 −38
52
43
91 
A =  90
30
90 −24 −52
Consideremos um conjunto de operações elementares a aplicar sobre a matriz
A:
• Troca das linhas 1 e 3 (L1 ←→ L3 ).
• Troca das colunas 2 e 3 (C2 ←→ C3 ).
√
√ ¡
¢
• Multiplicação da linha 2 pelo escalar 2 L2 ←− 2L2 .
• Substituição da linha 3 pela que se obtém somando-lhe a linha 1 multiplicada pelo escalar 2 (L3 ←− L3 + 2L1 ).
¡
¢
• Multiplicação da coluna 3 pelo escalar 25 C3 ←− 25 C3 .
• Substituição da coluna 3 pela que se obtém somando-lhe a coluna 4 multiplicada pelo escalar −1 (C3 ←− C3 − C4 ).
0
A questão que se coloca é a de saber qual a matriz A que se obtém de
A por aplicação das 6 operações elementares acima descritas. Vejamos
então o resultado, por aplicação directa das operações sobre a matriz A:
48
6 Teoria das Matrizes


−34 −68 −85 −38
 90
52
43
91  L
←→
1−
−−
−−−−L
→3
30
90 −24 −52


30
90 −24 −52
 90
52
43
91  C
←→
2−
−−
−−−−C
→3
−34 −68 −85 −38


30 −24 90 −52
√
 90
43
52
91  L
←−
2−
−−
−−−−−2L
−→2
−34 −85 −68 −38


30
−24
90
−52
√
√
√
√
 90 2 43 2 52 2 91 2  L3 ←− L3 + 2L1
−−−−−−−−−−−−→
−34
−85
−68
−38

30
−24
90
−52
√
√
√
√
 90 2 43 2 52 2 91 2  C3 ←− 2 C3
5
26
−133 112 −142 −−−−−−−−→


30
−24
36√
−52
√
√
√
 90 2 43 2 104 2 91 2  C3 ←− C3 − C4
5
−−−−−−−−−−−→
224
26
−133
−142
5


30
−24
88√
−52
√
√
√
 90 2 43 2 − 351 2 91 2 
5
934
26
−133
−142
5

0
Vejamos agora que se obterá a mesma matriz A se a matriz A for devidamente multiplicada pelas matrizes elementares associadas às operações
elementares descritas.
O produto desejado é, simbolicamente, o seguinte:
³
µ ¶
µ
¶
³√ ´
´
2
E31 (2) × E2
2 × E13 × A × F23 × F3
× F34 (−1)
5
O resultado será:
49
6 Teoria das Matrizes
√
(L2 ←− 2L2 )
(L1 ←→L3 )
}|
z
}|
z
}|
{z
{

{
1 √0 0
1 0 0
0 0 1
 0 1 0  0
2 0  0 1 0  ×
2 0 1
1 0 0
0 0 1


−34 −68 −85 −38
52
43
91  ×
×  90
30
90 −24 −52


1 0 0 0
1 0 0 0
1 0 0 0
 0 1 0 0  0 1 0 0
0 0 1 0 


0 1 0 0  0 0 25 0  0 0 1 0
0 0 0 1
0 0 −1 1
0 0 0 1
{z
}|
{z
{z
}|
(C2 ←→C3 )
(C3 ←−C3 −C4 )
(C3 ←− 25 C3 )


30
−24
88√
−52
√
√
√
 90 2 43 2 − 351 2 91 2 
5
934
26
−133
−142
5
(L3 ←−L3 +2L1 )


×

|


=

}
Como era de esperar o resultado dos dois métodos utilizado é o mesmo.
Nota 7 É importante notar a ordem pela qual os produtos, à esquerda e à
direita, são efectuados. Com efeito, se O1 , O2 , · · · , Op for um conjunto de operações elementares sobre linhas a executar, por esta ordem, sobre uma matriz A
qualquer, e se E1 , E2 , · · · , Ep forem as matrizes elementares associadas a cada
0
uma daquelas operações, a matriz A que se obtém por aplicação das operações
elementares é dada por Ep × · · · × E2 × E1 × A. Note-se que a matriz que
primeiro multiplica A está associada à primeira operação elementar, a segunda
matriz à segunda operação elementar e assim sucessivamente. O mesmo argumento é válido para operações sobre colunas, isto é, se O1 , O2 , · · · , Oq for
um conjunto de operações elementares sobre as colunas de uma matriz A, por
esta ordem, e F1 , F2 , · · · , Fp forem as matrizes elementares associadas àquelas
0
operações, a matriz A que resulta da aplicação destas operações é dada por
A × F1 × F2 × · · · × Fp .
Do acima exposto resulta o seguinte resultado:
Proposição 13 Se multiplicarmos A ∈ Mm×n (K), à esquerda por uma matriz
elementar E (de ordem m), a matriz produto, EA, também se pode obter de
A efectuando sobre as linhas de A a mesma operação sobre linhas que permitiu
passar de Im a E.
Se multiplicarmos A ∈ Mm×n (K), à direita por uma matriz elementar F
(de ordem n), a matriz produto, AF , também se pode obter de A efectuando
sobre as colunas de A a mesma operação sobre colunas que permitiu passar de
In a F .
50
6 Teoria das Matrizes
Demonstração. A demonstração é simples e está ilustrada pelos exemplos
anteriores.
6.6.2
Determinação da Característica de Linha de uma Matriz
Nesta secção estudar-se-ão um conjunto de resultados que permitem determinar
a característica de linha de qualquer matriz A ∈ Mm×n (K). Na determinação
da característca de linha, rl (A), utilizaremos operações elementares sobre as
linhas de uma matriz, estudadas na secção anterior. Como já vimos, operações
elementares sobre linhas (colunas) não afectam a dependência (ou independência) linear das linhas (colunas) de uma matriz. Como tal, a característica de
linha de uma matriz não é modificada por operações elementares sobre as linhas
dessa matriz.
É importante verificar que, por enquannto, não há nenhum resultado que
garanta que operações elementares sobre as linhas de uma matriz não afectam
a sua característica de coluna ou, que operações elementares sobre as colunas
não afectam a sua caractrística de linha.
0
Proposição 14 Seja A ∈ Mm×n (K). Se A for transformada
³ na
´ matriz A
0
através de operações elementares sobre linhas então rl (A) = rl A .
Demonstração. A demonstração sai imediatamente da aplicação directa
da Definição 25 e da Proposição 10.
Definição 28 (Matriz em Escada) Seja A ∈ Mm×n (K). Diz-se que a matriz A está na forma de escada se a linha i apresenta mais zeros consecutivos
no início que a linha j, com i < j ≤ m.
Exemplo

0
•  0
0

1
•  0
0
13 As seguintes matrizes encontram-se em forma de escada:

1a linha: 1 zero inicial
1 1 −1 0
0 0 4 9 : 2a linha: 3 zeros iniciais
0 0 0 0
3a linha: 5 zeros iniciais

1a linha: nenhum zero inicial
0 0 0 0

1 2 −1 0 : 2a linha: 1 zero inicial
0 0 0 1
3a linha: 4 zeros iniciais
Proposição 15 A característica de linha de uma matriz A ∈ Mm×n (K) em
forma de escada é igual ao número de linhas diferentes de zero.
51
6 Teoria das Matrizes
Demonstração. Suponhamos que a matriz A tem as primeiras p linhas
não nulas e as últimas m − p nulas. Vamos mostrar que as p primeiras linhas
Pp são linearmente independentes. Para tal, é necessário resolver a equação
i=1 λi Li = 0, para os escalares {λi }. A linha Li terá a configuração
£
0 ···
aiji
···
ain
¤
onde aiji é o primeiro elemento não nulo da linha i. A combinação linear
nula das primeiras p linhas de A toma então a forma
p
X
i=1
λi
£
0 ···
aiji
···
ain
¤
=0
a que corresponde a resolução de um sistema de equações, a saber:











Pp
a1j1 λ1 + Pi=2 λi · 0 = 0
p
a1j2 λ1 + a2j2 λ2 + Pi=3 λi · 0 = 0
a1j3 λ1 + a2j3 λ2 + a3j3 λ3 + pi=4 λi · 0 = 0
··· P
p
i=1 aijp λi · 0 = 0
Note-se que da primeira equação resulta λ1 = 0. Substituindo λ1 = 0 na
segunda equação e resolvendo resulta λ2 = 0. Substituindo na terceira equação
λ1 = λ2 = 0 resulta λ3 = 0. Prosseguindo esta substituição recursivamente
até à p−ésima equação permite concluir que {λi = 0}i=1,··· ,p e que portanto
as primeiras p linhas de A são linearmente independentes. Se a este conjunto
de linhas adicionarmos uma qualquer linha k, com p < k ≤ m, resultará um
conjunto de p + 1 linhas linearmente dependente, uma vez que a linha k é nula.
Esta conclusão resulta da Proposição 10.1. Assim, p é o número máximo de
linhas linearmente independente da matriz A, isto é a característica de linha de
A é igual a p: rl (A) = p.
Nota 8 É evidente que a característica da matriz identidade de ordem n é
exactamente n, uma vez que a matriz identidade está naturalmente em forma
de escada.
Exemplo 14 Determinação da característica de linha das seguintes matrizes
em escada.
52
6 Teoria das Matrizes

0 1 1 −1 0
• A =  0 0 0 4 9 . O número de linhas não nulas é 2 pelo que
0 0 0 0 0
a característica de linha da matriz é rl (A) = 2. Alternativamente, podemos verificar que as duas primeiras linhas são linearmente independentes
e, sendo a terceira linha nula, o número máximo de linhas linearmente
independentes é precisamente 2 (sejam λ1 e λ2 os escalares associados,
respectivamente, à primeira e segunda linhas da matriz A):

1.











0 · λ1 + 0 · λ2
1 · λ1 + 0 · λ2
1 · λ1 + 0 · λ2
(−1) · λ1 + 4 · λ2
0 · λ1 + 9 · λ2

0=0
=0




½
=0
 λ1 = 0
λ1 = 0
0 = 0 ⇐⇒
= 0 ⇐⇒
λ

2 =0

λ2 = 0
=0



0=0
=0

1 0 0 0 0
• A =  0 1 2 −1 0 . O número de linhas não nulas é 3 pelo que a
0 0 0 0 1
característica de linha da matriz é rl (A) = 3. Alternativamente, podemos
verificar que as linhas são linearmente independentes, sendo portanto o
número máximo de linhas linearmente independentes que é precisamente
3 (sejam λ1 , λ2 e λ3 os escalares associados, respectivamente, à primeira,
segunda e terceira linhas da matriz A):

1.











1 · λ1 + 0 · λ2 + 0 · λ3
0 · λ1 + 1 · λ2 + 0 · λ3
0 · λ1 + 2 · λ2 + 0 · λ3
0 · λ1 + (−1) · λ2 + 0 · λ3
0 · λ1 + 0 · λ2 + 1 · λ3

λ1 = 0
=0





=0
 λ2 = 0
 λ1 = 0
0 = 0 ⇐⇒
λ2 = 0
= 0 ⇐⇒



0
=
0
λ3 = 0
=0



λ3 = 0
=0
O resultado acima sugere que, se for possivel transformar uma qualquer
matriz A ∈ Mm×n (K) numa matriz B em forma de escada preservando a sua
característica de linha, então é possível determinar a característica de linha de
qualquer matriz. O resultado seguinte mostra que tal processo existe.
Proposição 16 Toda a matriz A ∈ Mm×n (K) pode ser reduzida a uma matriz
B em forma de escada por meio de operações elementares sobre as suas linhas,
tendo-se consequentemente rl (A) = rl (B).
53
6 Teoria das Matrizes
Demonstração. Suponhamos que j1 , com 1 ≤ j1 ≤ n é a primeira coluna
de A que não é nula. Por troca de linhas, colocamos um elemento a 6= 0 na
(1)
posição (1, j1 ) da matriz. Multiplica-se agora a linha L1 por a−1 ; deste modo
fica o elemento 1 ∈ K na posição (1, j1 ); se uma das outras linhas de A, Ls por
exemplo, com 1 < s ≤ m, tem um elemento b na coluna j1 soma-se-lhe a linha
(1)
(1)
L1 multiplicada pelo escalar −b, isto é, faz-se Ls ← Ls + (−b) L1 (Operação
(1)
de Jacobi). Assim, a nova linha Ls passa a ter o escalar 0 ∈ K na posição
(s, j1 ). Procedendo de igual modo com todas as linhas, que não a primeira, que
tenham um elemento não nulo na coluna j1 obtem-se uma matriz com a forma:



A1 = 


0 ···
0 ···
..
.
0 ···
(1)
(1)
0 1 a1,j1 +1
(1)
0 0 a2,j1 +1
.. ..
..
. .
.
(1)
0 0 am,j1 +1
a1,j1 +2
(1)
a2,j1 +2
..
.
(1)
a2,j1 +2
(1)
···
···
a1n
(1)
a2n
..
.
···
amn
(1)






Suponhamos agora que j2 , com j1 < j2 ≤ n é a primeira coluna de A1 que
tem elementos não nulos para além de, eventualmente, o primeiro. Por troca de
linhas, colocamos um elemento d 6= 0 na posição (2, j2 ) da matriz. Multiplica-se
(2)
agora a linha L2 por d−1 ; deste modo fica o elemento 1 ∈ K na posição (2, j2 );
(1)
se uma das outras linhas de A1 , Lr por exemplo, com 2 < r ≤ m, tem um
(2)
elemento f na coluna j2 soma-se-lhe a linha L2 multiplicada pelo escalar −f ,
(1)
(1)
(2)
isto é, faz-se Lr ← Lr + (−f ) L2 (Operação de Jacobi). Assim, a nova linha
(2)
Lr passa a ter o escalar 0 ∈ K na posição (r, j2 ). Procedendo de igual modo
com todas as linhas, que não a primeira e a segunda, que tenham um elemento
não nulo na coluna j2 obtem-se uma matriz com a forma:



A2 = 


0 ···
0 ···
..
.
0 ···
(1)
0 1 a1,j1 +1
0 0
0
.. ..
..
. .
.
0 0
0
(1)
(1)
···
···
a1,j2
1
..
.
a1,j2 +1
(2)
a2,j2 +1
..
.
···
0
am,j2 +1
(2)
(1)
···
···
a1n
(2)
a2n
..
.
···
amn
(2)






Repetindo este processo um número, p, suficiente de vezes, sempre inferior
a n, obtém-se uma matriz B = Ap na forma desejada. Adicionalmente, temse rl (A) = rl (B) uma vez que operações elementares sobre as linhas de uma
matriz não alteram a sua característica de linha.
Definição 29 (Condensação Vertical) Ao processo implícito na Proposição
16, que permite transformar uma qualquer matriz A ∈ Mm×n (K) numa matriz
B em forma de escada através de operações elementares sobre linhas designa-se
Condensação Vertical da matriz A.
54
6 Teoria das Matrizes

0 2 4 1 9
Exemplo 15 Considere-se a matriz A =  0 3 5 2 1 . Determi0 −1 2 0 0
nemos a sua característica de linha através de condensação vertical.




0 2 4 1 9
0 1 2 12 29
 0 3 5 2 1  L1 ←− 2 L1  0 3 5 2 1  L2 ←− L2 − 3L1
−−−−−−−−−−−−→
5
0 −1 2 0 0 −−−−−−−−→ 0 −1 2 0 0


9
0 1
2 12
2
 0 0 −1 1 − 25  L3 ←− L3 + L1
2
2
−−−−−−−−−−−→
0 −1 2 0
0




9
9
1
0 1 2
0 1 2 12
2
2
2
 0 0 −1 1 − 25  L3 ←− L3 + 4L2  0 0 −1 1 − 25 
2
2
2
2
−−−−−−−−−−−−→
9
5
0 0 4 12
0 0 0
− 91
2
2
2

Logo, a característica de linha da matriz A é rl (A) = 3. Repare-se que a 2a
e 3 operações poderiam ter sido ambas efectuadas na 2a matriz, poupando-nos
assim, a escrita de uma das matrizes anteriores (a terceira).
a
Definição 30 (Elemento Redutor) Durante o processo de CondensaçãoVertical, ao elemento, aij , utilizado para, mediante a aplicação de Operações de
Jacobi, anular os elementos {akj }k>i da respectiva coluna mas em linhas de
ordem superior, dá-se a designação de Elemento Redutor (o termo ”pivot” é
também frequentemente utilizado). O Elemento Redutor de uma linha não nula
é o elemento com índice de coluna mais baixo que ainda é não -nulo.
As colunas de uma matriz em forma de escada que contêm um elemento
redutor designam-se por Colunas Redutoras (ou Colunas Pivot).
Nota 9 O elemento redutor não tem necessariamente de ser o escalar 1 ∈ K.
No exemplo anterior utilizàmos, por exemplo −1. Não nos afastemos do objectivo principal do processo de condensação que consiste em transformar uma
matriz numa outra em forma de escada. A utilização da operação elementar que
consiste em multiplicar uma linha da matriz por um escalar tem como objectivo
facilitar os cálculos mediante a transformação do elemento redutor no escalar
1 ∈ K, com o qual é muito mais simples realizar as Operações de Jacobi que se
seguem.
Se, numa matriz em forma de escada, todos os elementos redutores forem o
escalar 1 ∈ K e os restantes elementos da respectiva coluna redutora forem 0,
diz-se que a matriz se encontra na forma de escada reduzida.
Exemplo 16 As seguintes matrizes em forma de escada têm os seus elementos
redutores devidamente assinalados.
55
6 Teoria das Matrizes


0 1 1 −1 0


•  0 0 0 4 9 . Trata-se de uma matriz em forma de escada.
0 0 0 0 0


1
0 0 0
0


•  0
1 2 −1 0 . Trata-se de uma matriz em forma de escada
0
0 0 0
1
reduzida.
Nota 10 Naturalmente que, numa matriz em forma de escada, o número de
linhas não nulas, o número de elementos redutores e o número de colunas redutoras são sempre iguais entre si.
6.7
Inversão de Matrizes
Nesta secção vamos estudar a Inversão de Matrizes, questão central na Teoria
das Matrizes com ramificações extremamente importantes na Álgebra Linear
em geral.
6.7.1
Definições e Resultados
Definição 31 (Matriz Regular/Inversa) Uma matriz quadrada A ∈ Mn (K)
diz-se regular se existir B ∈ Mn (K) tal que AB = In = BA. A matriz B dizse inversa de A e escreve-se B = A−1 . Do mesmo modo, A diz-se inversa de
B e escreve-se A = B −1 . Se não existir uma matriz B nestas condições, diz-se
que a matriz A é singular.3
Esta definição deixa em aberto uma afirmação que carece de demonstração.
O estabelecimento formal desta afirmação é como se segue:
Proposição 17 Considerem-se as matrizes A, B ∈ Mn (K). Então AB = I se
e só se BA = I.
Demonstração.
(⇒) Suponhamos que AB = I. Pretende-se mostrar que BA = I.
3 Assumindo que o produto A· B −1 se encontra bem definido, é incorrecto representá-lo por
A
.
Com efeito, esta notação poderá denotar ambiguamente o produto A · B −1 ou o produto
B
−1
· A, que não são necessariamente iguais.
B
56
6 Teoria das Matrizes
BA = BAI
(porque a identidade é elemento neutro para a multiplicação de matrizes)
= B (AI)
(pela propriedade associativa para a multiplicação de matrizes)
= B (IA) (porque a matriz identidade é comutável)
= B (AB) A (por hipótese)
= (BA) (BA)
(pela propriedade associativa para a multiplicação de matrizes)
Resulta que BA = (BA) (BA) ⇐⇒ BA (BA − I) = 0. Se BA = 0 então
ABA = A0 ⇐⇒ (AB) A = 0 ⇐⇒ IA = 0 ⇐⇒ A = 0. Mas também
BAB = 0B ⇐⇒ B (AB) = 0 ⇐⇒ BI = 0 ⇐⇒ B = 0. Logo deveremos
ter (BA − I) = 0 ⇐⇒ BA = I.
(⇐=) Suponhamos que BA = I. Pretende-se mostrar que AB = I.
mostração em tudo idêntica à anterior mutatis mutantis.
De-
Naturalmente que o conceito de regularidade de uma matriz só é passível de
ser aplicado a matrizes quadradas. Qualquer matriz, que não seja quadrada não
pode, por definição, ser regular, uma vez que não existe uma outra matriz que
possa simultaneamente ser multiplicada à esquerda e à direita daquela (um dos
produtos nunca será possível).
Proposição 18 Segue-se uma miscelânea de resultados àcerca de matrizes regulares.
1. Toda a matriz elementar é regular.
2. Se A ∈ Mn (K) é regular então rl (A) = n = rc (A).
¡ ¢−1 ¡ −1 ¢T
3. Se A ∈ Mn (K) é regular então AT
.
= A
4. Seja A ∈ Mm×n (K). Se B ∈ Mn (K) e D ∈ Mm (K) forem regulares
então rl (DA) = rl (A) e rc (AB) = rc (A).
5. Se A, B ∈ Mn (K) são matrizes regulares, AB também é regular e tem-se
−1
(AB) = B −1 A−1 .
Q
6. Se Ak ∈ Mn (K) , k = 1, · · · , p são matrizes regulares então pk=1 Ak
Q
−1
−1
também o é e ( pk=1 Ak ) = A−1
p × · · · × A1 .
7. O conjunto das matrizes regulares de ordem n sobre um corpo K constitui
um grupo a respeito da multiplicação; tal grupo designa-se por GLn (K),
Grupo Linear Geral de ordem n.sobre K.
57
6 Teoria das Matrizes
8. Seja A ∈ Mn (K) uma matriz regular de ordem n sobre K. Se B ∈ Mn (K)
é tal que BA = In , então B = A−1 ; de igual modo, se B ∈ Mn (K) é tal
que AD = In então D = A−1 .
Demonstração.
1. Seja E uma matriz elementar de ordem n sobre K. Se E resultou de In
por troca de linhas (ou colunas) é fácil verificar que EE = In , logo E é
regular e inversa de si mesma. Com feito, se E resulta da troca das linhas
s e t; teremos (no caso da troca de linhas):
(EE)ik
n
X
=
eij ejk
j=1
 Pn
 Pj=1 esj ejk = etk , se i = s
n
=
j=1 etj ejk = esk , se i = t

eik , se i 6= s, t
 ½
1, se k = s


, se i = s


 ½ 0, se k 6= s
1, se k = t
=
= δ ik
, se i = t


0,
se
k
=
6
t



eik , se i 6= s, t
Se E resultou da multiplicação da linha (ou coluna) s por um escalar
α ∈ K\ {0}, então, sendo F a matriz elementar resultante de multiplicar
a linha (ou coluna) s de In por a−1 , tem-se EF = In = F E, logo E é
regular. Efectivamente, no caso das linhas,
(EF )ik
=
n
X
eij fjk =
j=1
½
ess fsk = αfsk , se i = s
eik , se i 6= s
 ½
1, se k = s

, se i = s
0, se k 6= s
=
= δ ik

eik , se i 6= s
Se E se obteve somando à linha (ou coluna) s de In a linha (ou coluna)
t multiplicada por b ∈ K, a matriz H obtida de In somando à linha (ou
coluna) s a linha (ou coluna) t multiplicada por −b é tal que HE = In =
EH, logo E é regular. Com efeito, para as linhas,
(EH)ik
=
n
X
eij hjk =
½ Pn
j=1 esj hjk
= ess hsk + est htk , se i = s
eik , se i 6= s
j=1
 ½
1 · 1 + 0 · 0 = 1, se k = s

, se i = s
1 · (−b) + b · 1 = 0, se k = t
= δ ik
=

eik , se i 6= s
58
6 Teoria das Matrizes
2. Se A é regular teremos AA−1 = In , e pela Proposição (12) n = rc (In ) ≤
rc (A). Como A tem apenas n colunas, virá rc (A) = n. De igual modo,
como A−1 A = In , ter-se-á n = rl (In ) ≤ rl (A) e como A tem apenas n
linhas, virá rc (A) = n.
¢T
¡
¢T ¡
3. Basta verificar que AT A−1 = A−1 A = In .
4. Como DA = DA, tem-se, pela Proposição (12) rl (DA) ≤ rl (A). Mas
tem-se A = D−1 DA pelo que rl (DA) ≥ rl (A). Logo, rl (DA) = rl (A).
O raciocínio que demostra o resultado para as colunas é, em todo, semelhante.
¢
¡
5. Basta verificar que (AB) B −1 A−1 = A BB −1 A−1 = AA−1 = In .
6. O resultado constitui uma generalização do resultado anterior e pode ser
demonstrado por indução sobre o número de factores do produto. Para
p = 2 o resultado está demonstrado. Suponhamos que o resultado é válido
para p − 1 factores. Pretende-se mostrar que também é válido para p
factores:
Ã
p
Y
k=1
Ak
!
¡ −1
¢
Ap × · · · × A−1
=
1
¢
¡
−1
= (A1 × · · · × Ap ) A−1
p × · · · × A1
¡
¢
= A1 × · · · × Ap A−1
× · · · × A−1
p
1
¢
¡ −1
(porque Ap é regular) = (A1 × · · · × Ap−1 ) Ap−1 × · · · × A−1
1
= In (por hipótese)
7. Vimos no ponto 5. desta proposição que o referido conjunto é fechado
para a multiplicação; na Proposição (5) verificámos que a multiplicação
de matrizes é associativa; o elemento neutro In pertence ao conjunto;
finalmente, se A é regular A−1 também o é, o que significa que A−1 ∈
GLn (K). Conclui-se assim que GLn (K) é um grupo.
8. Se BA = In então BAA−1 = In A−1 , logo B = A−1 . De igual modo, se
AD = In então A−1 AD = A−1 In , logo D = A−1 .
Nota 11 Simbolicamente, a inversa de uma matriz regular é dada pelas seguintes matrizes:
−1
= Eik
• Eik
• Ei−1 (α) = Ei
¡1¢
α
, α 6= 0
59
6 Teoria das Matrizes
−1
(α) = Eik (−α)
• Eik
A seguinte proposição é uma generalização do resultado estabelecido no
ponto 4 da Proposição (18):
Proposição 19 Seja A ∈ Mm×n (K). Se F ∈ Mn (K) e E ∈ Mm (K) forem
matrizes elementares então rl (AF ) = rl (A) e rc (EA) = rc (A).
0
Demonstração. Façamos a prova para as linhas. Considere-se A = AF ,
e recordemos que a multiplicação à direita por uma matriz elementar cor- responde a operar sobre as colunas (Proposição
13). Designem-se as linhas de
n 0o
0
A por {Ls }s=1,··· ,n e as de A por Ls
. Suponhamos, sem perda de
s=1,··· ,n
generalidade, que {Ls }s=1,··· ,h são linearmente idependentes. Vejamos qual o
resultado da aplicação das três operações elementares sobre as linhas de A.
0
• Suponhamos então que A resulta
n 0 ode A por troca das colunas i e j, com i<
j. Mostremos que as linhas Ls
são linearmente independentes:
s=1,··· ,h
h
X
0
λs Ls
= 0 ⇐⇒
¤
= 0 ⇐⇒
s=1
h
X
λs
s=1
h
X
s=1
λs
£
£
as1
···
asj
···
asi
···
asn
as1
···
asi
···
asj
···
asn
h
X
¤
= 0 ⇐⇒
λs Ls
= 0 =⇒
s=1
n 0o
Assim, as linhas Ls
s=1,··· ,n
λs
= 0, ∀s=1,··· ,h
são linearmente independentes.
0
Suponhamos agora que A resulta de A por multiplicação da coluna
n 0 o j desta
última por um escalar β ∈ K\ {0}. Mostremos que as linhas Ls
s=1,··· ,h
são linearmente independentes:
h
X
s=1
0
λs Ls = 0 ⇐⇒
60
6 Teoria das Matrizes
h
X
λs
s=1
h
X
λs
s=1
£
as1
£
as1
···
···
asi
β × asj
···
asj
···
asn
···
asn
h
X
¤
= 0 ⇐⇒
¤
= 0 ⇐⇒
λs Ls
= 0 =⇒
s=1
λs
= 0, ∀s=1,··· ,h
P
Em particular, relativamente às coordenadas de índice j, temos hs=1 λs ×
Ph
Ph
β × asj = β s=1 λs asj = 0. Mas porque β 6= 0 virá s=1 λs asj = 0, isto
é
h
X
λs
s=1
£
as1
···
asi
···
asj
···
¤
= 0 ⇐⇒
λs Ls
= 0 =⇒
asn
h
X
s=1
n 0o
Assim, as linhas Ls
s=1,··· ,n
λs
= 0, ∀s=1,··· ,h
são linearmente independentes.
0
• Admitamos agora que A resulta de somar à coluna i de A a coluna j, com
in< j,
o multiplicada por um escalar β ∈ K\ {0}. Mostremos que as linhas
0
Ls
são linearmente independentes:
s=1,··· ,h
h
X
0
λs Ls
= 0 ⇐⇒
¤
= 0 ⇐⇒
s=1
h
X
s=1
λs
£
as1
···
asi + βasj
61
···
asj
···
asn
6 Teoria das Matrizes














h
X
s=1
λs
£
Ph
λs as1 = 0
s=1
..
.
Ph
Ph
s=1 λs asj = 0
..
.

Ph




s=1 λs asj = 0


.


..



 Ph
s=1 λs asn = 0
 Ph

s=1 λs as1 = 0



..



.

 Ph
Ph



s=1 λs asi + β
s=1 λs asj = 0

..
.

Ph




s=1 λs asj = 0


..



.


 Ph
s=1 λs asn = 0
as1
λs asi + β
s=1
···
asi
···
asj
···
asn
h
X
⇐⇒
⇐⇒
¤
=
0 ⇐⇒
λs Ls
=
0 =⇒
λs
=
0, ∀s=1,··· ,h
s=1
n 0o
Assim, as linhas Ls
s=1,··· ,n
são linearmente independentes.
Concluímos assim, que rl (A) ≤ rl (AF ). Como F é uma matriz elemen0
tar, logo é regular e podemos escrever A = A F −1 , sendo também F −1
uma matriz elementar (como verificámos na demonstração
do
³ 0´
³ ponto
´1. da
0
−1
pela
Proposição 18). Do mesmo modo, teremos rl A ≤ rl A F
Proposição 12, ou seja rl (AF ) ≤ rl (A), donde a igualdade.
Analogamente se prova a afirmação relativamente à característica de coluna.
Nota 12 Em termos práticos, o que o resultado anterior nos indica é que operações elementares sobre as linhas de uma matriz não afectam a sua característica
de coluna e que as operaçõs elementares sobre as colunas de uma matriz não
afectam a sua característica de linha.
62
6 Teoria das Matrizes
Podemos portanto concluir que operações elementares sobre as linhas ou colunas de uma matriz não afectam a sua característica.
Proposição 20 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n. A
redução da matriz A a uma matriz B em forma de escada por meio de operações
elementares sobre as linhas (ver Proposição 16) implica que B seja triangular
superior com todos os elementos principais não nulos.
Demonstração. Já verificámos na Proposição (16) que qualquer matriz é
redutível à forma de escada por meio de operações elementares, em particular
qualquer matriz A ∈ Mm×n (K).
Suponhamos que a matriz A está reduzida à forma de escada mas que, por
exemplo, bjj = 0, com 1 ≤ j ≤ n. Tal significa que o primeiro elemento
significativo da linha j será pelo menos bj,j+1 . Mas isso significa que o primeiro
elemento significativo da linha n será pelo menos bn,n+1 . Mas a matriz B é
quadrada, logo, a n-ésima linha de B é nula. Pela Proposição (10) as linhas
de B, e portanto de A, serão linearmente dependentes, implicando que rl (A) =
rl (B) < n, o que é absurdo. O absurdo resulta de assumirmos que um dos
elementos da diagonal de B é não nulo, logo bjj 6= 0, ∀1≤j≤n .
Assim, dada uma matriz A ∈ Mm×n (K) a matriz B, em forma de escada,
que daquela resulta por aplicação de operações elementares terá a forma:











1 b12
0 1
0 0
..
..
.
.
0 0
0 0
0 0
b13
b23
1
..
.
···
···
···
b1,n−2
b2,n−2
b3,n−2
..
.
b1,n−1
b2,n−1
b3,n−1
..
.
b1,n
b2,n
b3,n
..
.
0
0
0
···
···
···
1
0
0
bn−2,n−1
1
0
bn−2,n
bn−1,n
1











(5)
Continuando a proceder a operações elementares sobre linhas, poderemos
transformar B em In .
(1)
O seguinte conjunto de operações transformará a matriz B numa matriz B
onde a última coluna tem a forma {0, 0, 0, · · · 0, 0, 1}:
Ln−1 ← Ln−1 − bn−1,n × Ln
Ln−2 ← Ln−2 − bn−2,n × Ln
···
L1 ← L1 − b1,n × Ln
(6)
De igual modo, o seguinte conjunto de operações transformará a matriz B (1)
numa matriz B (2) onde a penúltima coluna tem a forma {0, 0, 0, · · · 0, 1, 0}:
63
6 Teoria das Matrizes
Ln−2 ← Ln−2 − bn−2,n−1 × Ln−1
Ln−3 ← Ln−3 − bn−3,n−1 × Ln−1
···
L1 ← L1 − b1,n−1 × Ln−1
(7)
Prossegue-se deste modo até se obter In .
A seguinte proposição enuncia o acima explicitado.
Proposição 21 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n.
Através de um número finito de de operações elementares sobre as linhas é
possível transformar a matriz A na matriz In .
Proposição 22 Seja A ∈ Mn (K) uma matriz quadrada tal que rl (A) = n
(rc (A) = n). Então A é um produto de matrizes elementares, logo regular.
Demonstração. Verificámos, na Proposição 21, que é possível através
de operações elementares sobre linhas, transformar a matriz A na matriz In .
Suponhamos que precisámos de t destas operações, digamos Op1 ,Op2 ,Op3 ,· · ·,Opt,
para obter In . Vamos refazer o processo com o seguinte esquema:
Op1
In −−−−
−→ E1
Op1
A −−−−
−→ A1
,
onde E1 é uma matriz elementar. Pelo estabelecido na Proposição 13 tem-se
ainda A1 = E1 · A. Efectuando uma sgunda operação tem-se:
Op2
A1 −−−−
−→ A2
Op2
E1 −−−−
−→ E12
Op2
In −−−−
−→ E2
,
onde A2 = E2 · A1 e E12 = E2 · E1 . Efectuando uma terceira operação,
tem-se:
Op3
A2 −−−−
−→ A3
Op3
E12 −−−−
−→ E123
Op3
In −−−−
−→ E3
,
onde A3 = E3 · A2 e E123 = E3 · E12 , e assim sucessivamente até à operação
Opt :
Opt
At−1 −−−−
−→ At
Opt
E12···t−1 −−−−
−→ E12···t
onde At = Et · At−1 e E12···t = Et · E12···t−1 .
64
Opt
In −−−−
−→ Et
,
6 Teoria das Matrizes
Como se referiu no início da demonstração, depois da aplicação destas t
operações obteve-se a matriz In , isto é, At = In . Então,
E12···t
=
=
=
=
Et E12···t−1
Et Et−1 · E12···t−2
(· · · )
Et Et−1 · · · · · E3 E2 E1
e ainda
In
=
=
=
=
=
=
At
Et At−1
Et Et−1 · At−2
(· · · )
Et Et−1 · · · · · E3 E2 E1 A
E12···t A
Nos pontos 1 e 5 da Proposição 18, respectivamente, estabelecemos que toda
maatriz elementar é regular e que o produto de matrizes regulares é ainda uma
matriz regular. Conclui-se portanto que a matriz E12···t é regular. Pelo ponto
8 da Proposição 18 vem A = (E12···t )−1 , ou seja A = E1−1 E2−1 E3−1 · · · · · Et−1 .
Resta assinalar que cada Ei−1 , 1 ≤ i ≤ t é uma matriz elementar.
A seguinte proposição generaliza o resultado da Proposição 19.
Proposição 23 Seja A ∈ Mm×n (K). Se B ∈ Mn (K) e D ∈ Mm (K) forem
matrizes regulares então rl (AB) = rl (A) e rc (DA) = rc (A).
Demonstração. Façamos a prova para a característica de linha. Conforme
a Proposição 22, a matriz B é produto de matrizes elementares, digamos, B =
F1 F2 · · · Fi−1 Fi . Tendo em conta o resultado da Proposição 19
rl (AB) =
=
=
=
=
rl (AF1 F2 · · · Fi−1 Fi )
rl (AF1 F2 · · · Fi−1 )
rl (AF1 F2 · · · Fi−2 )
(· · · )
rl (A)
Analogamente para a característica de coluna.
65
6 Teoria das Matrizes
Proposição 24 Seja A ∈ Mn (K).
1. A matriz A é regular se e só se rl (A) = n (ou rc (A) = n).
2. A matriz A é regular se e só se tiver uma inversa direita (respectivamente
esquerda), isto é, se existir uma matriz B ∈ Mn (K) tal que AB = In
(respectivamente BA = In ).
Demonstração.
1. Pelo ponto 2. da Proposição (18) se A é regular então rl (A) = n. Pela
Proposição (22), se rl (A) = n então A é regular. Analogamente para
rc (A) = n.
2. Se A é regular, por definição existe uma matriz B ∈ Mn (K) tal que AB =
In = BA. Se AB = In , pela Proposição (12) tem-se n = rc (In ) ≤ rc (B),
logo rc (A) = n, e portanto A é regular pelo ponto anterior.
6.7.2
Determinação da Inversa de uma Matriz Regular
Nesta secção apresenta-se um método prático para a determinação da matriz
inversa de uma matriz A ∈ Mn (K) regular. Pela Proposição (21) sabemos que
existem matrizes elementares E1 , E2 , · · · Et tais que Et Et−1 · · · E2 E1 A = In ,
logo A−1 = Et Et−1 · · · E2 E1 A Isto significa que, se conhecermos sucessivamente
as matrizes elementares que permitem passar de A a In . conhecermos a matriz
B tal que BA = £In , isto ¤é, conheceremos a inversa de A. Consideremos então a
matriz ampliada A|In do tipo n×2n e apliquemos toda a operação elementar
sobre as as linhas de A às linhas de In . Suponhamos que Op1 , Op2 , · · · Opt são
as operações elementares a aplicar sobre a matriz A.
£
£
¤
¤
A1 |E1 In
A2 |E2 E1
Op1
Op2
Op3
−−−−−¤→
−−¤−−−→
−−−−
−→
£
£
¤
£
A3 |E3 E2 E1 −−·−·−
In |Et Et−1 · · · E2 E1
Opt
·→ A1 |E1
−−−−−→
£
¤
£
¤
O que fizemos foi passar de uma matriz A|In para uma matriz In |B
através de operações elementares sobre linhas, em que B = A−1 .
£
A|In
¤
Exemplo 17 Consideremos a seguinte matriz real,

1 1 1
A =  1 −1 1 
1 1 0

66
6 Teoria das Matrizes
Vamos veriicar se a matriz A é regular e, em caso afirmativo, determinar a
sua inversa. Em vez de condensar primeiro a matriz A, de modo
a determinar
¤
£
A|I
chegar a
a
característica,
e
no
caso
em
que
r
(A)
=
n,
partindo
de
n¤
l
£
¤
£
In |B vamos começar imediatamente com a redução de A|In . Assim, se
A for regular, não é necessário repetir as operações elementares já efectuadas:
¯

1 1 1 ¯¯ 1 0 0
 1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1
¯
L3 ←− L3 − L1
1 1 0 ¯ 0 0 1 −−−
−−−−−−−−−→
¯


1 1
1 ¯¯ 1 0 0
1
 0 −2 0 ¯ −1 1 0  L2 ←− − 2 L2
¯
L ←− −L3
0 0 −1 ¯ −1 0 1 −−−3−−−−−−−−
→
¯


¯
0
0
1 1 1 ¯ 1
 0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L3
2
¯ 2
−−−−−−−−−−−→
0 0 1 ¯ 1
0 −1
¯


0
1
1 1 0 ¯¯ 0
 0 1 0 ¯ 1 − 1 0  L1 ←− L1 − L2
2
¯ 2
−−−−−−−−−−−→
0 0 1 ¯ 1
0 −1
¯


1
1 0 0 ¯¯ − 12
1
2
 0 1 0 ¯ 1 −1 0 
2
¯ 2
0 0 1 ¯ 1
0 −1

Tem-se claramente que,

A−1 = 
− 12
1
2
1
1
2
− 12
0

1
0 
−1
Conclui-se assim que a matriz é regular, conclusão esta atingida ao fim das
duas primeiras operações sobre as linhas de A, quando se obteve uma matriz
em escada de elementos principais significativos. Se a matriz A não fosse regular o processo teria terminado aqui. Sendo regular, prosseguiu-se na aplicação
de operações elementares sobre as linhas de A até se obter I3 enquanto que
simultaneamente determinávamos A−1 por aplicação das mesmas operações elementares sobre I3 .
Note-se que às operações elementares utilizadas correspondem, utilizando a
notação habitual, as seguintes matrizes elementares
L2 ←− L2 − L1
L3 ←− L3 − L1
L2 ←− − 12 L2
L3 ←− −L3
L1 ←− L1 − L3
L1 ←− L1 − L2
67
:
:
:
:
:
:
E21 (−1)
E31¡(−1)
¢
E2 − 12
E3 (−1)
E13 (−1)
E12 (−1)
6 Teoria das Matrizes
Tal significa, segundo o que verificámos na proposição 22, que a matriz A−1
pode ser produzida pelo produto, pela ordem correcta!, das matrizes elementares
acima descritas. Verifiquemos então esse resultado:
¶
µ
1
A−1 = E12 (−1) · E13 (−1) · E3 (−1) · E2 −
· E31 (−1) · E21 (−1) =
2







1 0 0
10 0
1 −1 0 1 0 −1
1 00
1 00
· 0 − 12 0 
·  0 1 0 
· 0 1 0 
=  0 1 0 
·  0 1 0 
· −1 1 0 =
0 0 −1 0 0 1
0 0 1 00 1
−1 0 1
0 01




  1
1
1 −1 −1
1 0
0
1
1 0 0
−2
2
0   0 − 12 0   −1 1 0  =  12 − 12 0 
= 0 1
0 0
1
0 0 −1
−1 0 1
1
0 −1
Como seria inevitável, a matriz obtida pelo produto das matrizes elementares
é precisamente A−1 .
Por um processo semelhante, também será possível recuperar a matriz A.
Com efeito, esta matriz será a inversa do produto de matrizes elementares descrito anteriormente. Sabendo que a inversa de uma matriz elementar tem uma
forma extremamente simples, é relativamente simples determinar A, como se
verifica em seguida:
¶
µ
·
¸−1
1
A = E12 (−1) · E13 (−1) · E3 (−1) · E2 −
=
· E31 (−1) · E21 (−1)
2
¶
µ
1
−1
−1
−1
−1
E21
(−1) · E31
(−1) · E2−1 −
(−1) · E12
(−1) =
· E3−1 (−1) · E13
2
E21 (1) · E31 (1) · E2 (−2) · E3 (−1) · E13 (1) · E12 (1) =







101 110
1 0 0 10 0
100 100
· 0 1 0  =
·  0 1 0 
· 0 1 0 
·  0 −2 0 
· 0 1 0 
=  1 1 0 
001 001
0 0 1 0 0 −1
001 101

 



1 1
1
1 1 1
1 0
0
1 0 0
=  1 1 0   0 −2 0   0 1 1  =  1 −1 −1 
1 1
0
0 0 1
0 0 −1
1 0 1
Definição 32 (Inversão por Condensação) Ao método atrás descrito para
a inversão de uma qualquer matriz A ∈ Mn (K) dá-se o nome de Inversão por
Condensação.
Nota 13 É extremamente importante lembrar que a determinação da inversa
de uma matriz através do método descrito só pode ser realizada exclusivamente
68
6 Teoria das Matrizes
por aplicação de operações elementares sobre linhas. Com efeito, só assim é possível afirmar que Et Et−1 · · · E2 E1 A = In e que portanto A−1 = Et Et−1 · · · E2 E1 .
Se forem aplicadas operações sobre colunas, definidas pelas matrizes elementares
F1 , F2 , · · · Fs , chegar-se-á à conclusão que Et Et−1 · · · E2 E1 AF1 F2 · · · Fs = In .
Esta expressão não está, obviamente, na forma BA = In não permitindo inferir
imediatamente a forma de A−1 .
Nota 14 Quando uma matriz A ∈ Mn (K) não é regular esta circunstância é
facilmente identificável durante o processo de inversão da matriz. Sucederá que
em determinado ponto, após a aplicação
de
¤ s operações elementares sobre linhas,
£
se obterá uma matriz do tipo As |Es em que o próximo elemento redutor
não poderá ter outro valor que não 0. Tal significa que não é possível reduzir
a matriz A original a uma matriz triangular superior com elementos proncipais
não nulos. Consequentemente, segundo a Proposição 20 a característica da
matriz será inferior a n e portanto não será regular.
Exemplo 18 Ilustremos a Nota anterior com a seguinte matriz real,


1
1
1
A =  1 −1 1 
−1 −3 −1
¯

1
1
1 ¯¯ 1 0 0
 1 −1 1 ¯ 0 1 0  L2 ←− L2 − L1
¯
L3 ←− L3 + L1
−1 −3 −1 ¯ 0 0 1 −−−
−−−−−−−−−→
¯


¯
1 1 1 ¯ 1 0 0
 0 −2 0 ¯ −1 1 0  L3 ←− L3 − L2
¯
−−−−−−−−−−−−→
0 −2 0 ¯ 1 0 1
¯


1 1 1 ¯¯ 1
0 0
 0 −2 0 ¯ −1 1 0 
¯
0 0 0 ¯ 2 −1 1
¤
£
Obteve-se uma matriz na forma A3 |E3 . Note-se que, neste ponto não há
forma de colocar na posição (3, 3) um elemento não nulo sem com essa operação
anular a configuração em forma de escada da matriz A3 . Conclui-se assim que
a matriz A não é regular. Mais se conclui que, como a matriz A3 está na forma
de escada, que a caratcterística da matriz A é 2.

69
6 Teoria das Matrizes
6.8
A Característica Revisitada
Na secção 6.6 estudámos um método, designado por Condensação Vertical,
para a determinação da característca de linha de uma qualquer matriz A ∈
Mm×n (K). Nesta secção vamos estudar a relação entre três valores: a caracterísitca de linha, a característica de coluna e a característica de uma matriz.
Esse estudo resume-se ao seguinte resultado:
Proposição 25 Seja A ∈ Mm×n (K). A características de linha e de coluna
da matriz A são iguais, isto é, rl (A) = rc (A).
Demonstração. Verificámos na Proposição 16 que a matriz A pode ser
reduzida a uma matriz A(1) , em forma de escada, por meio de operações elementares sobre as linhas da matriz A. Tal significa, por aplicação da Proposição
13 que existe uma matriz E, regular, tal que EA = A(1) . A matriz A(1) terá a
seguinte forma genérica:

0···0
0 · · · 0

0 · · · 0

..
..
.
.

0 · · · 0

0 · · · 0

..
..
.
.
1 b1,j1 +1 b1,j1 +2
0
0
0
0
0
0
..
..
..
.
.
.
0
0
0
0
0
0
..
..
..
.
.
.
0···0 0
0
0
· · · b1,j2 b1,j2 +1
· · · 1 b2,j2 +1
··· 0
0
..
..
.
.
··· 0
0
··· 0
0
..
..
.
.
· · · b1,j3 b1,j3 +1
· · · b2,j3 b2,j3 +1
· · · 1 b3,j3 +1
..
..
.
.
··· 0
0
··· 0
0
..
..
.
.
···
···
0
0
0
0

· · · b1,jt · · · b1n
· · · b2,jt · · · b2n

· · · b3,jt · · · b3n

..
.. 
.
. 

· · · 1 · · · btn

··· 0 ··· 0 

..
.. 
.
. 
···
0
··· 0
Poderemos agora efectuar t trocas de colunas de modo a obter uma matriz
A(2) cuja forma é a seguinte:

1 b1,j2 b1,j3
0 1 b2,j3

0 0
1

.. ..
..
. .
.

0 0
0

0 0
0

. .
..
.
.
. .
.
0 0
0
· · · b1,jt b1,j1 +1 b1,j1 +2
0
0
· · · b2,jt
· · · b3,jt
0
0
..
..
..
.
.
.
··· 1
0
0
··· 0
0
0
..
..
..
.
.
.
··· 0
0
0
· · · b1,j2 +1 · · · b1,j3 +1
· · · b2,j2 +1 · · · b2,j3 +1
···
0
· · · b3,j3 +1
..
..
.
.
···
0
···
0
···
0
···
0
..
..
.
.
· · · b1n
· · · b2n
· · · b3n
..
.
···
··· 0
0
···
0
· · · btn
··· 0
..
.

0···0
0 · · · 0

0 · · · 0

..
..
.
.

0 · · · 0

0 · · · 0

..
..
.
.
0···0
Seguidamente, através de operações de Jacobi sobre colunas poderemos uti(2)
lizar o elemento redutor a11 para anular os elementos não nulos da primeira
(2)
linha de A(2) ; de igual modo, utilizaremos o elemento redutor a22 para anular
70
6 Teoria das Matrizes
os elementos não nulos da segunda linha de A(2) . Prosseguindo deste modo
(2)
até ao elemento redutor att poderemos constatar que a matriz A(2) pode ser
transformada, através de operações elementares sobre colunas, na matriz A(3) .
Tal significa, por aplicação da Proposição 13 que existe uma matriz F , regular,
tal que A(1) F = A(3) . A matriz A(3) terá a seguinte forma genérica, numa
representação por blocos:
(3)
A
=
·
It
0t,n−t
0m−t,t
0m−t,n−t
¸
Em resumo, existem matrizes regulares E e F¡ tais¢que EAF = A(3) .
Reconhecendo que, nestas circunstâncias, rc A(3) = t e, por aplicação do
ponto 3 da Proposição 18 e da Proposição 23 concluímos que:
³
´
t = rl A(3) = rl (EAF ) = rl (AF ) = rl (A)
³
´
t = rc A(3) = rc (EAF ) = rc (AF ) = rc (A)
Resulta imediatamente que rl (A) = rc (A).
A este valor rl (A) = rc (A) dá-se o nome de característica da matriz A e
designa-se simplesmente por r (A).
Definição 33
¸ de uma Matriz) Seja A ∈ Mm×n (K). A
· (Forma Canónica
0t,n−t
It
que resulta de A por aplicação de operações
matriz B =
0m−t,t 0m−t,n−t
elementares às suas linhas e colunas designa-se por forma canónica equivalente a A.
Definição 34 (Condensação de uma Matriz) Seja A ∈ Mm×n (K). O processo que permite determinar a forma canónica equivalente a A designa-se por
condensação da matriz A.
Nota 15 O processo de condensação não consiste necessariamente na aplicação
de um conjunto de operações elementares sobre linhas seguido da aplicação de
um conjunto de operações elementares sobre colunas. A aplicação inicial de
um conjunto de operações elementares sobre linhas, processo que se designa
por condensação vertical como definido na Definição 29 permite determinar a
característica da matriz, digamos r (A). A partir daqui, o problema consiste,
através de operações elementares, indiferentemente sobre linhas ou colunas, em
criar uma matriz, cuja submatriz ocupando as primeiras r (A) linhas e colunas
é a identidade de ordem r (A) e os restantes elementos da matriz são nulos.
71
6 Teoria das Matrizes
Exemplo 19 Pelo processo de condensação determine-se a forma canónica de
cada uma das seguinte matrizes


1 1 −1 −1 0
4
9 
1.  13 0 13
27 1 25
7 18

1 1 −1 −1 0
L ←− L2 − 13 × L1
 13 0 13
4
9  2
L3 ←− L3 − 27 × L1
27 1 25
7 18 −−−
−−−−−−−−−−−−−→


1
1
−1 −1 0
 0 −13 26 17 9  L3 ←− L3 − 2 × L2
−−−−−−−−−−−−−−→
0 −26 52 34 18


C2 ←− C2 − C1
1
1
−1 −1 0
 0 −13 26 17 9  C3 ←− C3 + C1
0
0
0
0 0
C4 ←− C4 + C1
 −−−−−−−−−−−−−→

C3 ←− C3 + 2 × C2
1
0
0 0 0
 0 −13 26 17 9  C4 ←− C4 + 17 × C2
13
9
0
0
0 0 0
C5 ←− C5 + 13
× C2
−
−
−
−
−
−
−
−
−
−
−
−
−
−−−−→


1
0
0 0 0
 0 −13 0 0 0  C2 ←− − 1 C2
−−−−−−−−−13
−−−→
0
0
0 0 0


1 0 0 0 0
 0 1 0 0 0 
0 0 0 0 0




2. 



1 2 1
1 −5 1 

2 2 3 

1 −1 1 
0 0 1

1
1

2

1
0
2
−5
2
−1
0


1
1

L
1 
←−L
−L
2
2
1

0

3 
L
←−L
−2×L
3
1 0
 3
−2  L4 ←−L4 −L1  0
−−−−−−−−−−−−−→
1
0
72
2
−7
−2
−3
0

1
0 

1
1 
L2 ←− − 7 L2
−3 −−−−−−−−−→
1
6 Teoria das Matrizes

1
0

0

0
0

1
 0

 0

 0
0
2
1
−2
−3
0
2
1
0
0
0


1
1
0
0 
 L3 ←−L3 +2×L2 

1 
 L4 ←−L4 +3×L2  0

−3 −−−−−−−−−−−−−→ 0
0
1

1
0 

1 

0 
0
2
1
0
0
0

1
0 
 L4 ←−L4 +3×L3
1 
 L4 ←−L4 −L3
−3 −−−−
−−−−−−−−−→
1
A partir deste ponto temos duas alternativas possíveis. Ou prosseguimos
com operações elementares sobre linhas, ou com operações elementares
sobre colunas. Atente-se que o objectivo é criar uma matriz onde a identidade de ordem igual à característica da matriz, neste caso, obviamente,
3, constitui uma submatriz ocupando as primeiras 3 linhas e colunas da
matriz, sendo os restantes elementos da matriz nulos.
Utilizando operações elementares sobre linhas obtém-se:












1
0
0
0
0
2
1
0
0
0
1
0
1
0
0
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0






 L1 ←− L1 − L3 
 −−−−−−−−−−−−→ 



1
0
0
0
0
2
1
0
0
0
0
0
1
0
0



 L1 ←− L1 − 2 × L2
 −−−−−−−−−−−−−−−−→






Utilizando operações elementares sobre colunas obtém-se:






1
0
0
0
0
2
1
0
0
0
1
0
1
0
0




 C2 ←− C2 − 2 × C1 




3 ←− C3 − C1
 −−−C
−−−−−−−−−−−−−→ 
73
1
0
0
0
0
0
1
0
0
0
0
0
1
0
0






6 Teoria das Matrizes
6.9
Resolução de Sistemas de Equações Lineares
Nesta secção focaremos o problema que consiste na resolução de sistemas de
equações lineares. A aplicação da Teoria das Matrizes estudada ao longo das últimas secções revelar-se-á de fundamental importância para este estudo. Iniciase esta exposição com algumas definições.
6.9.1
Enquadramento Teórico
Definição 35 (Equação Linear) Seja K um corpo. A igualdade
a1 x1 + a2 x2 + · · · + an−1 xn−1 + an xn = b
designa-se por equação linear. Os escalares {ai }j=1,...,n ∈ K designam-se
por coeficientes da equação, o escalar b ∈ K designa-se por termo independente e os elementos {xi }j=1,...,n ∈ K designam-se por incógnitas (ou
variáveis) da equação. Uma equação linear em que as parcelas associadas às
incógnitas surgem no termo esquerdo da equação e o termo independente constitui o termo direito, diz-se escrita na forma canónica.
Nota 16 O termo ”linear” significa que se trata de uma equação do primeiro
grau em cada uma das incógnitas.
Exemplo 20 Classifiquemos as seguintes equações relativamente à sua natureza
linear (ou não-linear):
• x + y − y 2 = 10 é uma equação não-linear uma vez que tem a parcela não
linear −y 2 .
• xy − x + y − 12 = 0 é uma equação não-linear uma vez que tem a parcela
não linear xy.
• x2 + y 3 = 0 é uma equação não-linear uma vez que tem as parcelas não
lineares x2 e y 3 .
• x + 2y + 6z = 7 é uma equação linear nas variáveis x, y e z.
• x + y − 2 = 0 é uma equação linear nas variáveis x e y. Basta verificar
que a equação pode ser reescrita na forma canónica como x + y = 2.
Definição 36 (Sistema de Equações Lineares) Seja K um corpo. Considere-se um conjunto de m equações lineares da forma
ai1 x1 + ai2 x2 + · · · + ai,n−1 xn−1 + ain xn = bi
74
6 Teoria das Matrizes
Quando se pretende resolver simultaneamente todas as equações, diz-se que
se tem um sistema de m equações lineares nas n incógnitas {xj }j=1,...,n , so qual
se representa do seguinte modo:

a11 x1 + a12 x2 + · · · + a1,n−1 xn−1 + a1n xn = b1



a21 x1 + a22 x2 + · · · + a2,n−1 xn−1 + a2n xn = b1
···



am1 x1 + am2 x2 + · · · + am,n−1 xn−1 + amn xn = b1
(8)
Os escalares {aij }i=1,...,m; j=1,...,n ∈ K designam-se por coeficientes do
sistema, os escalares {bi }i=1,...,m ∈ K designam-se por termos independentes do sistema.
Qualquer sistema de m equações a n incógnitas pode ser escrito na forma
matricial se atendermos ao seguinte:
• Os coeficientes do sistema, {aij }i=1,...,m; j=1,...,n ∈ K, podem ser descritos
como uma matriz A ∈ Mm×n (K), cujo elemento aij é precisamente o
coeficiente da incógnita xj na i-ésima equação.
• Os termos independentes do sistema, {bi }i=1,...,m ∈ K, podem ser descritos como uma matriz coluna B ∈ Mm×1 (K), cujo elemento bi é precisamente o termo independete da i-ésima equação.
• As incógnitas do sistema, {xj }j=1,...,n ∈ K, podem ser descritas como uma
matriz coluna X ∈ Mn×1 (K), cujo elemento xj é precisamente a j-ésima
incógnita.
Nestas circunstâncias, o sistema de equações definido pelas matrizes A, B e
X pode ser escrito como sendo a equação matricial :
AX = B
(9)
Note-se que o produto de matrizes AX é uma matriz do tipo Mm×1 (K),
precisamente o tipo da matriz B. A cada coluna da matriz de coeficientes, A,
corresponde uma incógnita; assim, a j − ésima coluna da matriz A é composta
pelos coeficientes da variável xj nas m equações do sistema.
Exemplo 21 Consideremos os seguintes sistemas de equações lineares e a sua
representação na forma de equações matriciais:
½
x + y = 1800
•
2
1
3 x + 2 y = 1100
O sistema pode ser escrito na forma matricial do seguinte modo:
75
6 Teoria das Matrizes
·
•
½
1
1
2
3
1
2
¸·
x
y
¸
=
·
1800
1100
¸
3x + 2y + z = 39
2x + 3y + z = 34
Este sistema pode ser escrito matricialmente na forma:
·
3 2 1
2 3 1

 10 + 11x + 12y = 0
20 + 21x + 22y = 0
•

30 + 31x + 32y = 0
¸

·
¸
x
 y  = 39
34
z

O sistema acima, reescrito na forma canónica, apresenta-se do seguinte
modo:

 11x + 12y = −10
21x + 22y = −20

31x + 32y = −30
A respectiva equação matricial será portanto da forma:

¸
11 12 ·
−10
 21 22  x = −20
y
31 32
−30

Definição 37 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K).
• Designa-se por solução do sistema a toda a matriz D ∈ Mn×1 (K) tal
que AD = B.
• A matriz A designa-se por matriz simples do sistema e a matriz [ A| B]
designa-se por matriz ampliada.
• O sistema dir-se-á homogéneo se B=0; caso contrário dir-se-á não homogéneo.
76
6 Teoria das Matrizes
Do acima exposto conclui-se que o estudo da resolubilidade do sistema de
equações (8) é, pois, o da resolubilidade da equação matricial (9).
Definição 38 (Solubilidade de um Sistema de Equações) Um sistema de
equações lineares é dado pela equação matricial AX = B, onde A ∈ Mm×n (K),
B ∈ Mm×1 (K) e X ∈ Mn×1 (K).
• Diz-se que o sistema de equações AX = B é possível quando tem pelo
menos uma solução, isto é, quando existe pelo menos uma matriz D ∈
Mn×1 (K) tal que AD = B. Se existe uma e uma só solução o sistema dizse determinado; se existir mais que uma solução diz-se indeterminado.
• Diz-se que o sistema é impossível se não existe nenhum D ∈ Mn×1 (K)
tal que AD = B.
Definição 39 (Equivalência de Sistemas de Equações) Dois sistemas de
equações lineares são dados pelas equações matriciais AX = B e A0 X = B 0
onde A, A0 ∈ Mm×n (K), B 0 , B ∈ Mm×1 (K) e X ∈ Mn×1 (K). Os sistemas
dizem-se equivalentes se toda a solução de uma equação for solução da outra.
Proposição 26 Considere-se um sistema de equações lineares dado pela equação matricial AX = B, onde A ∈ Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K).
1. Dada uma matriz regular P∈Mm (K), os sistemas AX=B e (P A) X=P B
são equivalentes.
2. Se Q ∈ Mn (K) for uma matriz regular, existirá uma bijecção entre o
conjunto de solução da equação AX = B e o conjunto de soluções da
equação (AQ) Y = B. Tal bijecção é definida por:
f : {sol. de AX = B} → {sol. de (AQ) Y = B}
X0 7−→ Q−1 X0
Demonstração.
1. Basta verificar que, dada a regularidade da matriz P , então P −1 existe e
portanto
P
−1
(P A) X
(P A) X
IAX
AX
77
=
=
=
=
P B ⇐⇒
P −1 P B ⇐⇒
IB ⇐⇒
B
6 Teoria das Matrizes
2. Injectividade. Temos de mostrar que
∀X0 ,X1 :AX0 =AX1 =B , f (X0 ) = f (X1 ) ⇒ X0 = X1
Obviamente que
f (X0 )
Q−1 X0
¡
¢
QQ−1 X0
IX0
X0
=
=
=
=
=
f (X1 ) ⇒
Q−1 X1 ⇒
¢
¡
QQ−1 X1 ⇒
IX1 ⇒
X1
Sobrejectividade. Temos de verificar que
∀D:(AQ)D=B , ∃X0 :AX0 =B : f (X0 ) = D
Basta portanto exibirmos X0 . Escolhamos X0 = QD. É claro que X0
resolve AX = B, uma vez que
AX0
= A (QD)
= (AQ) D
= B
O ponto 1. da proposição anterior mostra que, ao aplicarem-se as mesmas
operações elementares sobre linhas à matriz A e à matriz B se obtém sistemas
de equações equivalentes. A aplicação das operações elementares reside na multiplicação da matriz A e B, à esquerda, pela matriz P , regular. Lembremos
que, pela proposição 22, se P é uma matriz regular então é produto de matrizes
elementares.
Esta prática, que consiste em operar sobre as equações que compõem um
sistema de equações lineares, foi introduzida no ensino pré-universitário com
o objectivo de ”simplificar” algumas equações, nomeadamente no que diz respeito ao número de variáveis que contêm. Consideremos o seguinte exemplo de
enquadramento:
Exemplo 22 Consideremos o seguinte sistema de equações lineares:
78
6 Teoria das Matrizes

 x1 + 2x2 − x3 = 1
−2x1 + 4x2 + x3 = 0

−x1 + 6x2 = −1
A ”simplificação” deste sistema de equações consistia, por exemplo, em
”eliminar” a variável x1 da primeira equação; para tal, somava-se a primeira
com a terceira equação, para se obter 8x2 − x3 = 0; esta equação, com duas variáveis, vinha agora substituir a primeira equação do sistema, com três variáveis,
para se obter um sistema equivalente:

 8x2 − x3 = 0
−2x1 + 4x2 + x3 = 0

−x1 + 6x2 = −1
Prosseguia-se agora com a resolução resolvendo explicitamente para algumas variáveis e substituindo o resultado nas equações com maior número de
variáveis. A equivalência dos dois sistemas nunca foi justificada rigorosamente,
embora fosse intuitivamente evidente. No entanto, agora, à luz da teoria das
matrizes, é simples verificar que a transformação efectuada consistiu em tomar
a matriz elementar,

1 0 1
E= 0 1 0 
0 0 1

e multiplicá-la à esquerda das matrizes dos coeficientes e dos termos independentes do sistema original, respectivamente,




1 2 −1
1
A =  −2 4 1  e B =  0 
−1
−1 6 0
O resultado obtido, é, como não podia deixar de ser,
A0
B0

 

1 2 −1
0 8 −1
1 0 1
=  0 1 0   −2 4 1  =  −2 4 1  e
0 0 1
−1 6 0
−1 6 0


 

0
1
1 0 1
=  0 1 0  0  =  0 
−1
0 0 1
−1

Note-se que as matrizes A0 e B 0 são precisamente as matrizes de coeficientes
e de termos independentes do sistema após a transformação. Portanto, os sistemas AX = B e A0 X = B 0 são equivalentes porque A0 = EA e B 0 = EB e E
é uma matriz elementar, logo regular.
79
6 Teoria das Matrizes
Note-se ainda que a matriz elementar E está associada à operação de Jacobi
L1 ←− L1 + L3 aplicada sobre a matriz ampliada do sistema AX = B, isto é:
¯


1 2 −1 ¯¯ 1
+
L
[ A| B] =  −2 4 1 ¯¯ 0  −
L−1−←−
L−
1−
−−−−
−−
→3
−1 6 0 ¯ −1
¯


0 8 −1 ¯¯ 0
 −2 4 1 ¯ 0  = [ A0 | B 0 ]
¯
−1 6 0 ¯ −1
Do exposto anteriormente, poder-se-á concluir que o estudo da matriz ampliada de um sistema, [ A| B], permite determinar a natureza e solução (se existir)
de qualquer sistema de equações lineares.
Proposição 27 (Teorema de Rouché) Considere-se um sistema de equações
lineares dado pela equação matricial AX =B, onde A∈Mm×n (K), B∈Mm×1 (K)
e X ∈Mn×1 (K). O sistema AX = B é possível se e só se r (A) = r ([ A| B]).
Demonstração. Para benefício do leitor apresentam-se duas demonstrações
para este importante Teorema. A primeira versão, baseada na aplicação de
Operações Elementares e a segunda baseada na independência linear das colunas
de uma matriz.
Versão 1:
Comecemos por transformar o sistema AX = B no sistema equivalente
A0 X = B 0 , em que a matriz ampliada do sistema original, [ A| B], é reduzida
a uma matriz [ A0 | B 0 ] em forma de escada reduzida por meio de operações elementares sobre linhas, e que constitui a matriz ampliada do sistema A0 X = B 0 .
Foi verificado na Proposição 16 que esta redução é sempre possível. A matriz
[ A0 | B 0 ] terá a seguinte forma:

0 · · · 0

0 · · · 0

0 · · · 0

.
..
.
.
.

0 · · · 0

0 · · · 0

0 · · · 0
.
..
.
.
.

0 · · · 0
|
1 a01,j1 +1 a01,j1 +2 · · · a01,j2 a01,j2 +1 · · · a01,j3 a01,j3 +1 · · · a01,jt
0
0
0 · · · 1 a02,j2 +1 · · · a02,j3 a02,j3 +1 · · · a02,jt
0
0
0 ··· 0
0 · · · 1 a03,j3 +1 · · · a03,jt
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
0
0
0 ··· 0
0 ··· 0
0 ··· 1
0
0
0 ··· 0
0 ··· 0
0 ··· 0
0
0
0 ··· 0
0 ··· 0
0 ··· 0
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
0
0
0 ··· 0
0 ··· 0
0 ··· 0
{z
A0
80
¯

¯
¯
· · · a01n¯¯ b01 

· · · a02n¯¯ b02 

· · · a03n¯¯ b03 

.. ¯¯ .. 

. ¯ . 
0 ¯ b0 
· · · atn¯ t 
¯

· · · 0 ¯ b0t+1 
¯

··· 0 ¯ 0 
¯
.. ¯ .. 

. ¯ . 
¯

··· 0 ¯ 0 
¯
|{z}
}¯
0
B
6 Teoria das Matrizes
(=⇒) Suponhamos que o sistema AX = B é solúvel, então A0 X = B 0 também
o será. Mas sendo este sistema solúvel, então b0t+1,n = 0. Com efeito, se
b0t+1,n 6= 0, a equação t + 1 terá a forma 0 = b0t+1,n , condição impossível.
Esta situação constitui um absurdo, pelo que, se o sistema é solúvel, se
deverá ter b0t+1,n = 0. Ora, neste caso a (t + 1) − ésima linha da matriz
ampliada [ A0 | B 0 ] é nula. A matriz ampliada [ A0 | B 0 ] terá portanto t linhas
não nulas onde pelo menos um elemento da linha t da matriz A0 é não
nulo. Imediatamente resulta que r (A0 ) = r ([ A0 | B 0 ]), ou, sabendo que
as operações elementares sobre as linha de uma matriz não alteram a sua
característica, pela Proposição 14, r (A) = r ([ A| B]).
(⇐=) Suponhamos que r (A) = r ([ A| B]). Então r (A0 ) = r ([ A0 | B 0 ]). Esta circunstância implica que b0t+1,n = 0. Se assim não fosse, teríamos r (A0 ) <
r ([ A0 | B 0 ]), o que contraria a hipótese. Posto isto, basta exibir uma
solução para o sistema A0 X = B 0 para mostrarmos que AX = B é solúvel.
Seja {j1 , · · · jt } o conjunto dos índices de coluna associados às colunas de
A0 que contêm um elemento redutor. Através de operações elementares
sobre as linhas de [ A0 | B 0 ], utilizemos o elemento redutor da i − ésima
linha, com i = 2, · · · , t, e que está na posição (i, ji ), para anular todos
os elementos não nulos da coluna ji . Para o efeito, vamos aplicar um
conjunto de operações de Jacobi sobre as linhas de [ A0 | B 0 ]. Obteremos
com este processo, um sistema A00 X = B 00 equivalente a A0 X = B 0 , e
portanto a AX = B, cuja matriz ampliada [ A00 | B 00 ] está em forma de
escada reduzida, com a seguinte forma:

0 · · · 0

0 · · · 0

0 · · · 0

.
..
.
.
.

0 · · · 0

0 · · · 0

0 · · · 0
.
..
.
.
.

0 · · · 0
|
1 a001,j1 +1 a001,j1 +2 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0
0
0
0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0
0
0
0 ···0
0 · · · 1 a003,j3 +1 · · · 0
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
0
0
0 ···0
0 ···0
0 ···1
0
0
0 ···0
0 ···0
0 ···0
0
0
0 ···0
0 ···0
0 ···0
..
..
..
..
..
..
..
..
.
.
.
.
.
.
.
.
0
0
0 ···0 0 ···0
0 ···0
{z
A00
¯

¯
¯
· · · a001n¯¯ b001 

· · · a002n¯¯ b002 

· · · a003n¯¯ b003 

.. ¯¯ .. 

. ¯ . 
¯

· · · a00tn¯ b00t 
¯ 00 
· · · 0 ¯ bt+1 
¯

··· 0 ¯ 0 
¯
.. ¯ .. 

. ¯ . 
¯

··· 0 ¯ 0 
}¯¯ |{z}
00
B
Concretizemos as incógnitas do problema com os seguintes valores:
81
6 Teoria das Matrizes
xj1 = b001n
xj2 = b002n
·········
xj2 = b00tn
xj = 0, j ∈ {1, · · · , n} \ {j1 , · · · jt }
É simples verificar que a solução acima exposta constitui uma solução para
o sistema A00 X = B 00 , logo, para o sistema AX = B. A título ilustrativo,
consideremos a primeira equação do sistema A00 X = B 00 :
0 · x1 + · · · + 0 · xj1 −1 + xj1 + a001,j1 +1 · xj1 +1 +
+a001,j1 +2 · xj1 +2 + · · · + a001,j2 · xj2 + a001,j2 +1 · xj2 +1 +
+ · · · + 0 · xjt + · · · + a001n · xn = b01
Ao substituirmos a solução encontrada nesta equação, obter-se-á, como
seria de prever b01 = b01 . Não é difícil intuir que as restantes equações do
sistema também serão satisfeitas, o que mostra que foi encontrada uma
solução para o sistema AX = B, como pretendido.
Versão 2:
(⇒) Admitamos então que AX = B admite uma solução, a coluna D =
{d1 , · · · , dn }. Designando por A1 , · · · , An as colunas da matriz A, poderemos escrever B = d1 A1 + · · · dn An . Ora, se o número máximo de colunas
da matriz A linearmente independentes é t, o número máximo de colunas
linearmente independentes da matriz [ A| B] terá também de ser t. Sem
perda de generalidade, suponhamos que as t primeiras colunas de A são
linearmente independentes podendo as restantes escrever-se de como combinação linear daquelas, de acordo com o ponto 6. da Proposição 10. Tal
significa que existem escalares {αj }j=1,···t tais que B = α1 A1 + · · · αt At .
Suponhamos, por redução ao absurdo que, por incluir a coluna B, o
número máximo de colunas linearmente independentes de [ A| B] é t + 1.
Uma das colunas deste conjunto terá de ser efectivamente B uma vez
que a matriz A só possui t colunas linearmente independentes. Mas B
escreve-se como combinação linear das colunas de A e, em particular das t
colunas de A que são linearmente independentes, uma vez que as restantes
n − t colunas de A se podem escrever à custa das t colunas que são linearmente independentes. Logo, B não pode pertencer a um conjunto de
colunas linearmente independentes o que é absurdo. Conclui-se portanto
que o número máximo de colunas linearmente independentes de [ A| B] é
também t, isto é r (A) = r ([ A| B]).
82
6 Teoria das Matrizes
(⇐) Admitamos agora que r (A) = r ([ A| B]). Se r (A) = t suponhamos, sem
perda de generalidade, que as t primeiras colunas de A são linearmente
independentes. Como r ([ A| B]) = t também e se as t primeiras colunas
de A são linearmente independentes, então, de acordo com o ponto 6. da
Proposição 10, B pode ser escrita como combinação das primeiras t colunas
de A (as que são linearmente independentes), isto é, B = α1 A1 + · · · αt At .
Utilizando escalares nulos para as restantes n − t colunas de A, verifica-se
que B pode ser escrita como combinação linear das colunas de A, isto é,
existe uma coluna de escalares D = {d1 , · · · , dn } tais que AD = B, logo
D resolve AX = B.
O próximo resultado enquadra o modo como se identifica a indeterminação
(ou determinação) de um sistema de equações
Proposição 28 Considere-se um sistema de equações lineares dado pela equação
matricial AX = B, onde A ∈ Mm×n (K), B∈ Mm×1 (K) e X ∈ Mn×1 (K). O
sistema AX = B ...
1 ... é possível e determinado se e só se r (A) = r ([ A| B]) = n.
2 ... é possível e indeterminado se e só se r (A) = r ([ A| B]) < n.
Demonstração.
1.
2.(=⇒) Suponhamos que o sistema é possível e determinado. Então, existirá
apena uma coluna D ∈ Mn×1 (K) tal que AD = B. Se designarmos
por A1 , · · · , An as colunas da matriz A e se {d1 , · · · , dn } forem os
elementos da matriz D, teremos d1 A1 + · · · + dn An = B.
A natureza da independência linear das colunas da matriz A pode ser
estudada compondo a combinação nula destas colunas e resolvendo
para os escalares. A combinação linear nula das colunas de A é dada
por λ1 A1 + · · · + λn An = 0. Adicionando as duas equações termo a
termo, obtém-se
(d1 A1 + · · · + dn An ) + (λ1 A1 + · · · + λn An ) =
= (d1 + λ1 ) A1 + · · · + (dn + λn ) An = B + 0 = B
A igualdade mostra que a coluna de elementos {d1 + λ1 , · · · dn + λn }
é solução da equação AX = B. Como, por hipótese, a solução é única,
conclui-se que as colunas {d1 , · · · , dn } e {d1 + λ1 , · · · , dn + λn } deverão ser iguais, isto é, d1 = d1 + λ1 , · · · , dn = dn + λn , donde
λ1 = · · · = λn = 0, o que mostra que as colunas da matriz A
são linearmente independentes e, sendo em número de n, ter-se-á
r (A) = r ([ A| B]) = n.
83
6 Teoria das Matrizes
(⇐=) Dado que r (A) = n e a matriz A tem n colunas então as colunas de A são linearmente independentes. Por outro lado, dado que
r ([ A| B]) = n e [ A| B] tem n + 1 colunas, então as colunas de [ A| B]
são linearmente independentes. Mostremos que B se pode escrever
como combinação linear das colunas de A. Seja então λ1 A1 + · · · +
λn An + λn+1 B = 0 uma combinação linear nula, não trivial, das colunas da matriz [ A| B]. Se λn+1 = 0, resta λ1 A1 + · · · + λn An = 0,
mas dada a independência linear das colunas da matriz A decorre
imediatamente que λ1 = · · · = λn = 0, o que é absurdo pois por
hipótese, partimos de uma combinação linear nula não trivial das
colunas de [ A| B]. Assim, deveremos ter λn+1 6= 0, e portanto
λ1
n
A1 − · · · − λλn+1
An .
B = − λn+1
Resta mostrar que esta combinação linear é única. Suponhamos então
que também se pode ter B = µ1 A1 + · · · + µn An . Subtraindo esta
equação à determinada anteriormente obtém-se
µ
¶
λ1
λn
(µ1 A1 + · · · + µn An ) − −
A1 − · · · −
An =
λn+1
λn+1
µ
µ
¶
¶
λ1
λn
= µ1 +
A1 + · · · + µn +
An = B − B = 0
λn+1
λn+1
Dada a independência linear das colunas de A decorre imediatamente
1
n
que µ1 = − λλn+1
, · · · , µn = − λλn+1
, que mostra a unicidade da combinação linear das colunas de A que resulta na coluna B.
Então, sabendo que o conjunto de escalares {d1 , · · · , dn } tais que
B = d1 A1 +· · ·+dn An é único, se designarmos por D uma coluna com
elementos {d1 , · · · , dn }, resulta que D é a única coluna que satisfaz
AD = B e portanto constitui solução única do sistema de equações
AX = D.
3. A demonstração deste ponto é imediata. Com efeito, a afirmação ”o sistema é determinado se e só se r (A) = n” demonstrada no ponto anterior é
equivalente à afirmação ”o sistema é indeterminado se e só se r (A) 6= n”.
Como o número de colunas da matriz A é n, não poderemos ter r (A) > n
pelo que a afirmação ”o sistema é indeterminado se e só se r (A) < n” tem
de ser verdadeira.
Na prática, a matriz em escada reduzida, terá formas distintas, no caso
de sistemas possíveis e determinados e indeterminados. Com efeito, a única
forma de satisfazer a condição r (A) = r ([ A| B]) = n é que, após a condensação
da matriz ampliada [ A| B], que denotaremos por [ A0 | B 0 ], a submatriz de A0
que ocupa as primeiras n linhas e n colunas desta seja uma matriz triangular
superior. A matriz ampliada [ A0 | B 0 ] tem a seguinte configuração:
84
6 Teoria das Matrizes





















1
0
0
..
.
0
0
0
..
.
0
|
¯

¯
¯
a012 a013 · · · a01,n ¯¯ b01 

1 a023 · · · a02,n ¯¯ b02 

0 1 · · · a03,n ¯¯ b03 

.. ..
.. ¯¯ .. 

. .
. ¯ . 
¯ 0 
0 0 · · · 1 ¯ bn 
¯

0 0 ··· 0 ¯ 0 
¯

0 0 ··· 0 ¯ 0 
¯
.. ..
.. ¯ .. 

. .
. ¯ . 
¯

0 0 ··· 0 ¯ 0 
¯
{z
}¯ |{z}
0
0
B
A
Nota 17 Os resultados das Proposições 27 e 28 permitem investigar aquilo a
que se designa por natureza de um sistema de equações lineares. Neste sentido, o sistema de equações lineares dado pela equação matricial AX = B, onde
A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K) pode ser classificado, provisoriamente, quanto à sua natureza, segundo o seguinte esquema:
Equação AX = B

















Solúvel

Indeterminado


 (r(A)=r([ A|B])<n)
(r(A)=r([ A|B])) 

Insolúvel

Determinado
(r(A)=r([ A|B])=n)
(r(A)6=r([ A|B]))
Exemplo 23 Estude-se a natureza do seguinte sistema de equações lineares:

 x+y =0
x−y =1

4x + 2y = 1
A matriz ampliada do sistema é dada por:
¯

1 1 ¯¯ 0
[ A| B] =  1 −1 ¯¯ 1 
4 2 ¯ 1

Procedendo à sua condensação, obtém-se o seguinte resultado:
85
6 Teoria das Matrizes
¯

1 1 ¯¯ 0
 1 −1 ¯ 1  L2 ←− L2 − L1
¯
L3 ←− L3 − 4L1
4 2 ¯ 1 −−−
−−−−−−−−−−→
¯
¯




1 1 ¯¯ 0
1 1 ¯¯ 0
 0 −2 ¯ 1  L3 ←− L3 − L2  0 −2 ¯ 1  = [ A0 | B 0 ]
¯
¯
−−−−−−−−−−−→
0 0 ¯ 0
0 −2 ¯ 1

Dado que r (A) = r ([ A| B]) = 2, o sistema é possível e determinado.
Exemplo 24 Estude-se a natureza do seguinte sistema de equações lineares:

 2x1 + 2x2 − 2x3 = 5
7x1 + 7x2 + x3 = 10

5x1 + 5x2 − x3 = 5
A matriz ampliada do sistema é dada por:

2 2 −2
[ A| B] =  7 7 1
5 5 −1
¯

¯ 5
¯
¯ 10 
¯
¯ 5
Procedendo à sua condensação, obtém-se o seguinte resultado:

2 2 −2
 7 7 1
5 5 −1

2 2 2
 0 0 8
0 0 −6

2 2
 0 0
0 0
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯

5
L ←− L2 − 72 L1
10  2
L3 ←− L3 − 5 L1
5
−−−−−−−−−−−−2−−→

5
 L3 ←− L3 + 3 L2
− 15
2
−−−−−−−−−−−4−→
− 15
¯ 2

2 ¯¯ 5
 = [ A0 | B 0 ]
8 ¯¯ − 15
2
105
¯
0
8
Dado que r (A) 6= r ([ A| B]), o sistema é impossível. Com efeito, a última
linha da matriz ampliada, [ A0 | B 0 ], corresponde à equação 0 = 105
8 , o que é
manifestamente impossível.
Exemplo 25 Estude-se a natureza do seguinte sistema de equações lineares:
½
x1 − x2 + x3 = 1
x1 + x2 − x3 = 2
86
6 Teoria das Matrizes
A matriz ampliada do sistema é dada por:
[ A| B] =
·
¯
¸
1 −1 1 ¯¯ 1
1 1 −1 ¯ 2
Procedendo à sua condensação, obtém-se o seguinte resultado:
·
¯
1 −1 1 ¯¯
1 1 −1 ¯
·
1 −1 1
0 2 −2
¸
1
L ←− L2−−
L
−−
→1
2 −−2−−−−−−
¯
¸
¯ 1
0
0
¯
¯ 1 = [A | B ]
Dado que r (A) = r ([ A| B]) = 2 < n = 3, o sistema é possível e indeterminado.
Os sistemas indeterminados, por terem múltiplas soluções requerem um estudo mais aprofundado, que destacaremos em seguida:
6.9.2
Sistemas de Equações Lineares Indeterminados
Consideremos, de um modo geral, o sistema de equações lineares dado pela
equação matricial AX = B, onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈
Mn×1 (K). Suponhamos ainda que r (A) = r ([ A| B]) < n, isto é, o sistema
é indeterminado. Sabemos ainda que existe uma matriz regular P que permite
transformar a matriz ampliada do sistema, [ A| B], numa matriz [ A00 | B 00 ], representando o mesmo sistema de equações, mas em forma de escada reduzida que
a seguir se apresenta:

0 · · · 0

0 · · · 0

0 · · · 0

.
..
.
.
.

0 · · · 0

0 · · · 0

0 · · · 0
.
..
.
.
.

0 · · · 0
|
1 a001,j1 +1 · · · 0 a001,j2 +1 · · · 0 a001,j3 +1 · · · 0
0
0 · · · 1 a002,j2 +1 · · · 0 a002,j3 +1 · · · 0
0
0 ···0
0 · · · 1 a003,j3 +1 · · · 0
..
..
..
..
..
..
..
.
.
.
.
.
.
.
0
0 ···0
0 ···0
0 ···1
0
0 ···0
0 ···0
0 ···0
0
0 ···0
0 ···0
0 ···0
..
..
..
..
..
..
..
.
.
.
.
.
.
.
0
0 ···0 0 ···0
0 ···0
{z
A00 =P A
¯
¯
¯
00 ¯
· · · a1n¯ b001
· · · a002n¯¯ b002
· · · a003n¯¯ b003
..
.. ¯¯
.
. ¯
¯
· · · a00tn¯ b00t
¯
··· 0 ¯ 0
¯
··· 0 ¯ 0
..
.. ¯¯
.
. ¯
¯
··· 0 ¯ 0
}¯¯ |{z}
00
B =P B





















Temos portanto um conjunto de t colunas redutoras ocupando as colunas de
índices {j1 , · · · , jt } É claro que, por troca das colunas da matriz A00 = P A é
possível obter uma matriz, de quatro blocos, com a forma
87
6 Teoria das Matrizes
·
It
Ct,n−t
0m−t,t
0m−t,n−t
¸
palavras, existe uma matriz regular Q ∈ Mn (K) tal que P AQ =
¸
· Por outras
It C
. Como foi referido no ponto 2 da Proposição 26, se D for uma
0 0
solução de (P A) X = P B então Q−1 D é uma solução de (P AQ) Y = P B. Ora,
facilmente se verifica que a equação
·
It
0
C
0
¸
Y = {b001 , · · · , b00t , 0, · · · , 0}
tem a solução D0 = {b001 , · · · , b00t , 0, · · · , 0}, logo, (P AQ) D0 = P B mostra
que QD0 é solução de (P A) X = P B, e consequentemente de AX = B. Mas
existem muitas mais soluções para o sistema (P AQ) Y = P B, com X = QY .
Na realidade, existem infinitas soluções, assumindo que o corpo K tem infinitos
elementos.
A questão que se coloca de imediato é a de descrever na totalidade o conjunto das soluções do sistema (P AQ) Y = P B e consequentemente do sistema
AX = B. Começemos por dividir em dois blocos o vector coluna das incógni¯
h
iT
(1) ¯ (2)
00(1)
tas, Y , fazendo Y = Yt,1 ¯ Yn−t,1 . Temos naturalmente Yt,1 = {y1 , · · · , yt }
00(2)
e Yn−t,1 = {yt+1 , · · · , yn }. Dividamos tanbém em dois blocos o vector col¯
iT
h
00(1) ¯
una das varáveis independentes, B 00 , fazendo B 00 = Bt,1 ¯ 0m−t,1 , onde
00(1)
Bt,1 = {b001 , · · · , b00t }. Matricialmente, o sistema A00 Y = B 00 representa-se do
seguinte modo:
·
It
Ct,n−t
0m−t,t
0m−t,n−t
¸"
(1)
Yt,1
(2)
Yn−t,1
#
=
"
00(1)
Bt,1
0m−t,1
#
(10)
Esta equação matricial pode ser reescrita como um sistema de duas equações
matriciais atendendo à partição em blocos escolhida. Obtém-se então:
(
(1)
00(1)
(2)
It · Yt,1 + Ct,n−t · Yn−t,1 = Bt,1
(1)
(2)
0m−t,t · Yt,1 + 0m−t,n−t · Yn−t,1 = 0m−t,1
A segunda equação pode ser omitida uma vez que constitui a condição universal 0m−t,1 ≡ 0m−t,1 . Resta portanto a equação:
(1)
(2)
00(1)
Yt,1 + Ct,n−t · Yn−t,1 = Bt,1
88
6 Teoria das Matrizes
Rearranjando os termos da equação acima, obtém-se:
00(1)
(1)
(2)
Yt,1 = Bt,1 − Ct,n−t · Yn−t,1
(1)
A expressão acima mostra que t incógnitas, precisamente as incógnitas Yt,1 ,
(2)
podem ser expressas em função de n − t incógnitas, precisamente Yn−t,1 . Assim,
a solução geral da equação A00 Y = B 00 será dada pelo vector coluna:
"
00(1)
Bt,1 − Ct,n−t · Dn−t,1
Dn−t,1
#
(11)
(2)
onde Dn−t,1 ∈ K n−t é uma concretização arbitrária qualquer das incógnitas
(2)
(2)
representadas em Yn−t,1 , a saber {yt+1 , · · · , yn }. Em particular, se Yn−t,1 = 0,
recupera-se a solução particular D0 = {b001 , · · · , b00t , 0, · · · , 0} já mencionada.
Nota 18 A solução geral do sistema, dada pela expressão (11), foi obtida atrvés
de uma sucessão de equivalências que se iniciou na equação A00 Y = B 00 , o que
significa que não só a expressão (11) é uma solução do sistema como também
qualquer solução do sistema A00 Y = B 00 poderá ser escrita na forma dada pela
expressão (11), isto é, se Gn1 for uma solução de A00 Y = B 00 então existe
(2)
Dn−t,1 ∈ K n−t tal que:
Gn1 =
"
00(1)
Bt,1 − Ct,n−t · Dn−t,1
Dn−t,1
#
É esta ”arbitrariedade” na escolha dos valores das incógnitas que está na
base da classificação do sistema como indeterminado. Dependendo do número
de incógnitas arbitrárias, assim será o grau de indeterminação do sistema.
Definição 40 (Incógnitas Dependentes/Independentes) Seja AX = B a
equação matricial relativa a um sistema de equações lineares, solúvel, onde A ∈
Mm×n (K), B ∈ Mm×1 (K) e X ∈ Mn×1 (K). Sabemos que existem matrizes
regulares P ∈ Mm (K) e Q ∈ Mn (K) tais que o sistema (P AQ) Y = P B, com
X = QY é equivalente ao sistema original e assume a forma da expressão (10).
¯
iT
h
(1) ¯ (2)
(1)
(2)
00(1)
A solução é dada por Y = Yt,1 ¯ Yn−t,1 onde Yt,1 = Bt,1 − Ct,n−t · Yn−t,1 .
(1)
(1)
As variáveis originais Xt,1 = QYt,1 , que se podem exprimir em função das var(2)
(2)
iáveis Xn−t,1 = QYn−t,1 designam-se por variáveis dependentes do sistema
AX = B enquanto que as últimas se designam por variáveis independentes.
O número de variáveis dependentes é igual à característica da matriz de coeficientes do sistema, r (A).
89
6 Teoria das Matrizes
Definição 41 (Grau de Indeterminação) O grau de indeterminação de um
sistema de equações lineares, possível, dado pela equação matricial AX = B,
onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K) é igual ao número de
variáveis independentes do sistema, isto é
Grau de Indeterminação = n − r (A)
Note-se que, se o sistema é possível e determinado, o grau de indeterminação
será nulo, uma vez que, pela Proposição 28, se tem n = r (A).
Poder-se-á ainda manipular a expressão (11) para concluir que se pode escrever como:
"
00(1)
Bt,1
0n−t,1
#
−
·
Ct,n−t
−In−t
¸
(12)
Dn−t,1
Nota 19 A expressão (12) revela que a solução geral do sistema A00 Y = B 00 é
dado pela solução particular B 00 à qual se adiciona uma combinação linear das
colunas da matriz cujas primeiras t linhas são compostas pela matriz C e as
últimas n − t linhas pela matriz identidade multiplicada pelo escalar −1.
Nota 20 A solução geral do sistema original AX = B pode ser recuperada
aplicando a matriz Q à expressão (12) para se obter:
Q
("
00(1)
Bt,1
0n−t,1
#
−
·
Ct,n−t
−In−t
¸
Dn−t,1
)
As seguintes observações auxiliarão no entendimento desta questão:
¡
¢
1. Pondo (P A) X = (P AQ) Q−1 X , observa-se que a incógnita Y da equação (P AQ) Y = P B resulta de efectuar sobre as linhas da coluna incógnita, Y , as mesmas trocas que foram feitas nas colunas de P A por efeito
de Q. Com efeito, ponhamos Q = E1 E2 · · · Eh onde cada Ek resultou de
It por trocas das colunas i e j ou das linhas i e j; vimos na Proposição
18 que uma matriz deste tipo é inversa de sim mesmo, isto é, Ek2 = It ;
assim, quando se escreve
¢
¡
= (P A) E1 E2 · · · Eh Eh−1 · · · E2−1 E1−1 X
(P AQ) Q−1 X
= (P A) E1 E2 · · · Eh Eh · · · E2 E1 X
90
6 Teoria das Matrizes
é possível verificar que, ao mesmo tempo que se trocam as colunas i e j
da matriz P A por efeito de E1 (à direita) e se obtém P AE1 , trocam-se as
linhas i e j de X por efeito da mesma matriz E1 (à esquerda) obtendo-se
E1 X, e analogamente com E2 , · · · , Eh .
2. Uma vez obtida uma solução D0 de (P AQ) Y = P B, o produto QD0 corresponde a ”desfazer” em D0 todas as trocas que levaram de X a Y , obtendose assim uma solução de (P A) X = P B.
3. Na prática, o que se descreve em 1. é que é permitido, na resolução da
equação (P A) X = P B, trocar colunas na matriz P A desde que se efectue
a respectiva troca de linhas na coluna incógnita X.
4. A operação descrita em 1. é muito útil na exposição teórica da resolução de uma equação matricial mas na resolução de problemas poderá
dispensar-se como adiante veremos.
Exemplo 26 Considere-se o sistema de equações dado pela seguinte equação
matricial:



1 2 −1 0 2

 −2 4 1 1 0 

−1 6 0 0 −1 
{z
}
|
A
|

x1
x2
x3
x4
x5
{z
X




=


|
}

1
0 
−1
{z }
B
Assume-se que A e B são matrizes de elementos reais. Começa por se condensar a matriz ampliada [ A| B]. Assim, ao mesmo tempo que averiguamos
àcerca da solubilidade da equação, vamo-nos encaminhando, em caso afirmativo,
para a sua resolução (os elementos redutores utilizados encontram-se assinalados
em cada passo):

1
 −2
−1

1
 0
0

1
 0
0
2
4
6

1
L2 ←− L2 + 2L1
0 
L3 ←− L3 + L1
−1 −−−−−−−−−−−−−→

−1 0 2 1
L−
−
L
−1 1 4 2  L
3−
−−3−←−
−−−−
−−
→2
−1 0 1 0

−1
0
2
1
−1
1
4
2  = [ A0 | B 0 ]
0
−1 −3 −2
−1
1
0
2
8
8
2
8
0
0
1
0
2
0
−1
A matriz ampliada encontra-se em forma de escada e, dado que r ([ A0 | B 0 ]) =
r ([ A| B]) = r (A) = 3 conclui-se que o sistema é possível. Como r (A) < n
91
6 Teoria das Matrizes
conclui-se adicionalmente que o sistema é indeterminado com grau de indeterminação n − r (A) = 5 − 3 = 2. Em suma, o sistema é Possível e Indeterminado
com grau de indeterminação 2.
Prossegue-se o processo de condensação até a matriz ampliada estar na
forma de escada reduzida (os elementos redutores encontram-se devidamente
assinalados):

1

 0
0

1
 0
0

1 0
 0 1
0 0
2
8
0
−1
−1
0
0
1
-1
2
1
0
−1
− 18
0
0
2
1
1
8
1
2
1
4
− 34
− 18
0

1
 0
0
2
4
−3
1
3
2
− 14
1
1
8
1
2
1
2
1
4
1
3
2
0
1
0
− 34
− 18
0
0
1
0

1
 L2 ←− 18 L2
2 
L3 ←− −L3
−2 −−−−−−−−−−→

 L1 ←− L1 − 2L2
−−−−−−−−−−−−→

1
 L2 ←− L2 − 81 L3
L1 ←− L1 + L3
−−−−−−−−−−−−4−−→

7
1
4
1
0 
8
3 2
Neste ponto, sabemos que existe uma matriz regular, P , tal que:

1
PA =  0
0
0
1
0
− 34
− 18
0
0
0
1

1
 e PB =  0 
2
3
7
4
1
8


Consideremos agora 3 alternativas para a determinação da solução geral do
sistema:
Alternativa 1
Esta alternativa é baseada na descrição teórica acima realizada. A partir da
equação (P A) X = P B poderemos escrever, trocando as colunas 3 e 4 da matriz
P A o sistema:

1
 0
0
|
0
1
0
0 − 34
0 − 18
1
0
{z
P AQ
 
1
¡ −1 ¢
 Q X = 0 
2
3
| {z }
}
7
4
1
8

PB
Naturalmente que a matriz Q será dada pela matriz identidade de ordem 5,
onde as colunas 2 e 3 foram trocadas:
92
6 Teoria das Matrizes



Q=


1
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
1
0
0
0
0
0
0
1






É fácil verificar que a coluna D0 = {1, 0, 2, 0, 0} é uma solução particular
do sistema (P AQ) Y = P B pelo que D = QD0 = {1, 0, 2, 0, 0} (basta trocar as
linhas 3 e 4 de D0 ) é solução de (P A) X = P B, logo de AX = B.
Dado que o sistema é indeterminado de ordem 2, onde {y1 , y2 , y3 } são as
variáveis dependentes e {y4 , y5 } as variáveis independentes, e a característica
da matriz dos coeficientes é 5, a solução geral do sistema (P AQ) Y = P B é
dada por:
"
00(1)
B3,1
02,1
#
−
·
C3,2
−I2
¸
D2,1

 3 7 
· ¸
·
¸
1
−4 4
0
1 0
00(1)
onde B3,1 =  0 , C3,2 =  − 18 18 , 02,1 =
, I2 =
0
0 1
2
0
3
¸
·
α1
é um vector de escalares pertencentes ao corpo K (neste caso
e D2,1 =
α2
K = R). Tem-se assim a solução geral, Y , de (P AQ) Y = P B dada por







y1
y2
y3
y4
y5


 
 
=
 
 
1
0
2
0
0


 
 
−
 
 
− 34
− 18
0
−1
0
7
4
1
8

·
¸
 α1
3 
 α2 ; α1 , α2 ∈ R
0 
−1
A solução geral do sistema (P A) X = B e portanto AX = B será dada por:



Q


y1
y2
y3
y4
y5









=Q 










1
0
2
0
0


 
 
−
 
 
93
− 34
− 18
0
−1
0
7
4
1
8

·
 α1
3 
 α2
0 
−1




¸






=
6 Teoria das Matrizes



= Q



1
 0

= 
 0
 2
0
 3

1
4
 1
0 
 8


2 
 + Q 0
 1

0
0
0
  3
− 74
4
  1 −1
8
  8
+ 1
0
 
  0 −3
0
1
− 74
− 18
−3
0
1


·
¸
 α1

 α2 =

·
¸
 α1

 α2

Conclui-se, dizendo que a solução geral da equação AX = B é dada por:

x1
 x2

 x3

 x4
x5

 3 

1
4
 0
 1 

  
 8 

 =  0  + α1  1  + α2 
  
 

 2
 0 

0
0


− 74
− 18
0
−3
1



 ; α1 , α2 ∈ R


Alternativa 2
Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). O sistema a resolver é portanto:

1
 0
0
|
0
1
0
− 34
− 18
0
{z
0
0
1

1
X =  0 
2
3
| {z }
}
7
4
1
8


PB
PA
As colunas redutoras da matriz P A têm índices {1, 2, 4}, correspondendo
às variáveis dependentes {x1 , x2 , x4 }, donde se deduz imediatamente a solução
particular x1 = b011 = 1, x2 = b021 = 0 e x4 = b031 = 2. Às restantes variáveis, as
variáveis independentes {x3 , x5 }, associadas a colunas não redutoras associa-se
o escalar 0: x3 = x5 = 0. Assim, a coluna D = {1, 0, 0, 2, 0} é uma solução
particular do sistema (P A) X = P B.
Resta determinar as duas colunas (relativas ao grau de indeterminação do
sistema, que é 2) cuja combinação linear completará a expressão da solução
geral do sistema. Cada uma dessa colunas terá dimensão 5 × 1 (uma vez que
n = 5). Como regra geral, a coluna Vi associada à variável independente xi terá
o escalar 1 na posição i e os escalares 0 nas posições associadas às restantes
variáveis independentes que não xi ; as restantes posições serão preenchidas com
94
6 Teoria das Matrizes
os escalares constantes da i − ésima coluna da matriz P A multiplicados por
−1, e por aquela ordem. Vejamos então a forma deste vectores coluna no caso
presente:
• Variável independente x3 :



3
?
 4
 ? 
 1

 8



V3 =  1  → V3 = 
 1

 ? 
 0
0
0








• Variável independente x5 :



− 74
?

 ? 
 −1



8


V5 =  0  → V5 = 
 0

 ? 
 −3
1
1








Como se confirma, a solução geral de (P A) X = P B e portanto de AX =
B será:

x1
 x2

 x3

 x4
x5
Alternativa 3

1
0

 

 =  0  + α1 V3 + α2 V5 =
 

2

0
 
 3 
 7
1
−4
4
0
 1 
 −1
 
 8 
 8

 

= 
 0  + α1  1  + α2  0


2
0
 −3
0
0
1





 ; α1 , α2 ∈ R


Nesta alternativa, exibir-se-á a solução geral do sistema partindo da equação
(P A) X = P B, evitando assim potenciais erros devido às trocas das colunas de
(P A). Reescrevendo o sistema na forma algébrica, é possível deduzir a solução
geral de forma intuitiva. O sistema a resolver é, como na alternativa 2:

1
 0
0
|
0
1
0
− 34
− 18
0
{z
0
0
1

1
X =  0 
2
3
| {z }
}
7
4
1
8


PB
PA
95
6 Teoria das Matrizes
Na forma algébrica o sistema tomará a forma:

 x1
− 34 x3
− 18 x3
x2

x4
+ 74 x5
+ 18 x5
+3x5
=1
=0
=2
Resolvendo este sistema em ordem às variáveis dependentes, obtém-se:

 x1
x
 2
x4
=
=
=
1
0
2
+ 34 x3
+ 18 x3
− 74 x5
− 18 x5 ; x3 , x5 ∈ R
−3x5
Assim, a solução geral dada por:

x1
 x2

 x3

 x4
x5






poderá ser reescrita em função das variáveis independentes {x3 , x5 } substituindo, no vector acima, as variáveis dependentes {x1 , x2 , x4 } pelas respectivas
expressões em função de {x3 , x5 }:

x1
 x2

 x3

 x4
x5


1 + 34 x3 − 74 x5

 0 + 1 x3 − 1 x5
8
8


→
x3




2 − 3x5
x5



 ; x3 , x5 ∈ R


Este vector pode ser reescrito com a soma de três vectores: um vector de
termos independentes, outro de termos em x3 e outro de termos em x5 obtendose:

1 + 34 x3 − 74 x5
 0 + 1 x3 − 1 x5
8
8


x3


2 − 3x5
x5
 
1

0 

  
→ 0 +

  

2 
0


3
4 x3
1
8 x3
 
1
0 
  
 0 +
  
2 
0
3
4 x3
1
8 x3


− 74 x5
  − 1 x5
  8

x3 
+ 0
 −3x5

0
0
x5

− 74 x5
  − 1 x5
  8

x3 
+ 0
 −3x5

0
0
x5
Colocando em evidência os escalares x3 e x5 :









 3 
 7
1
−4
4
 0
 1 
 −1
  
 8 
 8
 =  0  + x3  1  + x5  0
  
 

 2
0
 −3
0
0
1


96






6 Teoria das Matrizes
Como x3 e x5 : são quaisquer escalares reais, poderemos sombolizá-los por,
por exemplo, α1 e α2 , para se obter a já conhecida expressão geral das soluções
de AX = B:

x1
 x2

 x3

 x4
x5

 3 
 7
1
−4
4
 0
 1 
 −1
  
 8 
 8
 =  0  + α1  1  + α2  0
  
 

 2
0
 −3
0
0
1





 ; α1 , α2 ∈ R


Nota 21 A apresentação da solução geral do sistema em forma matricial ou
algébrica é indiferente a menos que uma das formas seja especificamente solicitada.
O estudo da Natureza de um sistema de equações lineares, resume-se no
seguinte quadro:
Natureza de um Sistema de Equac,o
~es Lineares


Indeterminado




(r(A)=r([ A|B])<n)






 Grau de Indeterminação




(n−r(A))
Solúvel

 (r(A)=r([
A|B])) 


Equação AX = B




Determinado


(r(A)=r([ A|B])=n)







 Insolúvel
(r(A)6=r([ A|B]))
Note-se que, a natureza de um sistema, requer que se identifique, no caso
indeterminado, o grau de indeterminação.
6.9.3
Algoritmo de Gauss-Jordan
O algoritmo de Gauss-Jordan é um método que permite resolver de forma sistemática um sistema de equações lineares dado pela equação matricial AX = B,
onde A ∈ Mm×n (K),B ∈ Mm×1 (K) e X ∈ Mn×1 (K).
• Condensar a matriz ampliada do sistema, [ A| B], numa matriz em forma
de escada reduzida [ A0 | B 0 ]. Note-se que [ A| B] ∈ Mm×(n+1) (K).
• Suponha-se que [ A0 | B 0 ] tem r linhas não-nulas e que o elemento redutor
na i − ésima linha ocorre na coluna ci para 1 ≤ i ≤ r. Ter-se-á então:
1 ≤ c1 < c2 < · · · < cr ≤ n + 1
97
6 Teoria das Matrizes
Suponha-se ainda que as restantes colunas de A0 terão índices cr+1 , · · · , cn ,
onde:
1 ≤ cr+1 < c2 < · · · < cn ≤ n
Efectivamente,
a última linha não-nula
Caso 1 cr = n+1. O sistema é impossível.
£
¤
de [ A0 | B 0 ] tem a forma 0 0 · · · 1 , correspondente à equação:
0x1 + 0x2 + · · · + 0xn = 1
obviamente insolúvel
Caso 2 cr ≤ n. O sistema é possível. Note-se que r ≤ n.
=⇒ Se r = n, então c1 = 1, c2 = 2, · · · , cn = n e o sistema é determinado
e terá a solução única:
£
b01
b02
···
b0n
¤T
=⇒ Se r < n, existirão soluções múltiplas. O sistema é indeterminado
com grau de indeterminação n − r. A solução geral obtem-se exprimindo as variáveis dependentes xc1 , · · · , xcr nas variáveis independentes xcr+1 , · · · , xcn :

 xc1 = b01 − a01cr+1 xcr+1 − · · · − a01cn xcn
····································

xcr = b0r − a0rcr+1 xcr+1 − · · · − a0rcn xcn
Soluções particulares do sistema podem ser obtidas concretizando as
variáveis independentes com valores particulares de K.
6.10
Matrizes com propriedades especiais
Nesta secção distinguem-se algumas matrizes que, pelas suas propriedades, se
enquadram numa definição particular. Daremos uma breve definição de cada
um destes tipos de matrizes assim como um exemplo ilustrando a respectiva
popriedade.
Definição 42 (Matriz idempotente) Seja A ∈ Mn (K). Diz-se que a matriz
A é idempotente se A2 = A.
98
6 Teoria das Matrizes
Exemplo 27 A matriz A =
·
8 −28
2 −7
¸·
8 −28
2 −7
¸
·
·
8 −28
2 −7
¸
é idempotente uma vez que:
8 × 8 + (−28) × 2 8 × (−28) + (−28) × (−7)
2 × 8 + (−7) × 2 2 × (−28) + (−28) × (−7)
·
¸
8 −28
=
2 −7
=
¸
Definição 43 (Matriz nilpotente) Seja A ∈ Mn (K). A matriz A diz-se
nilpotente se Ap = 0 para algum inteiro p. Se p é o menor inteiro para o qual
Ap = 0, A diz-se nilpotente de ordem p.

0 0 0
Exemplo 28 A matriz A =  1 2 −1  é nilpotente de ordem 3 uma vez
1 4 −2
que:


0 0 0
 1 2 −1  6=
1 4 −2
2

0 0 0
 1 2 −1  6=
1 4 −2
3

0 0 0
 1 2 −1  =
1 4 −2

0

0 0 0
 1 0 0  6= 0
2 0 0

0
Definição 44 Seja A ∈ Mn (K). A matriz A diz-se involuntória se A2 = I.

− 11
2

1
Exemplo 29 É simples confirmar que a matriz A =
2
involuntória.
− 39
4
− 39
4
3
4
5
2
3
2

é
Definição 45 (Matrizes Equivalentes) Duas matrizes A, B ∈ Mn×m (K)
dizem-se equivalentes se existem matrizes regulares P ∈ Mn (K) e Q ∈ Mm (K)
tais que A = P BQ.
Uma propriedade importante das matrizes equivalentes traduz-se no seguinte
resultado:
99
6 Teoria das Matrizes
Proposição 29 Duas matrizes, A, B ∈ Mn×m (K), equivalentes têm a mesma
característica.
Demonstração. Por definição, existem matrizes regulares P ∈ Mn (K)
e Q ∈ Mm (K) tais que A = P BQ. Pelo ponto 4 da Proposição 18 temse r (P BQ) = r (BQ). Pela Proposição 23 tem-se r (BQ) = r (B). Como
A = P BQ resulta imediatamente r (A) = r (B).
Um caso particular de equivalência de matrizes é o de semelhança de matrizes, que se definem em seguida.
Definição 46 (Matrizes Semelhantes) Duas matrizes A, B ∈Mn(K) dizemse semelhantes se existe uma matriz regular P ∈Mn (K) tal que A = P BP −1 .
100
Download

Álgebra Linear