Tratado
Sobre
Cálculo
Matricial
Autor:
Ricardo Soares Vieira
Primeira Parte:
TEORIA DAS MATRIZES:
§1. DEFINIÇÃO:
Uma matriz é definida como uma tabela de elementos dispostos em linhas e
colunas. Representaremos uma matriz sempre entre chaves, como a matriz genérica
{K}. Veremos agora algumas das principais propriedades de uma matriz.
a) Ordem De Uma Matriz: Representa o número de linhas e colunas que a
matriz possui. Abaixo temos um exemplo, a matriz {K}2×3, ou seja, uma matriz que
possui duas linhas e três colunas:
⎧K
⎪
2×3
⎪
⎪
⎪
⎪
⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎫
C ⎪
⎪
⎪
⎪
A1 B 1 C 1 ⎪
⎬
⎪
⎪
A2 B 2 C 2 ⎪
⎪
⎪
⎭
A
B
b) Posição De Um Elemento: A cada elemento de uma matriz pode ser
associado uma posição, determinado pelo par ordenado ij, que determinam
respectivamente a linha e a coluna que o elemento ocupa na matriz (que podem ser
chamados também de “coordenadas do elemento”). No trabalho que se segue, para uma
melhor visualização, representaremos as colunas por letras, e as linhas por números,
mas temos que lembrar que i e j são números e devem ser tratados como tal quando se
fizer necessário. Os elementos de uma matriz serão sempre representados pelo símbolo
da matriz, em minúsculo, seguindo-se da sua posição ij em subscrito, como o elemento
genérico kij da matriz {K}.
c) Paridade: A Paridade é um conceito que visa distinguir as operações pares
das ímpares. Quando a paridade tiver que ser levada em consideração, a operação
estará acompanhada do sinal ± em sobrescrito. No Cálculo Matricial é necessário
definirmos o conceito de paridade, pois como veremos, as operações em que ela deve ser
levada em consideração, deveremos inverter o sinal da operação caso sua paridade seja
ímpar, e mantê-lo caso seja par. Assim, seja n um número associado à operação em que
queremos saber a paridade, então podemos definir matematicamente a paridade
n
como: ρ = (−1) .Ou seja, operações pares serão multiplicadas por 1 e operações
ímpares por –1. Neste artigo, a paridade vai ser empregada em duas ocasiões:
Paridade de um elemento: Podemos associar a paridade às posições ij dos
elementos de uma matriz, pela soma de i e j: a paridade do elemento deve ser
considerada par quando a soma de i e j for par, e deve ser considerada ímpar, quando
esta soma for ímpar. Logo, o expoente n da equação anterior se refere, neste caso a
soma de i e j: (n = i + j). Deste modo, elementos pares possuirão paridade 1 e
elementos ímpares possuirão paridade –1, que indica que devemos inverter o sinal do
elemento caso sua posição seja ímpar, e mantê-lo inalterado caso sua posição seja par.
Paridade de uma permutação: Neste caso, o expoente n se refere ao número
de permutações realizadas em um determinado grupo. Deste modo, as permutações
ímpares devem ter o seu sinal invertido, e as pares não.
§ 2. NOTA SOBRE O TRATAMENTO MATEMÁTICO
DADO AS MATRIZES NESTE ARTIGO.
Na vigente teoria, as matrizes são consideradas como tabelas “fechadas”, no
sentido de que a sua constituição se restringe, ou se limita, apenas aos elementos que
ela possui, assim, em uma matriz cuja ordem seja 3×2, não se admite a existência de
nenhuma outra fila que não seja estas três linhas e estas duas colunas.
Porém, refletindo sobre as ambigüidades existentes no atual cálculo matricial (que
serão demonstradas no decorrer do texto), cheguei à conclusão de que devemos
considerar as matrizes, de uma forma geral, como contínuas, no sentido de que
poderemos adicionar determinadas filas quando e o quanto quisermos. Estas filas devem
ser uma continuação da própria matriz, e serem de tal forma que satisfaça todos os
postulados e teoremas do cálculo matricial; Para tal, os elementos cujas coordenadas
sejam diferentes (i ≠ j) devem ser todos nulos, e aqueles cujas coordenadas sejam iguais
(I = j) devem ser igual à unidade (1). Assim, toda matriz será considerada infinita,
mas é claro, não é necessário representar tais filas supra mencionadas, podemos ocultaas e, quando oportuno, revelá-las. Desta forma, chamaremos estas filas simplesmente de
“filas ocultas”.
Uma vez que o leitor está a par do tratamento matemático que será dado as
matrizes neste artigo, podemos dar continuidade a esta teoria.
§ 3. PRINCIPAIS CLASSIFICAÇÕES DAS MATRIZES:
a) Classificações Quanto A Ordem De Uma Matriz:
Quanto a ordem de uma matriz, podemos classificá-la entre “Matriz Quadrada” e
“Matriz Retangular”, caso o seu número de linhas e colunas sejam iguais ou não,
respectivamente. Ainda, se a matriz possui apenas uma fila, podemos classificá-la como
“Matriz Linha” ou “Matriz Coluna”. Onde nesta classificação, as filas ocultas devem
ser ignoradas.
Abaixo apresentamos uma matriz quadrada de 4ª ordem, uma matriz retangular
de ordem 4×3. Creio que não há necessidade de apresentar a matriz linha ou a matriz
coluna ao leitor, e em respeito a sua inteligência não o farei...
⎧ K 4×4
⎪
⎪
⎪
⎪
1
⎪
⎪
⎪
⎪ 2
⎨
⎪
⎪
⎪
3
⎪
⎪
⎪
⎪
4
⎪
⎩
A
B
C
A1 B 1 C 1
A2 B 2 C 2
A3 B 3 C 3
A4 B 4 C 4
⎫
D ⎪
⎪
⎪
D1 ⎪
⎪
⎪
⎪
D2 ⎪
⎬
⎪
⎪
D4 ⎪
⎪
⎪
⎪
D4 ⎪
⎪
⎭
⎧ K 4×3
⎪
⎪
⎪
⎪
1
⎪
⎪
⎪
⎪ 2
⎨
⎪
⎪
⎪
3
⎪
⎪
⎪
⎪
4
⎪
⎩
A
B
A1 B 1
A2 B 2
A3 B 3
A4 B 4
⎫
C ⎪
⎪
⎪
C1 ⎪
⎪
⎪
⎪
C2 ⎪
⎬
⎪
⎪
C3⎪
⎪
⎪
⎪
C4⎪
⎪
⎭
Na matriz quadrada, a diagonal de sentido esquerda-direita – no exemplo acima
formada pelos elementos (A1, B2, C3, D4) – chama-se “Diagonal Principal” e a
diagonal de sentido direita-esquerda – formada pelos elementos (D1, C2, B3, A4) –
chama-se “Diagonal Secundária”.
b) Matriz Identidade {I}:
A matriz identidade é uma matriz cujas filas são todas análogas às filas ocultas
discutidas anteriormente: ou seja, trata-se de uma matriz cujos elementos são formados
apenas pelos valores 1 ou 0; Terá o valor 1 os elementos que possuírem coordenadas
iguais (i = j), e terá o valor 0 aqueles elementos cujas coordenadas sejam diferentes (i
≠ j). Em outras palavras, os elementos da diagonal principal são iguais a 1, e os
restantes, iguais a 0. Neste trabalho, a Matriz Identidade será considerada uma matriz
infinita. Eis a Matriz Identidade:
⎧ I A
⎪
⎪
⎪
⎪
1 1
⎪
⎪
⎨
⎪
0
⎪
⎪
⎪
∞ 0
⎪
⎪
⎩
0
1
0
⎫
∞⎪
⎪
⎪
0 ⎪
⎪
⎪
⎬
0 ⎪
⎪
⎪
1 ⎪
⎪
⎪
⎭
Este nome: “Identidade” se deve ao fato de que, como veremos, todo “produto
matricial cruzado” (ainda por ser demonstrado) entre uma matriz genérica {K} e a
matriz identidade {I}, resulta sempre na própria matriz genérica {K}.
c) Matriz Diagonal {δ }:
Esta matriz é semelhante à Identidade, com a diferença de que os elementos da
diagonal principal podem possuir qualquer valor, e não somente 1; os outros elementos
também serão todos nulos. Ela é representada abaixo:
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎩
C ⎫
⎪
⎪
⎪
1 A1 0
0 ⎪
⎪
⎪
⎬
2 0 B2 0 ⎪
⎪
⎪
3 0
0 C3⎪
⎪
⎪
⎭
δ
A
B
Toda matriz diagonal pode ser obtida pelo “produto direto” (também ainda por
ser demonstrado) de uma matriz genérica {K} com o “coeficiente matricial
diagonalizador”, como ainda veremos...
d) Matriz Nula {0}
É a matriz na qual todos os seus elementos são nulos. Qualquer matriz genérica
{K}, se multiplicada pela matriz nula, resulta na própria matriz nula, e qualquer matriz
genérica, se somada à matriz nula resulta na própria matriz genérica. Deste modo, a
matriz nula deve ser considerada infinita, com todos os seus elementos iguais a 0.
e) Matriz Unidade {1}
É uma matriz cujo todos os seus elementos possuem o valor 1. A sua importância
está no fato de que o produto matricial direto (que também está ainda por se definir)
entre a matriz unidade {1} e qualquer matriz {K}, sempre resulta na própria matriz
{K}.
f) Matriz Triangular {Δ}
É uma matriz cujo numero de elementos não nulos de uma linha vai diminuindo
de um em um, linha por linha, até que restem apenas filas nulas, ou seja, se dividimos
em dois a matriz, pela sua diagonal, encontraremos que de um lado da diagonal só
haverá elementos não nulos, e de outro somente elementos nulos.
Na figura abaixo apresentamos uma Matriz Triangular do tipo superior-direita:
⎧
Δ4×4
⎪
⎪
⎪
⎪
1
⎪
⎪
⎪
⎪
⎨ 2
⎪
⎪
⎪
3
⎪
⎪
⎪
4
⎪
⎪
⎩
D ⎫
⎪
⎪
⎪
A1 B 1 C 1 D 1 ⎪
⎪
⎪
⎪
0 B2 C 2 D2 ⎪
⎬
⎪
⎪
0
0 C 3 D4 ⎪
⎪
⎪
0
0
0 D4 ⎪
⎪
⎪
⎭
A
B
C
g) Matriz Oposta {–M}
Seja {K} uma matriz qualquer, a sua Matriz Oposta {–M}, é a matriz que se
obtém invertendo-se o sinal de todos os elementos da matriz original, (que equivale a
multiplicar a matriz original por –1, como veremos).
h) Matriz Transposta {K}†
Seja uma matriz {K}, de i linhas e j colunas, a sua matriz Transposta, por
definição, será uma nova matriz onde transpõe-se as suas linhas pelas suas colunas. Ou
seja, a primeira linha da matriz original torna-se a primeira coluna da matriz
Transposta, a segunda linha torna-se a segunda coluna e assim por diante, mantendo a
ordem de seus elementos. Em suma, a matriz Transposta é uma matriz onde se inverte
os números i e j da matriz original. A figura abaixo representa a matriz Transposta de
uma matriz original:
⎧K
⎪
⎪
⎪
⎪
⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎫
C ⎪
⎪
⎪
K L M ⎪
⎬
⎪
⎪
N O P ⎪
⎪
⎪
⎭
A B
Matriz Original
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎩
K†
A
1
K
2
L
3
M
⎫
B ⎪
⎪
⎪
N ⎪
⎪
⎪
⎬
O ⎪
⎪
⎪
⎪
P ⎪
⎪
⎭
Matriz Transposta
A partir do conceito da matriz Transposta, podemos ainda classificar as matrizes
pela sua simetria; Dizemos que uma matriz é “simétrica” se a dada matriz for igual a
sua Transposta: {K} = {K}†, e dizemos que ela é “anti-simétrica” se a dada matriz for
igual a matriz Transposta-oposta: {K} = {–M}†.
i) Matriz Inversa {K}–1
Como foi dito, o produto cruzado de uma matriz qualquer {K} pela matriz
identidade {I} resulta na própria matriz {K}. Deste modo, por definição, a inversa de
uma matriz será uma matriz tal que o produto desta pela matriz original resulte na
matriz identidade. Com os conceitos apresentados até aqui, não temos como encontrar
a inversa de uma matriz, pois que não definimos ainda o produto matricial cruzado (que
difere do produto algébrico), nem o conceito de “determinante”, que também é
utilizado. Estes conceitos serão demonstrados no decorrer deste artigo, e quando chegar
o momento, mostrarei como encontrar a inversa de uma matriz. Por hora, basta saber
que nem todas matrizes podem ser inversíveis, como será demonstrado mais adiante,
apenas aquelas matrizes que não possuem determinante nulo é que podem ser
invertidas;
Através da inversa de uma matriz, podemos classificá-la como “ortogonal” se a
sua Transposta for igual a sua inversa: {K}† = {K}–1;
j) Matrizes Complexas
Uma matriz complexa é aquela cujos elementos são da forma (a + bi), onde a e b
são números reais e i é a unidade imaginária ( i = −1 ). Como será visto adiante pela
definição de soma matricial, uma matriz complexa pode ser obtida pela soma de uma
matriz real com uma matriz imaginaria (cujos elementos são múltiplos de i).
Com a definição de matriz complexa, podemos ainda definir a Matriz ComplexoConjugada {K}*, cujos elementos correspondentes são da forma (a – bi), os complexosconjugados da matriz original. Assim como uma matriz complexa pode ser obtida pela
soma de duas matrizes, uma real e outra imaginária, a matriz complexo-conjugada pode
ser obtida pela diferença matricial de uma matriz real e uma matriz imaginária (ou a
soma da real pela oposta da imaginária).
Com o mesmo raciocínio, definimos a matriz Transconjugada {K}*†, ou seja, a
Transposta da matriz complexo-conjugada (também chamada de “Matriz Adjunta”).
Por fim, dizemos que uma matriz é “Hermiteana” {H}, se ela possuir a propriedade de
ser igual a sua transconjugada, e que ela é unitária, se a sua transconjugada for igual a
sua inversa.
Assim, uma matriz Hermiteana possuirá uma forma semelhante à da matriz
abaixo:
⎧
⎪
H
⎪
⎪
⎪
⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎫
⎪
⎪
⎪
⎪
x
a − bi ⎬
⎪
⎪
a + bi
y ⎪
⎪
⎪
⎭
A
Onde x e y são números reais puros.
B
§ 4. OPERAÇÕES MATRICIAIS.
Antes de mostrar-lhes quais as principais operações que podemos fazer com
matrizes, é necessário definirmos a igualdade matricial: Duas matrizes {A} e {B}
somente serão iguais se e somente se, os seus respectivos elementos (aqueles que
possuem mesma posição ij em ambas matrizes) forem iguais.
Como foi dito anteriormente, neste artigo as matrizes serão consideradas de uma
forma geral, como “Matrizes Contínuas”, ou seja, que podem ser “ampliadas” com
através de suas filas ocultas, tal como foram definidas, sempre que desejarmos. Este
procedimento se mostrará muito útil, pois permitirá generalizar completamente o
cálculo matricial, pois que deste modo se tornará possível efetuarmos quaisquer uma das
operações matriciais com quaisquer matrizes, o que já não é possível quando
trabalhamos com matrizes fechadas.
As ambigüidades existentes no cálculo matricial do momento serão demonstradas
conforme o desenrolar do texto, e a superação destas pelo novo método também será
discutido.
Nota: Antes de efetuarmos qualquer operação matricial, devemos igualar as
ordens das matrizes, adicionando o necessário de filas ocultas.
a) Qualquer Operação Entre Um Número E Uma Matriz:
Efetua-se qualquer operação (seja ela a soma, diferença, produto, divisão, etc.) de
um número por uma matriz, por distributiva, ou seja, efetuando a operação do número
com todos os elementos da matriz. Abaixo temos um exemplo: um número x
multiplicando uma matriz {K}:
⎧
⎪
K
⎪
⎪
⎪
x ⋅ {K } ≡ x ⋅ ⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
A
K
M
⎧
⎪
⎪
B ⎫
x ⋅K
⎪
⎪
⎪
⎪
⎪ ⎪
L ⎬=⎨ 1
⎪
⎪
⎪
⎪
⎪
N ⎪ ⎪
2
⎪ ⎪
⎪
⎭
⎩
A
x ⋅K
x ⋅M
⎫
⎪
⎪
⎪
⎪
x ⋅L ⎬
⎪
⎪
x ⋅N ⎪
⎪
⎪
⎭
B
O produto de um número por uma matriz permite também que façamos o inverso,
ou seja, colocarmos um termo comum da matriz em evidência.
b) Soma E Diferença Matricial:
A soma de duas matrizes consiste em somar cada elemento da primeira matriz
com cada elemento correspondente na segunda matriz. Pelo cálculo matricial vigente, só
poderíamos efetuar a soma de duas matrizes se estas fossem de mesma ordem; Mas
quando se trabalha com matrizes continuas, fica claro que podemos somar quaisquer
matrizes. Mas observe, caro leitor, que com matrizes continuas, as filas ocultas não
devem ser somadas, pois tanto nas matrizes que se somam quanto na matriz resultante,
as filas ocultas devem continuar tendo somente os valores 1 ou 0.
Abaixo temos um exemplo de como se efetua a soma matricial:
⎧
⎪
K
⎪
⎪
⎪
{K } + {L } ≡ ⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎧
⎧
⎪
⎪
⎪
⎪
C ⎫
L A B C ⎫
K +L
A
B
C
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
K L M ⎬+⎨ 1 a b c ⎬ = ⎨ 1
K +a L +b M +c
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
⎪
⎪ 2
N O P ⎪
2 d e f ⎪
N +d O +e P + f
⎪
⎪
⎪
⎪ ⎩
⎪
⎪
⎪
⎭
⎭ ⎪
⎩
A B
⎫
⎪
⎪
⎪
⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎭
De modo análogo, a diferença de duas matrizes é efetuada calculando a diferença
de cada elemento da primeira matriz por cada elemento correspondente da segunda
matriz, ou também, se preferirem, a soma da primeira matriz pela oposta da segunda:
⎧
⎪
K
⎪
⎪
⎪
{K } − {L } ≡ ⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎧
⎧
⎪
⎪
⎪
⎪ K −L
C ⎫
L A B C ⎫
A
B
C
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
⎪
K L M ⎪
K −a L −b M −c
⎬−⎪
⎨ 1 a b c ⎪
⎬=⎪
⎨ 1
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
⎪
⎪ 2
N O P ⎪
2 d e f ⎪
N −d O −e P − f
⎪
⎪
⎪
⎪
⎪
⎪
⎭ ⎪
⎩
⎭ ⎪
⎩
A B
⎫
⎪
⎪
⎪
⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎭
Através destas definições de soma e diferença matricial, vemos claramente que
uma matriz complexa pode ser obtida pela soma de duas matrizes: uma real, outra
imaginária, e a complexa-conjugada, pela diferença destas.
c) Produto Matricial Direto
Esta operação matricial consiste em multiplicar cada elemento da primeira
matriz, por cada elemento correspondente na segunda matriz, analogamente à soma
matricial. Representaremos esta operação pelo símbolo “ i ”, a seguir temos um
exemplo:
⎧
⎪
K
⎪
⎪
⎪
{K } i {L } ≡ ⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎧
⎧
⎪
⎪
⎪
⎪
C ⎫
L A B C ⎫
K iL
A
B
C
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
K L M ⎬i⎨ 1 a b c ⎬ = ⎨ 1
K ⋅a L ⋅b M ⋅c
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
⎪
⎪ 2
N O P ⎪
2 d e f ⎪
N ⋅d O ⋅e P ⋅ f
⎪
⎪
⎪
⎪ ⎩
⎪
⎪
⎪
⎭
⎭ ⎪
⎩
A B
À operação inversa, chamaremos
representaremos pelo símbolo “÷”.
de
“divisão
matricial
direta”,
⎫
⎪
⎪
⎪
⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎭
e
a
A importância desta operação matricial, introduzida por mim neste artigo, está
na possibilidade de definir os “coeficientes matriciais”, também por mim introduzidos
(apesar de que já existem, de certa forma, mas não são tão explícitos como eu vou
defini-los aqui), pois tais coeficientes modificam os valores de uma matriz pelo produto
direto entre a matriz original e a matriz associada ao coeficiente em questão. Estes
coeficientes serão apresentados num capítulo em breve.
d) Produto Matricial Cruzado
O produto matricial cruzado, que representaremos pelo símbolo “ ×”, difere do
produto matricial direto. Seja o produto {K} × {L} = {R}; Um elemento Rij da matriz
resultante será obtido pela somatória dos produtos da linha i da matriz {K} pela coluna
j da matriz {L} de uma forma ordenada: o enésimo elemento da linha i da matriz {K}
sempre multiplica o enésimo elemento da coluna j da matriz {L}, assim obteremos uma
série de produtos dos elementos da linha de {K} pelos elementos respectivos da coluna
de {L}, o elemento Rij será a soma desses produtos. Assim por exemplo, o elemento R23
, da matriz resultante de {K} × {L} é obtido pela soma dos produtos dos elementos da
2ª linha da matriz {K}, pelos elementos da 3ª coluna da matriz {L}; o primeiro
elemento da linha 2 de {K} sempre multiplicará o primeiro elemento da coluna 3 de
{L}, o segundo elemento daquela linha de {K}, sempre multiplicará o segundo elemento
daquela coluna de {L}, e assim por diante.
Introduzi a denominação “produto cruzado” para distinguir do “produto direto”,
que não há no calculo matricial convencional. Este nome foi escolhido porque um
elemento Cij resultante deste produto é obtido como se a linha i de {A} cruzasse a
coluna j de {B}...
⎧
⎪
K
⎪
⎪
⎪
{K } × {L } ≡ ⎨ 1
⎪
⎪
⎪ 2
⎪
⎪
⎩
A
K
M
⎧
⎫
⎧
⎪
⎪
⎪
⎪
⎪
K ×L
A
B
B ⎫
L A B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
⎪ ⎪
⎪
⎪
⎪
⎪
⎪
⎪
L ⎬×⎨ 1 a b ⎬ = ⎨ 1
(K ⋅ a ) + (L ⋅ c ) (M ⋅ a ) + (N ⋅ c ) ⎬⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
N ⎪ ⎪ 2 c d ⎪ ⎪ 2
K
b
L
d
O
a
P
c
⋅
+
⋅
⋅
+
⋅
(
)
(
)
(
)
(
)
⎪
⎪ ⎩
⎪
⎪
⎭
⎭ ⎩
⎪
⎪
⎭
No exemplo acima, multiplicamos {K} por {L}; Seguindo o mesmo raciocínio,
vamos agora multiplicar {L} por {K}:
⎧
⎧
⎪
⎪
⎪
L A B ⎫
K
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
{L } × {K } ≡ ⎨ 1 a b ⎬ × ⎨ 1
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ 2
2
c
d
⎪
⎪
⎪
⎪ ⎪
⎪
⎩
⎭
⎩
A
K
M
⎧ L ×K
⎫
⎪
⎪
⎪
A
B
B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪ ⎪
⎪
L ⎬=⎨ 1
(a ⋅ K ) + (b ⋅ M ) (c ⋅ K ) + (d ⋅ M ) ⎬⎪
⎪
⎪
⎪ ⎪
⎪
⎪
⎪
⎪
N ⎪
⋅
+
⋅
⋅
+
⋅
2
a
L
b
N
c
L
d
N
(
)
(
)
(
)
(
)
⎪
⎪
⎪
⎪ ⎩
⎭
⎪
⎪
⎭
Observe que esse produto difere do anterior, ou seja: o produto cruzado de {K}
por {L} difere do produto cruzado de {L} por {K}, pois as duas matrizes resultantes
são diferentes. Isso significa que as produto matricial cruzado em geral não é
comutativo (mas pode ser em alguns casos), ou seja
“No cálculo matricial a ordem dos fatores altera o produto”.
A divisão matricial também pode ser realizada, lembrando que uma matriz {A}
dividida pela matriz {B} não passa do produto da primeira pelo inversa da segunda.
Mas aqui entra um fato curioso: devido a não comutatividade do produto matricial
cruzado podemos ter dois tipos de divisão: {A} × {B}–1 e {B}–1 × {A}, que resultam
em matrizes diferentes; logo a ordem em que escrevemos os fatores, no cálculo
matricial, é muito importante, e deve ser sempre mantido. Isso será melhor explicado
no capítulo seguinte...
Pelo cálculo matricial vigente, onde as matrizes são consideradas fechadas, só
podemos multiplicar uma matriz {K} por {L} se o número de colunas de {K} for igual
ao número de linhas de {L}, isso representa ao meu ver uma enorme ambigüidade, pois
que desta forma mesmo que o produto {K} × {L} seja possível, o produto {L} × {K}
nem sempre o é. Isso impede até mesmo que determinadas matrizes sejam inversíveis,
ou seja, que possa ser conhecida a sua inversa. Mas quando caracterizamos as matrizes
como contínuas, todas estas ambigüidades desaparecem: o produto cruzado pode ser
realizado com quaisquer matrizes, basta que a tornemos quadradas e igualemos as suas
ordens, revelando as filas ocultas necessárias para tal.
Deste modo, sempre é possível realizar os dois tipos de produto, ou seja a
reciprocidade da operação é sempre verdadeira. Assim, também sempre é possível obter
a inversa de uma matriz.
Por fim, gostaria de salientar que produto matricial cruzado fica mais fácil de se
realizar se transpormos uma das matrizes antes de realizarmos o cálculo, pois que assim
estaremos trabalhando somente com as linhas de {K} e {L}, ou somente com suas
colunas, dependendo de qual delas nós transpormos...
§ 5. COEFICIENTES MATRICIAIS
Vou definir o conceito de coeficiente matricial da seguinte forma: Consistem em
determinadas operações matriciais, explícitas pelo dado coeficiente, que modificam uma
determinada matriz de uma forma adequada. Muitos desses coeficientes matriciais
podem ser representados por matrizes especiais, que modificam uma matriz genérica
através do produto matricial direto. Estas operações também permitem que se
“recupere” apenas determinados elementos ou determinadas filas das matrizes, aqueles
que são relevantes, ignorando aqueles que não devem ser incluídos em determinada
operação matricial.
Uma vez conhecida a matriz que define o coeficiente, (caso o coeficiente seja
definido por uma matriz na qual vai multiplicar diretamente uma outra matriz
genérica), não precisamos escrevê-la sempre, basta escrevermos o símbolo do
coeficiente, que por sua vez já indicará a operação a ser efetuada. Por questão de
comodidade, neste artigo, os coeficientes matriciais serão representados por letras
gregas.
Abaixo estão descritos alguns dos coeficientes matriciais mais importantes.
Podemos introduzir coeficientes matriciais de diversas formas, apenas dando azas à
nossa imaginação, mas creio que tais coeficientes só devam ser demonstrados quando
houver necessidade de sua utilização, como talvez para simplificar alguma operação
matemática por exemplo...
a) Coeficiente Elementar (κIj):
É um coeficiente que indica a operação de se “relevar” apenas um elemento da
matriz {K}, (ou determinados elementos), ignorando os outros. Esta operação,
matematicamente, pode ser obtido pelo produto matricial direto entre a matriz {K} e
uma matriz específica que define este coeficiente, que deve indicar quais elementos
devem ser relevados dependendo se o calor do elemento é 1 ou 0, respectivamente.
b) Coeficiente Diagonalizador (δ):
É definido por uma matriz cujos elementos que possuem coordenadas iguais (i =
j) são todos iguais a 1, e os elementos restantes, aqueles cujas coordenadas são
diferentes (i ≠ j), são todos iguais a 0. Vemos assim, que a matriz associada à este
coeficiente é a própria Matriz Identidade. Este coeficiente permite transformar qualquer
matriz genérica {K} em uma matriz diagonal, através do produto direto delas.
c) Coeficiente De Permuta (π):
Uma das propriedades do coeficiente identidade é que ele possui apenas um
elemento não nulo em cada fila, e em especial iguais à 1; Esses elementos não nulos
estão nas posições em que i é igual a j. Considere agora uma outra matriz, que também
só possua um elemento não nulo em cada fila, também iguais à 1, mas que não estejam
necessariamente na mesma posição que estão no coeficiente identidade; Estas matrizes
definem um outro coeficiente matricial, que chamaremos de “Coeficiente de Permuta”,
pois que elas podem ser obtidas permutando-se as filas paralelas da matriz identidade.
Definimos também a Paridade de uma permutação: Caso o número de
permutações (trocas de filas) feitas a partir da matriz identidade para se obter uma
dada matriz permutada for par, esta matriz permutada deve ser considerada “positiva”,
assim como, se o número de permutações necessárias for ímpar, a dada matriz
permutada deve ser considerada “negativa”.
Quando a paridade da permutação tiver que ser levada em consideração, o seu
símbolo ganhará o sinal ± em sobrescrito, assim: ±π.
Este coeficiente matricial permite que encontremos todas as permutações possíveis
de se formar com n elementos de uma matriz de ordem n, sendo cada elemento situado
em uma fila distinta, através do produto direto de cada uma das matrizes de permuta
existentes pela matriz original. A sua importância está no cálculo dos determinantes,
que veremos mais adiante.
d) Coeficiente Paridade De Um Elemento (ρ):
É definido por uma matriz cujos elementos são iguais a 1 ou –1, dependendo
respectivamente se a posição deste elemento for par (i + j = par) ou se for ímpar:
(i + j = ímpar). Deste modo, a matriz associada ao coeficiente de paridade pode ser
representada abaixo:
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎩
C ⎫
⎪
⎪
⎪
1 1 −1 1 ⎪
⎪
⎪
⎬
2 −1 1 − 1 ⎪
⎪
⎪
3 1 −1 1 ⎪
⎪
⎪
⎭
ρ
A
B
Multiplicando-se uma matriz genérica {K} pelo
coeficiente de paridade, obtemos os valores dos
elementos
paridades...
levando-se
me
consideração
as
suas
Atenção: Não confundir “paridade de um elemento” com “paridade de uma
permutação”, pois apesar do objetivo de ambas ser à de diferenciar as operações pares
das ímpares, e inverter o sinal das operações ímpares, cada qual se refere a operações
diferentes.
e) Coeficiente De Filas (φF ):
Consiste em ignorar determinadas filas da matriz, ou o que dá no mesmo, relevar
apenas determinadas filas. Na sua representação, temos que indicar quais filas devemos
relevar, indicando o valor de j ou i; mas caso seja mais fácil representar as filas que
devam ser ignoradas, então as indicaremos estas filas por –j e –i. mais uma vez, a
matriz que define este coeficiente é tal que os elementos das filas a serem relevadas
possuem valor 1, e as filas que devem ser ignoradas, possuem valor 0.
f) Coeficiente Laplaciano (Λij):
O coeficiente Laplaciano (em homenagem a Laplace) relacionado a um elemento
kij é definido pela operação de se ignorar a linha e a coluna desse elemento. A sua
importância está no cálculo dos determinantes, mais especificamente no “teorema de
Laplace”, que será demonstrado quando chegar o momento oportuno.
§ 6. ÁLGEBRA MATRICIAL
Não podemos simplesmente dar uma definição de matrizes, se não estabelecermos
as regras gerais que estes objetos matemáticos obedecem. Este conjunto de regras é o
que chamamos de Álgebra Matricial, ela nos indica o que podemos fazer e o que não
podemos fazer com as matrizes em uma equação. A álgebra matricial difere da álgebra
comum principalmente pelo fato da não comutatividade do produto cruzado. Abaixo,
serão dadas algumas propriedades da álgebra matricial, sem, no entanto, dar-lhes sua
dedução (isso eu deixo a cargo do leitor):
a) Propriedades Da Matriz Transposta:
- A Transposta da Transposta de uma matriz é igual à própria matriz:
††
{A} = {A}
- A Transposta de uma soma matricial é igual à soma das respectivas matrizes
Transpostas:
†
†
{A + B } = {A} + {B }†
- A Transposta de um produto matricial direto é igual ao produto direto das respectivas
matrizes Transpostas, independentemente da ordem em que elas são escritas:
†
†
{A i B } = {A} i {B }†
- A Transposta de um produto matricial cruzado é igual ao produto da Transposta da
segunda matriz pela Transposta da primeira:
†
†
{A × B } = {B }† × {A}
b) Propriedades Da Matriz Inversa:
- A inversa de uma matriz é única, ou seja, para uma dada matriz, só há uma matriz
inversa.
- A Inversa da Inversa de uma matriz é igual à própria matriz:
−1 − 1
{A}
= {A}
- A Inversa de uma soma matricial é igual à soma das respectivas matrizes Inversas:
−1
−1
{A + B }
= {A}
−1
+ {B }
- A Inversa de um produto matricial direto é igual ao produto direto das respectivas
matrizes Inversas, independentemente da ordem em que elas são escritas:
−1
{A i B }
−1
= {A}
−1
i {B }
−1
= {B }
−1
i {A}
- A Inversa de um produto matricial cruzado é igual ao produto da Inversa da segunda
Matriz pela Inversa da primeira:
−1
{A × B }
−1
= {B }
−1
× {A}
c) Propriedades Da Adição Matricial:
Comutativa:
{A + B } = {B + A}
Associativa:
{A} + {B + C } = {A + B } + {C }
Existência da Matriz Nula:
{A} + {0} = {A}
Existência da Matriz Oposta:
{A} + {− A} = {0}
d) Propriedades Do Produto Matricial Direto:
Comutativa:
{A i B } = {B i A}
Associativa:
{A} i {B iC } = {A i B } i {C }
Distributiva:
{A} i {B + C } = {A i B } + {A iC }
{A} + {B iC } = {A + B } i {A + C }
Existência da Matriz Unidade:
{A} i {1} = {A}
Existência da Matriz Recíproca:
{A} i {1/ A} = {1}
e) Propriedades Do Produto Matricial Cruzado:
Não-Comutativa:
{A × B } ≠ {B × A}
Associativa:
{A} × {B ×C } = {A × B } × {C }
Distributiva:
{A} × {B + C } = {A × B } + {A ×C }
{A} + {B ×C } = {A + B } × {A + C }
Existência da Matriz Identidade:
{A} × {I } = {I } × {A} = {A}
Existência da Matriz Inversa:
{A} × {A}
−1
−1
= {A}
× {A} = {1}
Pelas propriedades acima vemos que, apesar do produto matricial cruzado não ser
em geral comutativo, a Matriz Identidade e a Matriz Inversa sempre comutam com
quaisquer outras matrizes.
§ 7. DESENVOLVIMENTO DE EQUAÇÕES MATRICIAIS:
A álgebra matricial também deve reger regras que permitam o desenvolvimento de
equações matriciais, ou seja, o modo pelo qual podemos achar o valor de uma matriz,
quando esta está contida dentro de uma equação matricial.
Seguindo as propriedades da Álgebra matricial, fica fácil perceber o que pode e o
que não pode se fazer em uma equação matricial.
Vamos supor que, nos exemplos abaixo, desejamos saber o valor de uma matriz
{X} em termos das matrizes {A} e {B}. Veremos como proceder em cada caso:
a) Equação do tipo {X } + {B } = {A} :
Basta que adicionemos em ambos membro da equação a matriz oposta {–B},
assim, através das propriedades da matriz oposta e da matriz nula, teremos finalmente:
{X } = {A} − {B }
Ou seja, podemos passar uma matriz de um lado a outro da equação simplesmente
invertendo o seu sinal.
b) Equação do tipo {X } i {B } = {A} :
Como o produto matricial direto é uma operação comutativa, podemos
simplesmente passar a matriz {B} para o outro lado da equação aplicando a operação
inversa, assim encontraremos simplesmente:
{X } = {A} ÷ {B }
c) Equação do tipo {X } × {B } = {A} :
Pela propriedade não comutativa do produto cruzado, temos que manter a ordem
dos fatores. Assim, para passar {B} para o outro lado da equação, devemos calcular a
sua matriz inversa {B}–1, e colocá-la à direita de {A}, uma vez que {B} se encontra à
direita de {X}. Assim teremos:
−1
{X } = {A} × {B }
Do mesmo modo, se quiséssemos encontrar o valor de {B}, teríamos:
−1
{B } = {X } × {A}
Há várias outras curiosidades no cálculo matricial, que surgem principalmente
pelo fato da não comutatividade das matrizes;
Assim, por exemplo, se na álgebra comum temos o Binômio de Newton:
2
(A + B ) = A2 + 2 AB + B 2 ,
este já não pode mais ser mantido na álgebra matricial. Encontraremos antes, no lugar
da expressão anterior algo como:
2
2
{A + B } = {A} + {A × B } + {B × A} + {B }2
Uma outra curiosidade é que, o produto cruzado de duas matrizes não nulas
{A}×{B}, pode resultar em uma matriz nula {0}. E ainda podemos ter a igualdade
matricial {A}×{B} = {A}×{C}, sem que {B} seja igual à {C}, logo, em geral não
podemos cancelar {A} nas duas equações!
Segunda Parte:
TEORIA DOS DETERMINANTES
§ 1. DEFINIÇÃO
O Determinante de uma Matriz {K} é um número ou uma função, associada a
essa matriz, segundo regras especificas. A importância desta operação matricial está no
fato de que ela permite uma maior generalização da álgebra matricial, e também a
resolução sistemas de equações lineares (um breve tópico sobre sistemas lineares é
apresentado nos apêndices deste artigo), bem como permite o cálculo da Inversa de uma
Matriz, além de ser utilizada em vários outros ramos da matemática.
A representação da determinante de uma matriz {K} é “det {K}”, ou simplesmente
|M|.
Pelo calculo matricial ordinário, na qual as matrizes são consideradas fechadas,
os matemáticos dizem que apenas matrizes quadradas possuem determinante, mas não
concordo com tal hipótese e a considero arbitrária. Pelo novo tratamento matemático
dado às matrizes nesta teoria, onde elas são consideradas contínuas, fica claro que
qualquer matriz retangular também possui determinante, que pode ser encontrada
quadradando a matriz com a adição de suas filas ocultas. A necessidade de rejeitarmos
tal hipótese, a de que somente matrizes quadradas possuem determinante, será
demonstrado de forma clara e definitiva mais adiante, por hora, aceitemos esta clara
generalização.
Matematicamente, pode-se definir o determinante de uma matriz {K}, de ordem
n, da seguinte forma:
“O determinante de uma matriz {K}, de ordem n, corresponde à
somatória de todos os termos τ possíveis de se formar com n elementos,
cada qual de uma fila f distinta, levando-se em conta a paridade de cada
termo; Onde cada termo é obtido pelo produto dos k elementos escolhidos.”
det {M } = ∑
±
τ
onde
τ = (k f 1 ⋅ k f 2 ⋅ …k fn
)
Seja ki=j (k11, k22, k33, ... knn) os k elementos da diagonal principal da matriz {K}.
Através do coeficiente de permuta ±π podemos obter outras tantas matrizes com k
elementos, sendo cada elemento situado em uma fila diferente. Calculando-se o produto
dos elementos de cada matriz obtida, encontraremos um determinado número de
termos, que por sua vez devem ser considerados positivos ou negativos, conforme a
paridade da permutação desenvolvida ao se obter tais matrizes pelo coeficiente de
permuta (esta paridade pode ser encontrada pelo número de permutações necessárias de
se fazer com as filas paralelas da matriz permutada para deixar os seus elementos em
diagonal). Deste modo, o determinante da matriz {K} corresponderá à somatória de
todos estes termos assim obtidos.
Também podemos encontrar tais termos através dos números i e j dos elementos:
fixando um dos índices e permutando-se de todas as maneiras possíveis o outro índice,
em relação aos elementos da diagonal principal ki=j (k11, k22, k33, ... knn). A paridade de
cada termo pode então ser encontrada pelo confronto da ordem desse índice permutado
com a ordem desse índice na diagonal principal: uma permutação de classe ímpar
sempre apresentará um número par de índices fora da posição fundamental, e uma
permutação de classe par sempre possuirá um número ímpar de elementos fora da sua
posição fundamental.
Observe que: como em uma matriz quadrada de ordem n há k = n elementos na
sua diagonal principal, cada termo que a somatória se estende, possuirá um número
igual de elementos (k), e pela teoria da análise combinatória, encontramos que o
número de permutações possíveis de se obter com um elemento de cada fila, é igual ao
fatorial do numero k. Metade desses k! termos serão considerados positivos e a outra
metade, negativos, por causa da paridade da permutação. Deste modo, uma matriz de
segunda ordem apresentará 2 termos com 2 elementos, uma matriz de terceira ordem
terá 6 termos com 3 elementos, a de quarta ordem, 24 termos com 4 elementos; sendo
sempre a metade destes termos pares e a outra metade ímpares, dependendo do número
de permutações necessárias para chegar a tal seqüência de elementos. Em virtude do
grande número de termos que se estende a somatória quando a matriz é de ordem alta,
o cálculo do seu determinante se torna muito trabalhoso. Por esse por este motivo
foram desenvolvidos métodos que simplificam o seu calculo; A seguir, demonstraremos o
cálculo dos determinantes através da definição acima, e por tais métodos simplificantes.
§ 2. CÁLCULO DE DETERMINANTES
DE PRIMEIRA ORDEM
Como uma matriz de primeira ordem só possui um elemento, não há o que se
permutar, logo o seu determinante é o próprio valor do elemento:
|K|1×1 = k
§ 3. CÁLCULO DE DETERMINANTES
DE SEGUNDA ORDEM
Considere a matriz {K}2×2 ao lado:
⎧
⎪
K 2×2
⎪
⎪
⎪
⎪
⎨ 1
⎪
⎪
⎪
2
⎪
⎪
⎩
⎪
B ⎫
⎪
⎪
⎪
A1 B 1 ⎪
⎬
⎪
⎪
A2 B 2 ⎪
⎪
⎪
⎭
A
Escolhendo-se um elemento de cada fila podemos formar dois termos: Uma
corresponde aos elementos da sua diagonal principal (A1, B2), e outra a da diagonal
secundária (B1, A2). A paridade do primeiro termo é positiva (pois se encontra na
diagonal principal), a paridade do segundo termo é negativa (pois é necessário fazer
uma permutação para colocar estes elementos na diagonal principal).
Assim, ao determinante |M| de uma matriz de segunda ordem, corresponde à
diferença entre o produto dos elementos da diagonal principal pelo produto dos
elementos da diagonal secundária.
M
2×2
= (A 1 ⋅ B 2) − (B 1 ⋅ A 2)
O mesmo resultado chegaríamos se fixássemos um dos índices i ou j e
permutássemos o outro. Por exemplo, na ordem em que escrevemos os elementos na
equação acima, mantemos fixo a ordem dos números i (1, 2) (1, 2) e permutamos as
letras j (A, B) (B, A)...
§ 4. CÁLCULO DE DETERMINANTES
DE TERCEIRA ORDEM
Da mesma forma, seja a matriz de terceira ordem dada abaixo:
⎧
K 3×3
⎪
⎪
⎪
⎪
1
⎪
⎪
⎨
⎪
2
⎪
⎪
⎪
⎪
3
⎪
⎩
C ⎫
⎪
⎪
⎪
A1 B 1 C 1 ⎪
⎪
⎪
⎬
A2 B 2 C 2 ⎪
⎪
⎪
⎪
A3 B 3 C 3 ⎪
⎪
⎭
A
B
Escolhendo-se um elemento de cada fila podemos formar 3! = 6 termos: Três
desses termos são formados apenas por uma permutação de suas filas paralelas, em
relação à diagonal principal, devem portanto ser considerados termos negativos; os
outros três, um é a própria diagonal principal, e os outros dois são formados por duas
permutações, logo devem ser considerados termos positivos.
Ao mesmo resultado obteríamos fixando por exemplo os números i (1, 2, 3), e
permutando-se as letra j (A, B, C). Lembrando que a classe da permutação pode ser
facilmente descoberta analisando quantos elementos não estão na sua posição correta,
em relação aos índices da diagonal principal, fica fácil descobrir a paridade de cada
termo.
Porém, se o prezado leitor achar difícil encontrar tais termos, podemos utilizar o
método do matemático Francês Sarrus (lê-se “Sarrí”), que é valido somente para
determinantes de terceira ordem: Copiamos as duas primeiras filas (linhas ou colunas)
da matriz original e colocamos-na como uma continuação da própria matriz, mantendo
sempre a ordem destas filas. Deste modo, a matriz ficará com três diagonais cujo
sentido é da esquerda para direita, que devem ser consideradas “diagonais positivas”, e
outras três diagonais cujo sentido é da direita para esquerda, que devem ser
consideradas “diagonais negativas”. O determinante pode então ser calculado
semelhantemente ao método utilizado para matrizes de segunda ordem, ou seja, pela
diferença entre as diagonais positivas pelas negativas.
O método de Sarrus é demonstrado abaixo:
⎧
K Sarrus
⎪
⎪
⎪
⎪
1
⎪
⎪
⎨
⎪
2
⎪
⎪
⎪
⎪
⎪ 3
⎩
B ⎫
⎪
⎪
⎪
A1 B 1 C 1 A1 B 1 ⎪
⎪
⎪
⎬
A2 B 2 C 2 A2 B 2 ⎪
⎪
⎪
⎪
A3 B 3 C 3 A3 B 3 ⎪
⎪
⎭
A
B
C
A
Diagonais Positivas
Diagonais Negativas
da = ( A1 ⋅ B2 ⋅ C3 )
dz = ( B1 ⋅ A2 ⋅ C3 )
db = ( B1 ⋅ C2 ⋅ A3 )
dy = ( A1 ⋅ C2 ⋅ B3 )
dc = ( C1 ⋅ A2 ⋅ B3 )
dx = ( C1 ⋅ B2 ⋅ A3 )
M = (da + db + dc ) − (dz + dy + dx )
§ 5. CÁLCULO DE DETERMINANTES
DE QUARTA ORDEM
Escolhendo-se um elemento de cada fila podemos formar 4! = 24 termos, 12 serão
termos positivos (pois que são necessários um número par de permutações de suas filas
para colocar os seus elementos na diagonal principal) e os outros 12, negativos (pois
que são necessários um número ímpar de permutações para colocar os seus elementos
na diagonal principal). Analogamente, se mantermos o índice j = (A, B, C, D) fixo, e
permutarmos o outro índice i = (1, 2, 3, 4) de todas as maneiras possíveis,
encontraremos os mesmos termos. Observe que não importa qual dos índices fixamos ou
permutamos. Tais termos possíveis de se obter estão descritos abaixo, já agrupados em
“termos positivos” e “termos negativos”:
Termos Positivos
A1,
A1,
A1,
A1,
A2,
A2,
A3,
A3,
A3,
A4,
A4,
A4,
B2,
B3,
B4,
B4,
B3,
B4,
B1,
B2,
B2,
B1,
B2,
B2,
C3,
C4,
C2,
C3,
C1,
C3,
C3,
C1,
C4,
C3,
C1,
C3,
D4
D2
D3
D2
D4
D1
D4
D4
D1
D2
D3
D1
Termos Negativos
A1,
A1,
A2,
A2,
A2,
A2,
A3,
A3,
A3,
A4,
A4,
A4,
B2,
B3,
B1,
B1,
B3,
B4,
B1,
B4,
B4,
B1,
B3,
B3,
C4,
C2,
C3,
C4,
C4,
C1,
C4,
C1,
C2,
C2,
C1,
C2,
D3
D4
D4
D3
D1
D3
D3
D2
D1
D3
D2
D1
Como se percebe, o método de Sarrus não pode ser válido para determinantes de
quarta ordem, pois que repetindo-se as primeiras três filas, encontraríamos apenas oito
diagonais, quatro positivas e quatro negativas, faltando ainda dezesseis termos à serem
encontrados...
§ 6. TEOREMA DE LAPLACE E DE CAUCHY
a) Teorema De Laplace
Também se nota que quanto maior for a ordem de uma matriz, mais trabalhoso se
torna o calculo de seu determinante. Para aliviar a situação, cada vez mais se procurou
métodos que facilitam o seu cálculo.
O mais conhecido é o Método do matemático e astrônomo francês Laplace. Mas
antes de aplicarmos o método de Laplace, devemos definir o conceito de “menor
complementar” (que chamaremos aqui, se Laplace não se importar, de determinantemenor), que consiste no seguinte:
- Determinante-Menor:
O determinante-menor associado a um elemento kij de uma matriz {K} é a
determinante que se obtém desta matriz quando se ignora a linha e a coluna que se este
elemento se encontra, ou seja, o produto entre o coeficiente Laplaciano Λij pela matriz
{K}.
A esta nova matriz formada chamaremos de matriz complementar ao elemento
kij, ou matriz-menor desse elemento. Assim, para cada elemento da matriz {K} temos
associado um determinante-menor. Por comodidade, representaremos o determinantemenor de um elemento através de “brackets” à la Dirac, assim: kij . A figura abaixo
demonstra a matriz-menor associada ao elemento k22 da matriz original {K}:
MATRIZ ORIGINAL
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩
K
A
1
A1 B 1 C 1
2
A2 B 2 C 2
3
A3 B 3 C 3
4
A4 B 4 C 4
B
C
D ⎫
⎪
⎪
⎪
D1 ⎪
⎪
⎪
⎪
D2 ⎪
⎬
⎪
⎪
D3 ⎪
⎪
⎪
⎪
D4 ⎪
⎪
⎭
MATRIZ OMPLEMENTAR
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎩
κB 2
1
3
4
⎫
D ⎪
⎪
⎪
A1 C 1 D 1 ⎪
⎪
⎪
⎬
A3 C 3 D 3 ⎪
⎪
⎪
⎪
A4 C 4 D 4 ⎪
⎪
⎭
A
C
Uma vez feito essa definição, podemos enunciar o teorema de Laplace da seguinte
forma:
“O determinante de uma matriz {K}, é igual à somatória dos produtos
existentes entre todos os elementos de uma mesma fila f, levando-se em
conta a sua paridade, pelos seus respectivos determinantes-menores”.
K = ∑ ±kf ⋅ kf
Ou seja: Calculamos o determinante-menor de todos elementos de uma dada fila;
multipliquemos cada qual pelo valor de sua paridade (1 se for par, –1 se for ímpar); A
determinante da matriz {K} será igual a soma desses termos assim obtidos. Assim, se
por exemplo em uma matriz {K}, de quarta ordem, escolhêssemos a terceira linha para
a somatória, teríamos a seguinte expressão para o calculo de det {K}:
K 4×4 = (k 31 ⋅ k 31
) + (− k32
⋅ k 32
) + (k33
⋅ k 33
) + (− k 34
⋅ k 34
Observe que o método de Laplace diminui em 1 ordem o cálculo do determinante.
b) Teorema De Cauchy
Um outro importante teorema, semelhante ao teorema de Laplace, é o teorema de
Cauchy, que pode assim ser enunciado:
“A somatória dos produtos existentes entre todos elementos de uma fila r,
levando-se em conta a sua paridade, pelos determinantes-menores associados
aos elementos de uma outra fila paralela s, é nulo”.
∑
±
kr ⋅ ks = 0
Assim, se no exemplo anterior somássemos todos os produtos entre os elementos
da terceira linha, pelos determinantes-menores associados aos elementos da primeira
linha teríamos como resultado um valor nulo:
(k31 ⋅
k11
) + (− k32
⋅ k12
) + (k33
⋅ k13
) + (− k34
⋅ k14
)= 0
§ 7. SOBRE AS DIFICULDADES EXISTENTES PARA SE
CÁLCULAR DETERMINANTES CUJA ORDEM É
SUPERIOR À QUARTA.
O método de Laplace diminui em uma unidade a ordem de uma matriz. Ele é
valido para matrizes de qualquer ordem; como já sabemos de antemão encontrar o
determinante de uma matriz de terceira ordem, devido o método de Sarrus, fica fácil o
cálculo de um determinante de quarta ordem;
Mas se quisermos encontrar o determinante de uma matriz de ordem superior à
quarta, aí o bicho pega... Pelo método da somatória das permutações possíveis,
encontraríamos para uma matriz de quinta ordem, 5! = 120 termos de 5 elementos
cada, logo este método não é lá muito viável. O método de Laplace reduziria o cálculo à
cinco determinantes-menores, mas 5 ⋅ 24 resulta também em 120 termos, logo o método
de Laplace também não é muito viável.
Assim, foi necessário desenvolver métodos que reduzam a ordem dos
determinantes de forma mais direta, encontrou-se tais métodos analisando a álgebra dos
determinantes, ou seja, os seus teoremas e propriedades. É o que será mostrado no
próximo capitulo.
)
§ 8. TEOREMAS E PROPRIEDADES
DOS DETERMINANTES
1 – Se uma matriz possui uma fila nula, então o deu determinante é nulo.
2 – Se uma matriz possui duas filas paralelas idênticas ou proporcionais,
então o seu determinante é nulo.
3 – Se uma fila de uma matriz é o resultado da soma de outras filas
paralelas, podendo estas ser multiplicadas cada qual por uma constante,
então o seu determinante é nulo.
Dizemos que a fila supra é uma combinação linear das outras. Como por exemplo,
temos a matriz abaixo, onde a fila C é igual a soma das filas A e B, respectivamente
multiplicadas por α e β:
⎧
K
⎪
⎪
⎪
⎪1
⎪
⎪
⎨
⎪2
⎪
⎪
⎪3
⎪
⎪
⎩
A B
a
b
c
d
e
f
⎫
⎪
⎪
⎪
α ⋅ a + β ⋅ b ⎪⎪
⎪
⎬
α ⋅ c + β ⋅ d ⎪⎪
⎪
α ⋅ e + β ⋅ f ⎪⎪⎪
⎭
C
det {K } = 0
4 – O Determinante da matriz Transposta é igual a da matriz original
det {K}† = det {K}
De fato, a transposição de uma matriz preserva a paridade de seus termos.
5 – Adicionando-se a uma fila, o valor de outra fila paralela, podendo esta
ultima ser multiplicada por uma constante, formaremos uma nova matriz
cujo Determinante é o mesmo da anterior. (Teorema de Jacobi).
Assim, por exemplo, dada a matriz {K}, vamos adicionar à sua coluna C, os
elemento da primeira coluna A multiplicados por α, obtendo assim, a matriz {L}:
⎧
K
⎪
⎪
⎪
⎪
1
⎪
⎪
⎨
⎪2
⎪
⎪
⎪3
⎪
⎪
⎩
A B C⎫
⎪
⎪
⎪
a b c⎪
⎪
⎪
⎬
⎪
d e f⎪
⎪
⎪
g h i⎪
⎪
⎭
→
⎧
⎫
L A B
C
⎪
⎪
⎪
⎪
⎪
⎪
⎪
1 a b c + α ⋅a⎪
⎪
⎪
⎪
⎪
⎨
⎬
⎪2 d e f + α ⋅ d ⎪
⎪
⎪
⎪
⎪
⎪3 g h i + α ⋅ g ⎪
⎪
⎪
⎪
⎪
⎩
⎭
det {K } = det {L }
6 – Permutando-se n vezes as filas de uma matriz, o Determinante não se
altera caso n seja par, mas troca de sinal caso n seja ímpar.
Isto é evidente, pois que ao permutarmos duas filas de uma matriz, inverteremos a
sua paridade; permutando-as novamente, novamente inveteremos a paridade, o que
restabelece à paridade anterior...
7 – Se uma fila de uma matriz for multiplicado por uma constante, então o
Determinante desta matriz ficará também multiplicado por esta constante:
Assim, lembrando que dividir um número por uma constante (diferente de zero)
equivale a multiplicar este número pelo inverso da constante (n/k = n⋅k–1 = k–1⋅n),
podemos colocar em evidência um termo comum a todos os elementos de uma mesma
fila...
8 – O Produto dos Determinantes das matrizes {K} e {L} ... {N} é igual ao
determinante da matriz {K × L × ... N}, ou seja, igual ao determinante da
matriz resultante do produto cruzado delas, independente da ordem em que
o produto é realizado. (Teorema de Binet).
det {K} ⋅ det {L} ⋅ ... det {N} = det {M × L × ... N}
Assim percebemos que o produto de determinantes é equivalente ao produto
matricial cruzado. Assim, chegamos a uma justificativa do porquê do produto matricial
ser definido desta forma tão incomum...
Mas observe, caro leitor, que em geral o produto matricial cruzado não é
comutativo, porém, o produto de dois determinantes sempre comutam, isto se torna
claro pois que o determinante de uma matriz resulta em um número, e o produto
numérico é sempre comutativo.
9 – O Determinante de uma matriz {K + L} corresponde à somatória das
determinantes de todas matrizes possíveis de se formar com {K} e {L},
preservando a posição de suas filas.
Assim, por exemplo, seja a matriz {K} uma matriz de terceira ordem, cujas três
filas paralelas são A, B, C; associados respectivamente ao número f (1, 2, 3) que
determina a posição da fila; E seja {L} outra matriz, também de terceira ordem, cujas
três filas paralelas são respectivamente D, E, F, associadas respectivamente ao mesmo
número f (1, 2, 3). Preservando a posição f (1, 2, 3) das filas, poderemos formar as
seguintes matrizes com as colunas A, B, C, D, E e F:
(ABC), (ABF), (AEC), (DBC), (AEF), (DBF), (DEC), (DEF).
Observe que cada matriz possui filas cujo número f é (1, 2, 3). Combinações do
tipo (ABE) que corresponde à f ≡ (1, 2, 2) devem ser descartadas.
Então, a determinante da matriz {K + L}, será igual a soma das determinantes
de todas estas matrizes que se podem formar com as filas paralelas de {K} e {L}, que
preservam a posição f. No caso do exemplo em que as matrizes são de terceira ordem,
podemos formar 8 matrizes; para matrizes de segunda ordem poderíamos formar 4
matrizes, para matrizes de quarta ordem, seriam possíveis 16 matrizes, ou seja, para
uma matriz de ordem n, podemos formar 2n matrizes...
E é claro que o teorema também é valido para a soma de um número maior de
matrizes, através de todas as combinações possíveis de se formar com as suas filas,
preservando o seu numero f = (1, 2, 3, ..., n).
Este teorema foi por min desenvolvido, porém, em geral é mais fácil executar a
soma matricial do que este método, mas talvez, em algum caso ele seja útil, e não
obstante a isso, é um teorema interessante...
10 – O Determinante de uma matriz triangular é igual ao produto dos
elementos de sua diagonal, levando-se em conta se esta diagonal é
“positiva” ou “negativa”.
Logo, o determinante de uma matriz triangular é igual ao determinante de uma
matriz diagonal cujos elementos dessa diagonal sejam os mesmos, notando que, o
produto deve ser considerado positivo se a diagonal não nula for a diagonal principal, e
negativo caso seja a diagonal secundária.
11 – Se existisse uma matriz de ordem zero, o seu determinante seria a
unidade.
Percebe-se este fato pelos seguintes raciocínios: a) Em uma matriz diagonal de
ordem n cujos elementos não nulos sejam todos iguais a k, o determinante será dado
por kn, assim se a ordem da matriz for nula, o seu valor será 1; b) Um número fatorial
f! pode ser representado por uma determinante diagonal de ordem f, onde os elementos
diminuem de f à 1 de uma em uma unidade. O Sabendo-se que o fatorial 0! é igual a 1,
a determinante de uma matriz de ordem nula também deve ter este valor... Por
raciocínios análogos, chegaríamos ao mesmo resultado, o que indica a veracidade desta
propriedade.
§ 9. MÉTODOS PARA A SIMPLIFICAÇÃO DO
CÁLCULO DE DETERMINANTES
Através dos teoremas cinco e seis, apresentados no capítulo anterior, podemos
reduzir qualquer determinante a um determinante de terceira ordem, permitindo o seu
cálculo de forma mais conveniente.
O método consiste no seguinte: Tornar um dos elementos de uma fila igual a um e
os restantes iguais a zero; Desenvolvendo então o método de Laplace por esta fila,
conseguiremos reduzir a ordem da matriz em uma unidade; repetindo o processo
chegaremos finalmente ao valor do seu determinante.
A forma como se procede este desenvolvimento é a seguinte:
1º passo: Escolhe-se por conveniência um elemento krs de determinada fila que
seja igual a 1 (caso não haja tal elemento, coloquemos em evidência um termo comum a
uma das filas, dividindo os elementos desta fila pelo termo comum, de tal forma que
possa permitir que o elemento se torne igual a 1). Fixa-se a sua linha r e sua coluna s.
Aos elementos da linha fixada chamaremos de rn, onde n representa a posição do
elemento na coluna (se é o primeiro elemento da coluna, ou o segundo, etc), e aos
elementos pertencentes à coluna fixada chamaremos analogamente de sn.
2º Passo: Multiplica-se os elementos sn da coluna s pelos elementos rn da linha r,
por distributiva, e inverte-se o sinal do produto obtido.
3º passo: Adiciona-se os valores encontrados respectivamente ao elemento cuja
posição seja Kij, onde i = sn e j = rn; ou seja, ao elemento cujas filas “cruzam” com os
outros dois elementos das filas fixadas (e que não é o próprio elemento fixado Krs).
4º Passo: Estendendo esta operação a todos os elementos, conseguimos fazer
com que os elementos das filas fixadas se tornem nulos, com exceção do elemento fixado
que será igual a 1, então, pelo teorema de Laplace, vemos que agora podemos anular
estas filas fixadas, tornando o determinante uma ordem menor, repetindo-se o processo,
chega-se ao determinante da matriz.
§ 10. CÁLCULO DA INVERSA DE UMA MATRIZ
Estando ciente do conceito de determinante, é possível demonstrar agora como
podemos encontrar a inversa de uma matriz:
Seja k um elemento da matriz {K}, cuja posição é ij. Definiremos o “elemento
transposto” à k, que indicaremos por k†, ao elemento desta matriz cujas coordenadas
sejam ji, ou o mesmo, ao elemento que possui a mesma posição ij na matriz Transposta
{K}† (por exemplo, o elemento transposto à k23 é o elemento k32). Vamos definir também
o “elemento inverso” à k, que representaremos por k–1, ao elemento que possui mesma
posição ij na matriz inversa {K}–1.
Assim, por definição, o elemento inverso à k, ou seja k–1, será obtido pelo
quociente entre o determinante-menor do elemento transposto à k, ou seja k † ,
(levando-se a sua paridade em consideração), pelo determinante de {K}. Colocando isso
tudo em linguagem matemática, teremos:
±
k −1 =
k†
K
É interessante notar a importância da introdução do conceito de “matrizes
contínuas” para a álgebra matricial, pois que esta modificação permite que encontremos
a inversa de uma matriz retangular. Os matemáticos atuais dizem que não existe tal
matriz, eles são levados a esta conclusão pela hipótese de que somente matrizes
quadradas possuem determinante, porem, eu considero tal hipótese arbitrária. Pois se o
produto cruzado das matrizes {A} e {B} geram uma matriz {C}, qualquer uma das duas
primeiras matrizes pode ser explicitada se encontrarmos a sua inversa, assim, torna-se
necessário que tais matrizes tenham inversas mesmo sendo retangulares, uma vez que,
mesmo considerando as matrizes {A} e {B} como fechadas, podemos efetuar o produto
da primeira pela segunda se as colunas de {B} forem iguais às linhas de {A},
resultando numa matriz {C}, o que indica que a operação inversa tem de ser possível...
Hora, toda operação matemática deve permitir a operação inversa: para soma
temos a subtração, para a multiplicação, a divisão, para a potência, a radiciação, etc...
Pois creio que se em alguma ocasião isso não seja possível, então, a matemática que lhe
diz respeito estará incompleta. Desta forma, é natural que o cálculo matricial vigente
estivesse incompleto, mas esta ambigüidade pôde ser superada pela introdução do
conceito de matrizes continuas. Isso permitiu a reciprocidade das operações matriciais,
no que diz respeito ao produto matricial cruzado.
Assim, vemos que uma matriz só não possuirá inversa, se a sua determinante for
nula, pois que isso seria o “análogo matricial” da divisão por zero. Tanto matrizes
quadradas com retangulares podem possuir inversa, para o seu cálculo basta
“quadradar” estas ultimas revelando as suas filas ocultas...
***
Terceira Parte:
NOVO MÉTODO PARA A REDUÇÃO
DE DETERMINANTES
Autor: Ricardo Soares Vieira
§ 1. NOVO MÉTODO DE REDUÇÃO APLICADO À
DETERMINANTES DE TERCEIRA ORDEM
O método que agora vou descrever foi por mim descoberto quase que por
brincadeira, quando ainda estudante do colegial; Não tinha conhecimento da definição
clássica de determinantes, nem de suas propriedades, nem mesmo de qualquer método
que permitisse a sua redução.
O que sabia na época era apenas calcular determinantes de segunda ordem, e de
terceira pelo método de Sarrus, nada mais.
Em certo momento, percebi que uma matriz de terceira ordem possuía quatro comatrizes de segunda ordem, e então me ocorreu a idéia de calcular esses quatro “codeterminantes”, e formar assim uma nova matriz, reduzida em uma ordem, e me
perguntei se a determinante desta “matriz reduzida” não correspondia ao determinante
da matriz original.
No primeiro momento não obtive qualquer sucesso, o resultado não era o correto,
mas analisando o problema com um pouco mais de atenção, percebi que ao dividir o
resultado dessas operações pelo elemento central da matriz (B2 ou se preferir k22), o
valor encontrado era exatamente o determinante da matriz original, pude me certificar
disso várias vezes pelo método de Sarrus.
O que disse acima consiste exatamente no seguinte:
Seja a matriz de terceira ordem abaixo:
⎧
K 3×3
⎪
⎪
⎪
⎪
1
⎪
⎪
⎨
⎪
2
⎪
⎪
⎪
⎪
⎪ 3
⎩
C ⎫
⎪
⎪
⎪
A1 B 1 C 1 ⎪
⎪
⎪
⎬
A2 B 2 C 2 ⎪
⎪
⎪
⎪
A3 B 3 C 3 ⎪
⎪
⎭
A
B
Podemos perceber a existência de quatro co-matrizes intercaladas na matriz
original, que são respectivamente as demonstradas abaixo:
⎧
⎪
⎪
I A B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 A1 B 1 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
2 A2 B 2 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
II B C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 B1 C 1 ⎬
⎪
⎪
⎪
⎪
⎪
2 B2 C 2 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧ III A B ⎪
⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 A2 B 2 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
3 A3 B 3 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
IV B C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 B2 C 2 ⎬
⎪
⎪
⎪
⎪
⎪
3 B3 C 3 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
Calculando-se os quatros co-determinantes (ou seja, o determinante das comatrizes, e que será representado aqui por uma dupla barra: ||K||), teremos quatro
novos elementos que, se mantermos uma devida ordem, poderemos formar uma nova
matriz, reduzida à segunda ordem, que é a seguinte:
⎧ K'
⎪
⎪
⎪
⎪
⎪
⎨ 2'
⎪
⎪
⎪
3'
⎪
⎪
⎩
A'
I
III
⎫
B' ⎪
⎪
⎪
⎪
II ⎪
⎬
⎪
⎪
IV ⎪
⎪
⎪
⎭
Calculando então o determinante desta matriz-reduzida, e dividindo o resultado
pelo elemento central da matriz original (que denominei de “determinador ∂”)
encontraremos o determinante da matriz original!
A divisão pelo determinador (suposto diferente de zero), de certo modo é obvia,
pois que este elemento participa de todas operações (está presente em todas comatrizes). Assim, posso definir o meu método da seguinte forma:
“O determinante de uma matriz de terceira ordem é igual ao seu
determinante-reduzido dividido pelo seu determinador ∂ ”.
Este método é bastante simples, mas se ele é ou não mais fácil que o método de
Sarrus (que também é muito criativo a meu ver), creio que dependerá muito de cada
situação, mas o interessante realmente é que agora poderemos escolher qual método
utilizar, conforme acharmos mais conveniente naquele momento...
§ 2. GENERALIZAÇÃO DO MÉTODO DESENVOLVIDO
NO CAPÍTULO ANTERIOR
O método descrito no capítulo anterior está exatamente do modo que o descobri
originalmente. Em princípio, pensei que ele era válido para quaisquer determinantes,
independente de sua ordem; Em uma matriz de quarta ordem, poderia calcular os seus
nove co-determinantes, formando assim uma matriz-reduzida de terceira ordem, e
depois repetir o processo do capitulo anterior; em uma matriz de quinta ordem,
calcularia os dezesseis co-determinantes, encontrando assim uma matriz de quarta
ordem, depois, reduziria a de uma terceira, e finalmente a um determinante de segunda
ordem. Neste momento pensei que deveria dividir o resultado por todos elementos
centrais das matrizes de ordem ímpar (a esta conclusão eu tinha chegado por vários
motivos)...
Mas quando obtive conhecimentos do método de Laplace, pude verificar que tais
operações não conduziam ao resultado correto para matrizes de ordem maior que a
terceira. Este método só é válido para “matrizes diagonais em bloco”, ou seja, aquelas
matrizes nas quais, ao reparti-la em co-matrizes de determinada ordem, somente não
são nulas as co-matrizes que estão em diagonal.
Era necessário então ou um abandono de tal método, ou uma generalização dele.
Optei pela segunda hipótese. Consegui chegar a esta generalização através do seguinte
raciocínio: à priori, me perguntei: “Porque o determinador deveria ser o elemento
central da matriz original?”. No caso de uma matriz de terceira ordem até podia-se ter
argumentos, mas não era o caso das matrizes de ordem superiores; Do mesmo modo,
não seria possível escolher outro elemento para ser o determinador da matriz?
Foi então aceitando tal hipótese que consegui finalmente chegar a sua
generalização: Podemos escolher qualquer elemento da matriz de terceira ordem para
ser o seu determinador, contanto que se fixe a sua linha e a sua coluna. Podermos
formar quatro co-matrizes cujos elementos sejam respectivamente o determinador
escolhido, ao seu lado um elemento de sua linha, acima (ou abaixo) um elemento de sua
coluna, e na sua diagonal um outro elemento que cruza com os dois anteriores, que
definirá a posição dessa co-matriz.
Na figura abaixo demonstro quais são as co-matrizes quando se escolhe o elemento
K12 (ou se preferir A2) da matriz original {K} para ser o seu determinador ∂:
Matriz Original
⎧
K 3×3
⎪
⎪
⎪
⎪
1
⎪
⎪
⎨
⎪
2
⎪
⎪
⎪
⎪
⎪ 3
⎩
C ⎫
⎪
⎪
⎪
A1 B 1 C 1 ⎪
⎪
⎪
⎬
A2 B 2 C 2 ⎪
⎪
⎪
⎪
A3 B 3 C 3 ⎪
⎪
⎭
A
B
Co-Matrizes Do Determinador A2
⎧
⎪
⎪
I A
B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 A1 B 1 ⎬
⎪
⎪
⎪
⎪
⎪
⎪
2
B
2
A
2
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
II A C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 A1 C 1 ⎬
⎪
⎪
⎪
⎪
⎪
⎪
2
C
2
A
2
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
III A
B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 A2 B 2 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
3 A3 B 3 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
IV B
C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 A2 C 2 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
3 A3 C 3 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
Calculando-se estes quatro co-determinantes, encontraremos a matriz reduzida:
Calculando esse determinante-reduzido, e dividindo o resultado encontrado pelo
valor de seu determinador ∂, encontraremos finalmente o valor do determinante da
matriz original.
⎧ K'
⎪
⎪
⎪
⎪
⎪
⎨ 2'
⎪
⎪
⎪
3'
⎪
⎪
⎩
⎫
B' ⎪
⎪
⎪
⎪
II ⎪
⎬
⎪
⎪
IV ⎪
⎪
⎪
⎭
A'
I
III
Observe que se escolhermos o elemento B2 para ser o determinador,
imediatamente caímos no método utilizado no capitulo anterior, que é um pouco mais
simples...
§ 3. NOVO MÉTODO DE REDUÇÃO APLICADO À
DETERMINANTES DE ORDEM
SUPERIOR À TERCEIRA
A generalização acima permite a aplicação deste método aos determinantes de
ordem superior que a terceira, porém, nesses casos, o determinador que vai dividir o
último determinante-reduzido corresponderá aos produtos de todos elementos escolhidos
para desenvolver o método, em cada matriz de ordem superior à segunda, elevados
respectivamente à n – 2, sendo n a ordem da matriz do respectivo elemento escolhido.
Ou seja, o determinador agora será definido como:
0
1
2
n −2
∂ = (∂2 ) ⋅ (∂ 3 ) ⋅ (∂ 4 ) ⋅ …(∂n )
O primeiro ∂ é sempre igual a 1, e pode ser desprezado, e devemos lembrar que
matrizes de primeira ordem não possuem determinador, pois não há como formar codeterminantes com estas matrizes...
Abaixo temos um exemplo que talvez ajude a compreender o que foi demonstrado
neste capítulo: Seja um determinante de quarta ordem, escolhendo um elemento e
fixando suas filas, podemos encontrar nove co-determinantes. Que seja escolhido o
elemento B2 (K31):
Matriz Original
⎧
K 4×4
⎪
⎪
⎪
⎪
1
⎪
⎪
⎪
⎪ 2
⎨
⎪
⎪
⎪
3
⎪
⎪
⎪
⎪
⎪ 4
⎩
A
B
A1
B1 C 1
C
A2 B 2 C 2
A3 B 3 C 3
A4 B 4 C 4
D ⎫
⎪
⎪
⎪
D1 ⎪
⎪
⎪
⎪
D2 ⎪
⎬
⎪
⎪
D3 ⎪
⎪
⎪
⎪
D4 ⎪
⎪
⎭
Co-Matrizes do Elemento B2:
⎧ I A
⎫
⎪
B ⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 A1 B 1 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎪
B
2
2
A
2
⎪
⎪
⎪
⎪
⎩
⎭
⎧ II B
⎫
⎪
C ⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 B1 C 1 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎪
2
C
2
B
2
⎪
⎪
⎪
⎪
⎩
⎭
⎧ III B
⎫
⎪
D ⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 B1 D1 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎪
2
D
2
B
2
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
IV A
B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 A2 B 2 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
⎪
3
A
3
B
3
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
V B
C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 1 B2 C 2 ⎬
⎪
⎪
⎪
⎪
⎪
⎪
3
B
3
C
3
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
VI B
D ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 B2 D2 ⎬
⎪
⎪
⎪
⎪
⎪
⎪
3
B
3
D
3
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
VII A
B ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 A2 B 2 ⎪
⎬
⎪
⎪
⎪
⎪
⎪
4 A4 B 4 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
VIII B
C ⎫
⎪
⎪
⎪
⎪
⎪
⎪
B2 C 2 ⎬
⎨ 1
⎪
⎪
⎪
⎪
⎪
4
B4 C 4 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
⎧
⎪
⎪
IX B
D ⎫
⎪
⎪
⎪
⎪
⎪
⎪
⎨ 2 B2 D2 ⎬
⎪
⎪
⎪
⎪
⎪
4 B4 D4 ⎪
⎪
⎪
⎪
⎪
⎩
⎭
Calculando estes nove co-determinantes, encontraremos o seguinte determinantereduzido primeiro:
⎧
⎪
⎪
⎪
⎪
⎪
⎪
⎨
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎩
K'
A'
B'
1'
I
II
2'
IV
V
3'
VII
VIII
⎫
C' ⎪
⎪
⎪
III ⎪
⎪
⎪
⎬
VI ⎪
⎪
⎪
⎪
IX ⎪
⎪
⎪
⎭
Caímos assim em um determinante de terceira ordem; e repetindo-se o processo,
escolhendo por exemplo o elemento k’22 desta matriz, o reduziremos a um determinante
de segunda ordem, por fim, calculando-se este determinante-reduzido segundo, basta que
dividimos o resultado pelo determinador, tal qual definido neste capítulo para
encontrarmos o determinante da matriz original.
O determinador, neste exemplo, que escolhemos os elementos ∂4 = k32 (da matriz
de ordem n = 4) e ∂3 = k’22 (da matriz de ordem n =3), será obtido por:
2
1
∂ = ⋅ (∂ 4 ) ⋅ (∂ 3 )
***
CONCLUSÃO:
Espero que o trabalho que demonstrei aqui tenha contribuído para facilitar a
compreensão da teoria das matrizes e determinantes, e que tenha contribuído também
para a sua generalização.
Poderia neste texto partir direto ao assunto em questão, ou seja, as modificações
necessárias, mas preferi como de costume, começar desde o início do estudo das
matrizes, para permitir à quem nunca tenha ouvido falar nelas, que pudesse entender o
seu significado e assim acompanhar o desenrolar do texto.
Quero lembrar que matrizes e determinantes são muito utilizadas em várias áreas
do conhecimento: Na física podemos citar a famosa “Mecânica das Matrizes” de
Heisenberg, bem como o cálculo vetorial, no qual podemos representar as coordenadas
dos vetores por matrizes, e assim, executar mais facilmente as operações vetoriais; Na
matemática, podemos citar a álgebra linear e a resolução de sistemas lineares, além de
varias outras; Por fim, matrizes e determinantes são utilizadas em muitas outras áreas
do conhecimento humano, como a informática, eletrônica, engenharia, etc...
Há muito ainda que se generalizar na matemática, bem como nos outros ramos do
conhecimento humano, temos sempre que tentar simplificar as coisas, seja através de
um novo tipo de cálculo, método, diagrama, ou mesmo por uma nova representação dos
objetos em questão. Assim, espero que este artigo sirva-lhes de inspiração, e que o
façam perder o medo de modificar a coisas, sempre em busca da simplicidade.
Ricardo Soares Vieira.
Download

Tratado Sobre Cálculo Matricial