Diagonalizando uma matriz dois por dois simétrica É muito comum no curso de bacharelado em física termos que diagonalizar matrizes de ordem dois ou três. Em mecânica quântica, principalmente, há uma imensidão de exercícios que requerem a diagonalização de hamiltonianas dois por dois. O problema de spin 1/2 em um campo magnético externo, por exemplo, é sempre abordado nos cursos de mecânica quântica. Mesmo em mecânica clássica há problemas que envolvem a diagonalização de pequenas matrizes quadradas, nem sempre simétricas. O problema de dois osciladores harmônicos acoplados, por exemplo, envolve a diagonalização de uma matriz de ordem dois. Nesta postagem vou diagonalizar uma matriz dois por dois simétrica, com elementos reais, dada a importância desse caso no curso de graduação e mesmo de pósgraduação. Farei uma exposição específica para este problema particular, de ordem dois, mas, quando discutir o determinante que dá os autovalores, farei uma digressão bem completa sobre a fórmula para calcular, no caso de dimensão finita qualquer, o determinante do produto de duas matrizes. Vamos considerar a diagonalização de uma matriz simétrica 2 × 2, com elementos reais. Seja essa matriz dada por a c M = , (1) c b com a, b e c números reais. Para que a diagonalização não seja trivial, vamos supor que c 6= 0. Sem perder a generalidade, vamos supor também que c > 0, pois, no caso tivéssemos c negativo, bastaria diagonalizar a matriz −M, ao invés de M. A Eq. (1) mostra que a matriz é simétrica, pois sua transposta é idêntica a ela mesma, isto é, Mt = M. (2) Devemos encontrar uma matriz N, com inversa, N −1 , tal que N −1 M N = D, (3) onde D é uma matriz diagonal, D = λ1 0 0 λ2 , (4) e λ1 e λ2 são os chamados “autovalores de M ”. Podemos reescrever a Eq. (1) assim: 1 0 0 c M = a + , (5) 0 1 c d onde, por conveniência notacional, definimos d ≡ b − a. 1 (6) Substituindo a Eq. (5) na Eq. (3), dá 1 0 0 N −1 a + 0 1 c c d 0 c c d N = D, isto é, aN −1 1 0 0 1 N +N −1 N = D, ou seja, N −1 0 c c d = D−a N 1 0 0 1 λ1 − a 0 = 0 λ2 − a , (7) pois N −1 1 0 0 1 = N −1 N = N 1 0 0 1 . (8) Da Eq. (7) vemos que a matriz H ≡ 0 c c d (9) é diagonalizável pela mesma matriz N que diagonaliza a matriz original, M, da Eq. (1). Note, na Eq. (7), que os autovalores da matriz H são λ1 − a e λ2 − a. Vamos, portanto, diagonalizar a matriz H, da Eq. (9). Mas, antes, vamos ver o que significa diagonalizar uma matriz. Da Eq. (3), podemos escrever MN = N D, (10) onde multiplicamos, pela esquerda, ambos os membros da Eq. (3) por N e usamos a definição da inversa da matriz N, isto é, N N −1 = N −1 N = I, (11) onde I ≡ 1 0 0 1 . (12) Vamos escrever uma forma explícita para a matriz N : N1,1 N1,2 N ≡ , (13) N2,1 N2,2 onde devemos encontrar os elementos Ni,j , para i, j = 1, 2. Multiplicando a Eq. (13) pela Eq. (4), obtemos N1,1 N1,2 λ1 0 ND = N2,1 N2,2 0 λ2 λ1 N1,1 λ2 N1,2 = . (14) λ1 N2,1 λ2 N2,2 2 Substituindo as Eqs. (13) e (14) na Eq. (10) e usando a Eq. (1) para a matriz M, encontramos a equação matricial: a c N1,1 N1,2 λ1 N1,1 λ2 N1,2 = . (15) c b N2,1 N2,2 λ1 N2,1 λ2 N2,2 Mas, a c c b N1,1 N2,1 N1,2 N2,2 = aN1,1 + cN2,1 cN1,1 + bN2,1 aN1,2 + cN2,2 cN1,2 + bN2,2 Com a Eq. (16), a Eq. (15) agora escreve-se aN1,1 + cN2,1 aN1,2 + cN2,2 λ1 N1,1 = cN1,1 + bN2,1 cN1,2 + bN2,2 λ1 N2,1 λ2 N1,2 λ2 N2,2 . (16) . (17) Como a Eq. (17) é, sem dúvida, uma igualdade matricial, cada elemento da matriz escrita no membro esquerdo deve ser igual ao seu correspondente no membro direito da equação. Em particular, a primeira coluna da matriz do primeiro membro da Eq. (17) deve ser igual à primeira coluna do segundo membro e, portanto, aN1,1 + cN2,1 λ1 N1,1 = . (18) cN1,1 + bN2,1 λ1 N2,1 Mas a Eq. (18) pode ser reescrita assim: a c N1,1 N1,1 = λ1 . c b N2,1 N2,1 (19) Você pode verificar também que igualando a segunda coluna da matriz da esquerda da Eq. (17), com a segunda coluna da matriz da direita dessa equação, resulta em a c N1,2 N1,2 = λ2 . (20) c b N2,2 N2,2 As Eqs. (19) e (20) são as chamadas equações de autovalores e autovetores. Os números λ1 e λ2 já foram identificados como os autovalores da matriz M logo abaixo da Eq. (4). As duas colunas da matriz N, que aparecem, respectivamente, nas Eqs. (19) e (20), são os chamadas “autovetores da matriz M ”, caso não sejam nulas, isto é, um autovetor não pode ser nulo, por definição. A Eq. (3) define o que é a diagonalização de uma matriz. As Eqs. (19) e (20) são, como vimos acima, equivalentes à Eq. (3). É por causa dessa equivalência que, para diagonalizar uma matriz, podemos proceder encontrando seus autovalores e autovetores. Aqui, embora estejamos tratando o caso de uma matriz simétrica 2 × 2, você pode verificar que a equivalência entre a definição da Eq. (3) e o correspondente conjunto de equações de autovalores e autovetores vale também para o caso de matrizes não simétricas e de maior dimensão, desde que sejam 3 matrizes quadradas e que seja possível diagonalizá-las. No caso de matrizes simétricas, sempre é possível diagonalizá-las, embora eu não demonstrarei isso aqui. Voltando para a diagonalização da matriz H, da Eq. (9), precisamos encontrar todos os números λ e autovetores U, tais que HU = λU. (21) Definamos, portanto, ≡ U α β . (22) Usando as Eqs. (9) e (22), podemos reescrever a Eq. (21) como 0 c α α = λ , c d β β isto é, −λ c c d−λ α β = 0 0 , (23) ou, equivalentemente, usando as Eqs. (12) e (21) HU − λU = 0, HU − λIU = 0, ou seja, ou ainda, (H − λI) U = 0. (24) −1 Se a inversa da matriz (H − λI) existir, podemos denotá-la por (H − λI) . Então, a Eq. (24) pode ser multiplicada por essa matriz inversa, pela esquerda, e obtemos (H − λI) −1 (H − λI) U = 0, isto é, IU = 0, ou seja, U = 0. (25) Então, se existir a inversa da matriz (H − λI) , não encontraremos os autovetores da matriz H. Qual a condição para que uma matriz não possa ser invertida? 4 Para encontrar essa condição, vamos considerar a matriz N, da Eq. (13). Para encontrar sua inversa, precisamos encontrar uma outra matriz, denotada N −1 , tal que a Eq. (11) seja válida. Tomemos, para começar, o determinante da Eq. (11): det N N −1 = det N −1 N = det (I) = 1. (26) É muito fácil ver que o determinante da identidade é igual à unidade, para qualquer dimensão do espaço de matrizes quadradas. Mas qual o valor do determinante de um produto de duas matrizes quadradas? Para responder a esta questão, vamos considerar o produto de duas matrizes, A e B. Um elemento qualquer desse produto é dado por (AB)i,j = P X Ai,k Bk,j , (27) k=1 onde P é um número inteiro representando o número de elementos de uma linha ou coluna das matrizes P × P, também chamado de “ordem da matriz”. O determinante de uma matriz A pode ser definido como det (A) ≡ P! X sig σqP q=1 P Y Ai,σqP (i) , (28) i=1 onde σqP é a função que dá a q-ésima permutação de P números inteiros, de 1 até P, e sig σqP é o sinal da permutação σqP . Há P ! dessas permutações. Por exemplo, vamos considerar matrizes 3 × 3. Nesse caso, há 3! = 3 · 2 · 1 = 6 permutações. Podemos representar essas permutações por (1, 2, 3) , (1, 3, 2) , (2, 3, 1) , (2, 1, 3) , (3, 1, 2) e (3, 2, 1) . Não há mais permutações de 1 a 3 além dessas seis. A primeira, definimos como sendo σ13 , a segunda, como σ23 , e assim sucessivamente até que a sexta é definida como σ63 . Poderíamos trocar a ordem dos índices inferiores dessas funções a nosso bel-prazer, sem alterar o resultado da definição da Eq. (28); depois da explicação que segue, você pode pensar e ver que isso é verdade. Então, essas seis funções atuam nos números 1, 2 e 3 dando: σ13 (1) , σ13 (2) , σ13 (3) = (1, 2, 3) , (29) σ23 (1) , σ23 (2) , σ23 (3) = (1, 3, 2) , (30) σ33 (1) , σ33 (2) , σ33 (3) = (2, 3, 1) , (31) σ43 (1) , σ43 (2) , σ43 (3) = (2, 1, 3) , (32) σ53 (1) , σ53 (2) , σ53 (3) = (3, 1, 2) (33) 5 e σ63 (1) , σ63 (2) , σ63 (3) = (3, 2, 1) . (34) O sinal de uma determinada permutação, digamos σ53 , por exemplo, é calculado tomando −1 elevado ao número de inversões da terna dada, neste particular exemplo, por σ53 (1) , σ53 (2) , σ53 (3) = (3, 1, 2) , conforme mostra a Eq. (33). O número de inversões em uma permutação σqP , de P números, é dada pelo número de pares (i, j) , no conjunto desses P números, tais que i < j e, ao mesmo tempo, σqP (i) > σqP (j) . Neste exemplo, há duas inversões na permutação σ53 : (1, 2) e (1, 3) , pois σ53 (1) = 3 > 1 = σ53 (2) e σ53 (1) = 3 > 2 = σ53 (3) . Então, essa permutação σ53 tem sinal positivo, isto é, sig σ53 = 1, pois tem um número par de inversões. Você pode facilmente verificar que, por exemplo, sig σ63 = −1, pois o número de inversões na permutação σ63 é ímpar, correspondendo aos pares (1, 2) , (1, 3) e (2, 3) , de acordo com a Eq. (34). Vamos, então, usar a Eq. (28) para ver o que dá o determinante de uma matriz 3 × 3 : det (A) = 6 X sig σq3 q=1 = 6 X 3 Y Ai,σq3 (i) i=1 sig σq3 A1,σq3 (1) A2,σq3 (1) A3,σq3 (1) , (35) q=1 Q onde expandimos o produtório. Uma pequena digressão sobre o símbolo é oportuna neste ponto. Produtórios são análogos a somatórios, exceto que, ao invés de somar termos, produtórios multiplicam fatores. Por exemplo, o produtório que dá 6! = 6 · 5 · 4 · 3 · 2 · 1 é escrito como 6 Y l = 1 · 2 · 3 · 4 · 5 · 6. (36) l=1 Veja, que, como no caso de somatórios, a ordem nos produtórios pode ser invertida sem que haja alteração no resultado final: 1 Y l = 6·5·4·3·2·1=1·2·3·4·5·6= 6 Y m, (37) m=1 l=6 onde usamos a Eq. (36) na última igualdade. Também, em analogia com somatórios, o índice aparecendo em um produtório é irrelevante, como explicitado na Eq. (37). O índice em um produtório é também dito “mudo”, como no caso de índices aparecendo em somatórios. Retornemos à Eq. (35). Podemos agora expandir o somatório e obter det (A) = sig σ13 A1,σ13 (1) A2,σ13 (1) A3,σ13 (1) + sig σ23 A1,σ23 (1) A2,σ23 (1) A3,σ23 (1) + sig σ33 A1,σ33 (1) A2,σ33 (1) A3,σ33 (1) + sig σ43 A1,σ43 (1) A2,σ43 (1) A3,σ43 (1) + sig σ53 A1,σ53 (1) A2,σ53 (1) A3,σ53 (1) + sig σ63 A1,σ63 (1) A2,σ63 (1) A3,σ63 (1) , 6 que, com as Eqs. desde (29) até (34), também permite que esse determinante seja escrito como det (A) = A1,1 A2,2 A3,3 − A1,1 A2,3 A3,2 + A1,2 A2,3 A3,1 − A1,2 A2,1 A3,3 + A1,3 A2,1 A3,2 − A1,3 A2,2 A3,1 , (38) onde já calculamos os sinais das permutações, contando quantas inversões há em cada uma. Lembrando as regras e a notação para determinantes 3 × 3 do segundo grau, podemos ver que a Eq. (38) também pode ser escrita assim: = A1,1 (A2,2 A3,3 − A2,3 A3,2 ) − A1,2 (A2,1 A3,3 − A2,3 A3,1 ) det (A) + A1,3 (A2,1 A3,2 − A2,2 A3,1 ) A A2,2 A2,3 − A1,2 2,1 = A1,1 A3,1 A3,2 A3,3 A A2,3 + A1,3 2,1 A3,1 A3,3 A2,2 , A3,2 ou seja, det (A) = A1,1 A2,1 A3,1 A1,2 A2,2 A3,2 A1,3 A2,3 A3,3 , (39) como é ensinado no segundo grau. Uma vez que nos certificamos de que a definição para determinantes da Eq. (28) é, nos casos particulares que conhecemos, o que já sabemos, podemos proceder com o cálculo do determinante do produto de duas matrizes. Usando a Eq. (28), mas trocando os elementos da matriz A por aqueles do produto AB, dados pela Eq. (27), obtemos det (AB) = P! X sig σqP P Y q=1 = P! X (AB)i,σqP (i) i=1 sig σqP P Y P X i=1 ki =1 q=1 ! Ai,ki Bki ,σqP (i) , (40) onde precisamos introduzir o subíndice i ao índice k para não confundir os produtos de somatórios que aparecem quando expandimos o produtório. Vamos expandir o produtório da Eq. (40). Então, det (AB) = P! X sig σqP q=1 P X k1 =1 ··· P X A1,k1 . . . AP,kP Bk1 ,σqP (1) . . . BkP ,σqP (P ) . Mas, a ordem de somatórios não importa e, portanto, podemos reescrever a Eq. (41) como " P! # P P X X X P det (AB) = ··· A1,k1 . . . AP,kP sig σq Bk1 ,σqP (1) . . . BkP ,σqP (P ) . k1 =1 (41) kP =1 q=1 kP =1 7 (42) Considere uma sequência de números (k1 , . . . , kP ) e a quantidade entre colchetes da Eq. (42). Suponha que dois desses números sejam iguais. Nesse caso, devemos mostrar que a quantidade entre colchetes é nula. Primeiro, considere o caso em que P = 2. Então, 2! X sig σq2 Bk1 ,σq2 (1) Bk2 ,σq2 (2) = Bk1 ,1 Bk2 ,2 − Bk1 ,2 Bk2 ,1 , (43) q=1 onde definimos σ12 (1) , σ12 (2) ≡ (1, 2) e σ22 (1) , σ22 (2) ≡ (2, 1) . No caso em que k1 = k2 , vemos que a Eq. (43) dá zero. Considere agora o caso em que P =3: 3! X sig σq3 Bk1 ,σq3 (1) Bk2 ,σq3 (2) Bk3 ,σq3 (3) = Bk1 ,1 Bk2 ,2 Bk3 ,3 − Bk1 ,1 Bk2 ,3 Bk3 ,2 + Bk1 ,2 Bk2 ,3 Bk3 ,1 − Bk1 ,2 Bk2 ,1 Bk3 ,3 + Bk1 ,3 Bk2 ,1 Bk3 ,2 − Bk1 ,3 Bk2 ,2 Bk3 ,1 , q=1 onde usamos as Eqs. de (29) a (34) para definir σq3 . É fácil verificar que se dois dos números k1 , k2 e k3 forem iguais, a Eq. (44) dá zero. Verifique! Para qualquer P, a soma entre colchetes da Eq. (42) dá zero. Para ver isso, considere um dos termos da soma entre colchetes, que é dado por, digamos, sig σqP Bk1 ,σqP (1) . . . Bkm ,σqP (m) . . . Bks ,σqP (s) . . . BkP ,σqP (P ) , (45) onde km = ks e 1 < m < s < P. Entre os termos da soma entre colchetes da Eq. (42) há, para cada termo como o (45), um outro, proveniente de outra permutação, σqP0 , dada por σqP0 (i) = σqP (i) , (46) para i = 1, . . . , m − 1, m + 1, . . . , s − 1, s + 1, . . . , P. Necessariamente, então, para esses dois termos, σqP0 (m) σqP (s) (47) = σqP (m) , (48) = e σqP0 (s) já que não pode haver duas permutações iguais na soma sobre as permutações. Então, para cada termo como o (45), há um outro como sig σqP0 Bk1 ,σqP (1) . . . Bkm−1 ,σqP (m−1) Bkm ,σqP (s) Bkm+1 ,σqP (m+1) . . . ×Bks−1 ,σqP (s−1) Bks ,σqP (m) Bks+1 ,σqP (s+1) . . . BkP ,σqP (P ) , (49) onde usamos as Eqs. (46), (47) e (48). Como, por hipótese, km = ks , os termos (45) e (49) só diferem pelo seu sinal: um tem o fator sig σqP , enquanto 8 (44) o outro tem um fator sig σqP0 . Esses sinais são opostos. Para ver isso, note que σqP (m) > σqP (s) ou σqP (s) > σqP (m) , pois não podem ser iguais, uma vez que m < s, por hipótese. Para que a permutação σqP seja convertida na permutação σqP0 , temos que proceder a um número ímpar de trocas entre dois números adjacentes na sequência dada por σqP (1) , . . . σqP (P ) . Por exemplo, para que a sequência dada por (1, 3, 8, 2, 6, 7, 4, 5) seja convertida na sequência (1, 3, 8, 4, 6, 7, 2, 5) , precisamos trocar 2 com 6, depois, 2 com 7 e, depois, 2 com 4, obtendo (1, 3, 8, 6, 7, 4, 2, 5) . A seguir, temos que trocar 4 com 7 e, depois, 4 com 6, em um total de 5 trocas. Cada vez que trocamos dois números adjacentes, a nova permutação deve trocar de sinal com relação à anterior, já que um número na sequência é sempre maior, ou menor, do que outro. Para trocar um dos números com qualquer outro, devemos trocar um deles com cada um dos n números entre os dois, trocá-los entre si, quando estiverem adjacentes, e, depois, trocar o outro número com os mesmos n números que estavam, no início, entre eles. Temos, assim, que efetuar 2n + 1 trocas entre números adjacentes, isto é, temos sempre um número ímpar de trocas. Cada troca adjacente muda o sinal da permutação e, portanto, a troca entre dois números quaisquer sempre muda o sinal da permutação, com relação à permutação de partida. Uma vez que demonstramos que a presença de índices ki repetidos em termos que não se cancelam na Eq. (42) não ocorre, então, de todos os termos possíveis, somente aqueles que têm todos os índices ki não nulos podem permanecer sem se cancelar. Assim, os somatórios da Eq. (42) contribuem com termos não nulos somente para permutações da sequência de índices ki , de 1 até P. Logo, a Eq. (42) pode ser reescrita como " P! # P! X X P det (AB) = A1,σrP (1) . . . AP,σrP (P ) sig σq BσrP (1),σqP (1) . . . BσrP (P ),σqP (P ) . r=1 (50) q=1 Vamos olhar para a soma entre colchetes. Em cada termo da soma, podemos reordenar os fatores todos de forma a obter os primeiros índices dos fatores Bi,j na ordem crescente de 1 até P. Essa é justamente a permutação inversa de σrP . Vamos denotar essa permutação inversa como σ̄rP . Então, a soma entre colchetes pode ser escrita como P! X sig σqP BσrP (1),σqP (1) . . . BσrP (P ),σqP (P ) = q=1 P! X sig σqP B1,σ̄P (σP (1)) . . . BP,σ̄P (σP (P )) r q r q q=1 = P! X sig σqP B1,(σ̄P ◦σP )(1) . . . BP,(σ̄P ◦σP )(P ) , r q r q q=1 onde σ̄rP ◦σqP é a composição das duas permutações. É evidente que a composição de duas permutações é também uma permutação. Então, seja σuP ≡ σ̄rP ◦ σqP . (52) Precisamos relacionar o sinal de σuP com os sinais de σ̄rP e σqP . Note que qualquer permutação pode ser feita através de uma sequência de trocas entre dois 9 (51) números. Mas, como vimos, cada uma dessas trocas, ou transposições, muda o sinal da permutação com relação à permutação anterior à transposição. Assim, na Eq. (34), por exemplo, partimos de (1, 2, 3) e chegamos a (3, 2, 1) . Podemos fazer vários caminhos diferentes para chegar à permutação final. Por exemplo, podemos fazer a transposição a seguir: (1, 2, 3) → (3, 2, 1) e pronto, uma só transposição, entre 1 e 3, dando, portanto, um sinal negativo para a permutação final. Veja que o sinal coincide com aquele obtido através do número de inversões, que neste caso é 3. Poderíamos ter feito outro caminho, por exemplo: (1, 2, 3) → (2, 1, 3) , (2, 1, 3) → (2, 3, 1) depois e (2, 3, 1) → (3, 2, 1) , ou seja, três transposições adjacentes, isto é, cada uma dessas transposições é uma troca entre dois números adjacentes na sequência: a troca entre 1 e 2, depois a troca entre 1 e 3 e, finalmente, a troca entre 2 e 3. De novo, o número de transposições é ímpar, dando um sinal negativo, idêntico ao sinal da permutação final. Não importa o caminho que fizermos, −1 elevado ao número de transposições para chegar ao destino final dá igual ao sinal da permutação. Para provar isso no caso geral, note primeiro que sempre é possível, através de transposições, chegar ao resultado da permutação desejada, partindo da sequência de 1 até P. E, como já vimos acima, uma transposição qualquer é composta de um número ímpar de transposições adjacentes. Então, escolha um caminho qualquer para o destino desejado. Esse caminho pode, portanto, ser decomposto por uma sequência de permutações adjacentes. O que precisamos mostrar, portanto, é que, para qualquer caminho, o número de inversões da permutação final, mais o número de transposições adjacentes do caminho, tem que ser um número par. Se demonstrarmos isso, para qualquer caminho, ou o número de transposições adjacentes é ímpar, assim como o número de inversões da correspondente permutação final, ou é par, quando também o é o número de inversões da permutação considerada. Para ver isso, seja L o número de transposições adjacentes que leva a sequência de 1 a P à permutação final desejada, suposta N consistir de N inversões e, portanto, com sinal (−1) . Agora, inverta cada uma das transposições adjacentes. Cada uma dessas transposições multiplica por −1 o sinal da permutação parcial resultante. Após a reversão de todas as L transposições adjacentes, o resultado é o de partida: a sequência original de 1 a P. O sinal dessa permutação é +1, pois é a permutação identidade. Logo, como o número de inversões na permutação em análise era N e, portanto, seu 10 N sinal era (−1) , após as L transposições adjacentes inversas, esse sinal ficou L multiplicado por (−1) , com o resultado que L N (−1) (−1) = 1, ou seja, L + N deve ser par, para qualquer caminho que leve a sequência de 1 a P à permutação desejada. Então, se N for par, L também o será e, se N for ímpar, L será ímpar também, para qualquer caminho. Assim, −1 elevado ao número de transposições adjacentes, de qualquer caminho, sempre dará o sinal da permutação desejada. Retornemos, então, para a Eq. (52). Tome um caminho de transposições adjacentes para a permutação σqP e suponha que esse caminho tenha L1 trans L posições adjacentes e, portanto, sig σqP = (−1) 1 . Suponha que um caminho de transposições adjacentes para a permutação σ̄rP tenha L2 transposições ad L jacentes e, portanto, sig σ̄rP = (−1) 2 . É evidente que, seguindo esses dois caminhos em sequência, reproduziremos a permutação composta da Eq. (52). O sinal dessa nova permutação, portanto, será dado por L +L (53) sig σ̄rP ◦ σqP = (−1) 1 2 = sig σ̄rP sig σqP . Multiplicando a Eq. (53) por sig σ̄rP , encontramos sig σqP = sig σ̄rP sig σ̄rP ◦ σqP . (54) Vamos, agora, substituir a Eq. (54) de volta na Eq. (51) para obter P! X sig σqP BσrP (1),σqP (1) . . . BσrP (P ),σqP (P ) q=1 = P! X sig σ̄rP sig σ̄rP ◦ σqP B1,(σ̄P ◦σP )(1) . . . BP,(σ̄P ◦σP )(P ) r q r q q=1 = sig σ̄rP P! X sig σ̄rP ◦ σqP B1,(σ̄P ◦σP )(1) . . . BP,(σ̄P ◦σP )(P ) , r q r q (55) q=1 já que a soma é sobre q e não sobre r. Veja agora que o número de permutações de P números é igual a P !. Como a composição de permutações da Eq. (52) é também uma permutação, conforme varrermos q sobre todas as permutações, a composição σ̄rP ◦ σqP também varrerá o conjunto de todas as P ! permutações possíveis. Para ver isso, faça a hipótese de que q1 6= q2 . Então, segue necessariamente, que σqP1 6= σqP2 . Isso nós sabemos ser verdade, como podemos verificar com exemplos e pela própria definição de permutação. Assim, vamos supor que, apesar disso, quando tomamos as composições de cada uma dessas duas permutações com σ̄rP , encontramos σ̄rP ◦ σqP1 = σ̄rP ◦ σqP2 . 11 (56) Então, aplicando cada um dos membros da Eq. (56) à sequência de números de 1 até P, devemos obter a mesma permutação desses números. Aplicando, portanto, a esse resultado, a inversa de σ̄rP , devemos obter uma única permutação. Esta única permutação, de acordo com a Eq. (56) deve ser igual à aplicação de σqP1 à sequência de 1 a P e também deve ser igual à aplicação de σqP2 à sequência de 1 a P. Mas este resultado implica que q1 deve ser igual a q2 , contradizendo a hipótese que sabemos ser verdade. Logo, a outra hipótese, isto é, a Eq. (56), deve ser falsa. Assim, varrendo a composição σ̄rP ◦ σqP sobre q, estamos varrendo todo o conjunto de permutações de 1 a P. Com esse resultado, podemos escrever a Eq. (55) assim: P! X sig σqP BσrP (1),σqP (1) . . . BσrP (P ),σqP (P ) = sig σ̄rP = σ̄rP P! X q=1 sig σuP B1,σuP (1) . . . BP,σuP (P ) u=1 sig det (B) , (55b) onde usamos a Eq. (28) para o determinante de uma matriz qualquer. Substituindo a Eq. (55b) na Eq. (50), obtemos det (AB) = P! X A1,σrP (1) . . . AP,σrP (P ) sig σ̄rP det (B) r=1 = det (B) P! X sig σ̄rP A1,σrP (1) . . . AP,σrP (P ) . (57) r=1 Depois de todas as demonstrações que fizemos acima, agora é fácil ver que o sinal de uma permutação é igual ao de sua inversa, pois ambas podem ser representadas pelo mesmo número de transposições adjacentes. Isso é claro porque, se escolhermos um caminho de L transposições adjacentes que dá σrP , devemos aplicar o mesmo número de transposições adjacentes ao resultado final para invertê-la, sendo cada uma dessas transposições a inversa de cada uma das que foram aplicadas à sequência de 1 a P para obtermos σrP . Com este resultado, a Eq. (57) fica, finalmente, det (AB) P! X sig σrP A1,σrP (1) . . . AP,σrP (P ) = det (B) = det (B) det (A) = det (A) det (B) , r=1 (58) onde, novamente, usamos a Eq. (28) para a definição do determinante de A. Logo após a Eq. (25), precisávamos saber qual a condição para que uma matriz não tenha inversa. Agora podemos responder isso de forma fácil. Considere a Eq. (11). Suponha que uma matriz N tenha determinante nulo, mas que sua inversa, N −1 , exista. Então, da Eq. (26), temos que det N −1 N = 1. (59) 12 Usando a Eq. (58) na Eq. (59), vemos que det N −1 det (N ) = 1, (60) que é impossível se det (N ) for nulo. Como, dada uma matriz, sempre podemos calcular seu determinante, a matriz N −1 não existe, pois, caso existisse, teríamos que ter a Eq. (60) válida para det (N ) = 0, o que é uma contradição, pois a Eq. (60) implicaria 0 = 1. Logo, a condição para uma matriz não ser inversível é que tenha determinante nulo. Vamos impor essa condição à matriz H − λI para encontrar seus autovalores e autovetores: det (H − λI) = 0. Substituindo a Eq. (9) na Eq. (61), vem −λ c det = c d−λ (61) 0, (62) isto é, −λ (d − λ) − c2 = 0, ou seja, λ2 − dλ − c2 = 0, (63) cuja solução é dada por λ± = d 1p 2 ± d + 4c2 . 2 2 (64) Para futura referência, note que d 1p 2 d 1p 2 λ+ λ− = + d + 4c2 − d + 4c2 2 2 2 2 2 1 2 d − d + 4c2 = −c2 . (65) = 4 4 Para achar os autovetores correspondentes aos autovalores da Eq. (64), utilizamos as Eqs. (9), (22) e (24): −λ± c α± = 0, (66) c d − λ± β± isto é, λ± α± = cβ± (67) e cα± = − (d − λ± ) β± . 13 (68) Com as soluções da Eq. (64), podemos mostrar que a Eq. (68) é equivalente à Eq. (67) e, portanto, não fornece informação diferente daquela fornecida pela Eq. (67). Para vermos isso, basta substituir a Eq. (64) na Eq. (68): d 1p 2 cα± = − d − ∓ d + 4c2 β± , (69) 2 2 isto é, cα± = − d 1p 2 2 ∓ d + 4c β± , 2 2 ou seja, cλ± α± = = d 1p 2 d + 4c2 β± ∓ −λ± 2 2 d 1p 2 d 1p 2 − ± d + 4c2 ∓ d + 4c2 β± , 2 2 2 2 ou ainda, d2 1 2 − d + 4c2 β± . 4 4 cλ± α± = − Portanto, cλ± α± c2 β± , = que dá λ± α± = cβ± . (70) Como a Eq. (70) é idêntica à Eq. (67), vemos que a Eq. (68) é linearmente dependente da Eq. (67) e, portanto, não fornece nova informação. A Eq. (67) é indeterminada, pois dá apenas uma relação entre α± e β± . É uma convenção normalizar os autovetores e, assim, devemos ter 2 2 α± + β± = 1. (71) λ± α± . c (72) Da Eq. (67), temos que β± = Substituindo a Eq. (72) na Eq. (71) dá λ2± 2 1 + 2 α± c 14 = 1, isto é, 2 α± = c2 . c2 + λ2± (73) Então, extraindo a raiz quadrada da Eq. (73), escolhemos, como solução, c α± = q (74) 2 c + λ2± (pois poderíamos, ao invés, escolher a solução com sinal negativo). Substituindo a Eq. (74) na Eq. (72), obtemos β± λ± = q . (75) c2 + λ2± Então, temos os dois autovetores: 1 α+ c U+ = =q β+ λ+ c2 + λ2+ (76) e U− = α− β− 1 =q c2 + λ2− c λ− , (77) correspondentes aos autovalores λ+ e λ− da Eq. (64), respectivamente, obtidos usando as Eqs. (74) e (75) na Eq. (22). Note agora que, como λ+ não é nulo, nem negativo, pois, por hipótese, c > 0 e, portanto, c 6= 0 (cf. Eq. (64)), podemos escrever c q c2 = + λ2− cλ cλ+ q + =q . 2 2 2 2 2 λ+ c + λ− c λ+ + (λ+ λ− ) (78) Substituindo a Eq. (65) na Eq. (78), obtemos c q cλ+ cλ+ q = q , 2 c λ2+ + c2 c2 λ2+ + (−c2 ) = c2 + λ2− ou seja, c q c2 + λ2− = λ+ q . (79) c2 + λ2+ Observe também que λ q − c2 + λ2− = λ λ c2 q− + = −q 2 λ+ c2 + λ2− c2 λ2+ + (λ+ λ− ) = −q c2 c2 λ2+ + 15 2 (−c2 ) = −q c λ2+ + c2 , isto é, λ− q c2 + λ2− = −q c . (80) c2 + λ2+ Podemos agora substituir as Eqs. (79) e (80) na Eq. (77) para obter 1 α− λ+ U− = =q . (81) β− −c c2 + λ2+ Logo, comparando as Eqs. (76) e (81), vemos que α+ = −β− (82) β+ = (83) e α− . Além disso, vemos claramente que os autovetores das Eqs. (76) e (81) são ortonormais, pois, além de normalizados à unidade, satisfazem: t U+ U− = t U− U+ = 0. (84) Como os autovetores U± são ortonormais, a matriz N, que diagonaliza tanto H, como M, é ortogonal, isto é, sua inversa é sua transposta. De acordo com as prescrições das Eqs. (19) e (20), bem como a discussão que segue essas equações, as colunas da matriz N são dadas pelos autovetores das Eqs. (76) e (81): 1 c λ+ N = q . (85) λ+ −c c2 + λ2+ Transpondo a Eq. (85), obtemos a matriz N −1 : 1 c λ+ N −1 = q = N, λ+ −c c2 + λ2+ (86) que, neste caso, é igual a si própria e, portanto, simétrica. Você pode verificar, instantaneamente, que a Eq. (11) está satisfeita pelas matrizes das Eqs. (85) e (86). Para ver que essas matrizes diagonalizam a matriz M, façamos: 1 a c c λ+ q MN = λ+ −c c b c2 + λ2+ 1 ac + cλ+ aλ+ − c2 = q , (87) c2 + bλ+ cλ+ − bc c2 + λ2+ 16 onde usamos as Eqs. (1) e (85). Multiplicando a Eq. (87) pela Eq. (86), pela esquerda, dá 1 c λ+ ac + cλ+ aλ+ − c2 N −1 M N = c2 + bλ+ cλ+ − bc c2 + λ2+ λ+ −c ac2 +2c2 λ +bλ2 caλ −c3 +cλ2 −λ bc + = + c2 +λ2+ λ+ ac+cλ2+ −c3 −cbλ+ c2 +λ2+ + + + c2 +λ2+ aλ2+ −2λ+ c2 +bc2 c2 +λ2+ . (88) Considere agora os numeradores dos elementos da matriz da Eq. (88). Temos, para o primeiro elemento da diagonal principal, o numerador: ac2 + 2c2 λ+ + bλ2+ = ac2 + 2c2 λ+ + (d + a) λ2+ = a c2 + λ2+ + 2c2 + dλ+ λ+ , (89) onde usamos a Eq. (6). Então, a Eq. (89) fica ac2 + 2c2 λ+ + bλ2+ = a c2 + λ2+ + 2c2 + λ2+ − c2 λ+ = (a + λ+ ) c2 + λ2+ , (90) utilizando a Eq. (63) com λ = λ+ . Também temos, para os numeradores dos elementos fora da diagonal principal, caλ+ − c3 + cλ2+ − λ+ bc = caλ+ − c3 + cλ2+ − λ+ (d + a) c = −c3 + cλ2+ − λ+ dc, (91) usando a Eq. (6). Fazendo λ = λ+ na Eq. (63), isolando dλ+ e substituindo na Eq. (91), encontramos caλ+ − c3 + cλ2+ − λ+ bc = −c3 + cλ2+ − λ2+ − c2 c = 0. (91) Finalmente, o segundo elemento da diagonal principal tem o numerador dado por aλ2+ − λ+ c2 − c2 λ+ + bc2 = aλ2+ − λ+ c2 − c2 λ+ + (d + a) c2 = a λ2+ + c2 + (d − 2λ+ ) c2 , (92) usando a Eq. (6). Substituindo a Eq. (65) na Eq. (92), obtemos aλ2+ − λ+ c2 − c2 λ+ + bc2 = a λ2+ + c2 − (d − 2λ+ ) λ+ λ− = a λ2+ + c2 − dλ+ − 2λ2+ λ− . (93) Tomando λ = λ+ na Eq. (63) e usando o resultado na Eq. (93), ficamos com aλ2+ − λ+ c2 − c2 λ+ + bc2 = a λ2+ + c2 − λ2+ − c2 − 2λ2+ λ− = (a + λ− ) λ2+ + c2 . (94) 17 Substituindo, finalmente, as Eqs. (90), (91) e (94) de volta na Eq. (88), obtemos λ+ + a 0 N −1 M N = , (95) 0 λ− + a mostrando que a mesma matriz N que diagonaliza a matriz H, da Eq. (9), também diagonaliza a matriz M, da Eq. (1), só que com autovalores dados por λ1 = λ+ + a (96) λ2 = λ− + a, (97) e como previmos na Eq. (7) e explicitamos logo abaixo da Eq. (9). Agora podemos sumarizar a resposta para o problema de diagonalizar a matriz M da Eq. (1). Os autovetores são dados pelas Eqs. (76) e (81) que, com as Eqs. (6), (96) e (97), podem ser escritos em termos dos elementos da matriz M: 1 c (98) U1 = q λ1 − a 2 c2 + (λ1 − a) e U2 = 1 q 2 c2 + (λ1 − a) λ1 − a −c , (99) onde os respectivos autovalores, λ1 e λ2 , são dados pelas Eqs. (6), (64), (96) e (97): q a+b 1 2 + λ1 = (b − a) + 4c2 (100) 2 2 e λ2 = a+b 1 − 2 2 q 2 (b − a) + 4c2 . 18 (101)