CADERNO DE FÍSICA DA UEFS 04 (01 e 02): 161-175, 2006 A TEORIA QUÂNTICA DE CAMPOS E SEU PAPEL NA DESCRIÇÃO DAS INTERAÇÕES FUNDAMENTAIS∗ Sebastião Alves Dias Centro Brasileiro de Pesquisas Fı́sica - CBPF Apresentamos um histórico do desenvolvimento da descrição de três interações fundamentais (eletrodinâmica, interações fracas e fortes), ressaltando o papel da teoria quântica de campos como unificadora dos princı́pios da relatividade especial e da mecânica quântica. Tópicos relacionados, como a renormalização, a quebra espontânea de simetria e a liberdade assintótica também são brevemente abordados. I. INTRODUÇÃO A descrição atual da natureza, no seu nı́vel mais fundamental, vale-se da hipótese da existência de quatro interações: a forte, caracterizada por uma constante de acoplamento, αs , da ordem da unidade, responsável pelas forças entre prótons e neutrons; a eletromagnética, controlada pela constante de estrutura fina, α = e2 /~c, cem vezes mais fraca que a anterior; a fraca, de magnitude tı́pica mil vezes menor que a eletromagnética; e a gravitacional, 10−34 vezes mais tênue que a fraca. Todas as interações são descritas por modelos que se baseiam na troca de partı́culas de spin ou helicidade inteiros (com ou sem massa) chamadas de bósons, entre partı́culas de spin ou helicidade semi-inteiros (chamadas de férmions, também com ou sem massa), dentro de um contexto teórico consistente com a Mecânica Quântica e a Relatividade Especial. A Gravitação resiste, até o momento, a uma descrição compatı́vel com a Mecânica Quântica. Devido ao curtı́ssimo alcance das interações fortes e fracas (em geral, intranuclear), a maioria dos fenômenos que ocorrem desde a escala atômica até a ordem do tamanho do universo pode ser atualmente descrita pela Eletrodinâmica (distâncias interatômicas) e pela Gravitação (distâncias desde metros até anos-luz ou mais). A incompatibilidade entre Gravitação e Mecânica Quântica não tem efeitos observacionais registrados até agora, dada a extrema pequenez das possı́veis correções gravitacionais a fenômenos nos ∗ Este trabalho é oriundo da palestra apresentada pelo autor na IX Semana de Fı́sica da UEFS ocorrida no perı́odo de 18 a 22 de setembro de 2006. 161 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 domı́nios atômico e sub-atômico. A Eletrodinâmica, contudo, não poderia descrever adequadamente estes domı́nios sem ser consistente com os princı́pios quânticos. Houve, pois, uma necessidade histórica de construir uma teoria para os fenômenos eletromagnéticos que obedecesse a esses requerimentos. A teoria que emergiu deste contexto foi a Eletrodinâmica Quântica. As suas previsões têm o maior grau de concordância com os dados experimentais alcançado pela Fı́sica até hoje. Poderı́amos citar, como exemplo, o cálculo do momento magnético anômalo do elétron, onde a previsão teórica (1, 00115965221 ± 4 no último dı́gito) concorda com o valor medido em nove casas decimais (1, 00115965246 ± 19 nos últimos dois dı́gitos). Feynman comparou a precisão desta medida com a que seria pretendida caso se desejasse medir a distância entre Los Angeles e Nova Iorque com o erro menor que a espessura de um fio de cabelo. A base sobre a qual se funda essa teoria é o casamento entre a Relatividade Especial e a Mecânica Quântica, obtido através da Teoria Quântica de Campos. Este é um formalismo que acomoda situações em que o número de partı́culas não permanece constante, sendo, portanto, compatı́vel com a descrição de processos como a emissão ou absorção de fótons por átomos, ou a criação ou aniquilação de pares elétron-pósitron. As teorias de campos, em geral, fazem uso de objetos matemáticos chamados distribuições, ou funções generalizadas. Os campos quânticos são considerados como distribuições que tomam valores em operadores. Em geral, precisamos considerar situações em que aparecem produtos de campos no mesmo ponto, o que implica em considerar produtos de distribuições, os quais não estão definidos em geral. Esse fato poderia invalidar toda a estratégia básica das teorias quânticas de campos, se não houvesse uma classe dessas teorias onde este problema pode ser contornado. Tais teorias são chamadas de renormalizáveis. A Eletrodinâmica Quântica foi a primeira teoria de campos realista que se mostrou renormalizável. Graças a este fato, ela se tornou o protótipo para a construção das teorias para as interações fracas e fortes. Isso se deu a partir da generalização do conceito de simetria de calibre, ou de gauge. Esse conceito está na origem da renormalizabilidade da Eletrodinâmica e foi o guia para a construção e interpretação das outras teorias fundamentais. Neste seminário procuraremos mostrar o desenvolvimento da Teoria Quântica de Campos, a partir dos sucessos conseguidos na descrição de três das quatro interações [1]. Ao final, discutiremos brevemente a situação atual e as perspectivas da área. 162 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): II. 161-175, 2006 A Teoria Quântica de ... ORIGENS DA TEORIA QUÂNTICA DE CAMPOS O século XX inaugura uma era de restrições ao modo pelo qual achávamos que podı́amos conhecer o mundo. A primeira delas é o reconhecimento (a partir de bases experimentais) de que não é possı́vel transmitir informação com velocidade infinita e que a velocidade máxima é a velocidade da luz. A segunda restrição diz respeito à precisão com que podemos medir simultaneamente alguns observáveis fı́sicos (posição e momentum linear são exemplos de tais observáveis), quando consideramos dimensões atômicas ou menores. Tais observáveis são chamados de incompatı́veis, pois foi reconhecida a impossibilidade de conhecê-los simultaneamente com precisão arbitrária (quanto mais preciso fosse o conhecimento de um, mais impreciso seria o do outro). As conseqüências dessas restrições foram revolucionárias para toda a Fı́sica. A primeira levou ao desenvolvimento da Relatividade Especial, enquanto a segunda levou à Mecânica Quântica. A consideração de domı́nios da realidade onde fosse necessário levar em conta os dois tipos de restrições levou naturalmente à tentativa de estabelecer uma teoria em que ambos os princı́pios estivessem satisfeitos. Tais questões apareceram já nos primeiros fatos experimentais que marcaram o desenvolvimento da Mecânica Quântica. O problema do espectro de radiação emitido por um corpo negro, o efeito fotoelétrico e o efeito Compton (e, um pouco depois disso, a descoberta do spin), são exemplos de situações em que as dimensões e velocidades envolvidas exigem as duas teorias. A Teoria Quântica de Campos já se insinua como necessária na descrição do mundo subatômico desde a análise do campo eletromagnético numa cavidade, feita por Rayleigh e Jeans em seu trabalho pioneiro sobre a radiação emitida por um corpo negro. Neste trabalho, é notado que o sistema dinâmico dado pelo campo eletromagnético clássico é equivalente a um outro, consistindo em infinitos osciladores harmônicos desacoplados, cada um oscilando com uma freqüência diferente, distribuı́da entre zero e infinito [2]. Mas uma teoria de campos (livre) é sempre equivalente a um sistema de infinitos osciladores harmônicos livres, como descrito acima. O fato de Planck e Einstein observarem, posteriormente, a necessidade de que a energia estivesse distribuı́da em pacotes (quanta) implica, do ponto de vista formal, em simplesmente considerar a versão quântica de cada um destes infinitos osciladores harmônicos, o que representa a forma padrão de quantizar uma teoria clássica de campos (neste caso a Eletrodinâmica). Assim, a Eletrodinâmica foi a primeira teoria clássica de campos a ser quantizada. Isto foi 163 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 feito através da associação de operadores aos seus graus de liberdade clássicos (as componentes do quadrivetor potencial eletromagnético), os quais, por sua vez, dependiam das coordenadas espaço-temporais. Aqui é preciso marcar a diferença entre esta quantização e a que foi feita por Schrödinger e Heisenberg no caso não-relativı́stico: as coordenadas espaciais são apenas parâmetros que indexam os verdadeiros graus de liberdade do sistema dinâmico. A quantização resulta num espaço de estados onde um autoestado do operador de momentum, P µ |pµ , εi = pµ |pµ , εi , pµ pµ = 0, é associado com uma partı́cula elementar com quadrimomentum pµ e helicidade (projeção do momentum angular na direção do movimento da partı́cula) ε = ±1. O estado acima é também autoestado de outros observáveis (carga elétrica, número bariônico, número leptônico, etc.), com autovalores que correspondem ao fóton. Isso reforça a identificação feita entre o estado e a presença de um fóton. Um estado de n fótons pode ser indicado pelo sı́mbolo |pµ1 , ε1 , pµ2 , ε2 ....pµn , εn i . Na ausência de interações, estes estados seriam estacionários (não haveria transição entre um estado com n fótons e um outro com m fótons). Dada a presença de correntes externas dadas, interagindo com o campo eletromagnético quantizado, tais transições podem ocorrer e vemos que o número de partı́culas não necessariamente se conserva. Em outras palavras, pode haver criação ou aniquilação de partı́culas (neste caso, fótons). Esta é uma caracterı́stica de qualquer teoria quântica e relativista de campos. A ênfase deixa de ser na entidade (antes tida como indestrutı́vel) representada pela partı́cula e passa a ser na conservação da energia e de outros números quânticos relevantes. A concepção acima não prevaleceu imediatamente para os demais tipos de partı́culas elementares, particularmente aqueles para os quais essas partı́culas possuiam massas diferentes de zero. Dirac, em 1930, propôs uma teoria quântica e relativista para o elétron introduzindo novos graus de liberdade internos (que seriam identificados com o spin) mantendo, contudo, a identificação das coordenadas de posição como sendo os graus de liberdade fundamentais do sistema (o que implicava na “indestrutibilidade” do elétron). No entanto, o fato de ele não ter conseguido escrever uma hamiltoniana que possuı́sse um estado de energia mı́nima fazia com que sua teoria fosse instável (elétrons de energia positiva poderiam perder energia 164 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... indefinidamente, através de interações com fótons ou campos externos dados). Para resolver este problema, Dirac postulou a existência de um número infinito de elétrons, prenchendo todos os nı́veis acessı́veis de energia negativa (que não seriam observados) e evitando (devido ao princı́pio de exclusão de Pauli) que um elétron pudesse decair para nı́veis de energia iguais ou abaixo de −mc2 . Elétrons de energia negativa poderiam ser excitados a nı́veis de energia positiva, deixando conseqüências observáveis no “mar de elétrons” de energia negativa, que seriam vistas como buracos (partı́culas que se comportariam como sendo de energia positiva, mas com carga e componente de spin opostas). Similarmente, elétrons de energia positiva poderiam emitir um fóton e ocupar a posição vaga no “mar”, tornando-se então inobserváveis (ou seja, desaparecendo, na prática). Estava, assim, aberta a possibilidade de criação e aniquilação de pares de partı́culas com massa não-nula, o que, na época, pareceu extremamente bizarro aos olhos da comunidade dos fı́sicos. Subrepticiamente, passava-se, também, de uma teoria de uma única partı́cula para uma teoria sem número definido de partı́culas, muito mais próxima (em suas caracterı́sticas efetivas) da teoria quântica construı́da anteriormente para os fótons. Os buracos no “mar” de elétrons, inicialmente identificados, por Dirac, como sendo os prótons, logo foram associados a novas partı́culas, de mesma massa e carga oposta à do elétron. Em 1932, Anderson descobriu experimentalmente uma partı́cula com essas caracterı́sticas, à qual foi dado o nome de pósitron e que se constituiu no primeiro exemplo fı́sico do que se convencionou chamar de anti-matéria. Consubstanciou-se, a partir daı́ a teoria chamada de Eletrodinâmica Quântica, na qual elétrons e pósitrons (ou partı́culas carregadas eletricamente, de spin 1/2) interagiam, de forma não-linear, através da troca de fótons. Assim, no inı́cio da década de 30, eram conhecidos como partı́culas elementares os elétrons, prótons e fótons e haviam sido recentemente propostos o nêutron e o neutrino. A descoberta do nêutron e a proposição, por Heisenberg, de que os núcleos atômicos eram compostos por prótons e nêutrons, conduziu à proposição de uma nova interação (a interação forte), que seria responsabilizada pela estabilidade dos núcleos. A observação do decaimento β (Co60 → Ni60 + e− + ν̄e ), com a subseqüente proposição da existência do neutrino, ao não poder ser explicada por nenhuma das interações já descobertas, implicou na hipótese da existência da interação fraca. Era natural que fossem tentadas descrições dessas interações baseadas na técnica que tão bem havia funcionado no caso da Eletrodinâmica. Em particular, no caso das interações fortes, foi proposto um modelo, por Yukawa, que seguia bem de perto o da Eletrodinâmica, com uma partı́cula de massa diferente de zero (chamada de méson) fazendo 165 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 o papel correspondente ao do fóton. No entanto, como veremos, a história seguiu caminhos bastante tortuosos até que conseguı́ssemos formular um modelo das interações fracas e fortes baseado na Teoria Quântica de Campos. III. O PROBLEMA DOS INFINITOS E SUA SOLUÇÃO Uma das bases da ciência ocidental é o procedimento de incorporar, inicialmente, apenas os aspectos mais relevantes de um determinado fenômeno, deixando para um segundo momento a consideração de efeitos mais sutis e numericamente menores (mas que poderiam complicar excessivamente o problema). Assim, por exemplo, ao considerarmos o problema de estabelecer a órbita da Terra no sistema solar, desprezamos, inicialmente, a atração gravitacional exercida sobre ela pelos outros planetas, para nos concentrarmos naquela oriunda do Sol. Uma vez calculada a órbita sob apenas esta influência, vamos aos poucos incluindo as outras contribuições, chamadas de perturbações (no exemplo, a influência dos planetas, da Lua, o fato da Terra não ser uma distribuição de massa exatamente esférica, etc.) através de uma técnica chamada de teoria de perturbações. O alcance desta técnica é amplo o suficiente para cobrir situações tanto no domı́nio clássico quanto no quântico. Ela se baseia em considerar que a solução exata do problema dependa de algum parâmetro (caracterı́stico da perturbação) que possa ser considerado pequeno em comparação com parâmetros similares, correspondentes ao caso sem perturbações. Se for este o caso, a solução pode ser expressa como uma série de potências neste parâmetro, chamado de constante de acoplamento. Um procedimento algorı́tmico permite, então, o cálculo dos coeficientes desta série, que vão nos dar a solução truncada numa dada potência da constante de acoplamento. Se ela for pequena o suficiente, serão precisos poucos termos na série para dar uma boa idéia do comportamento da solução. Assim, como não poderia deixar de ocorrer, a teoria de perturbações foi aplicada para os fenômenos atômicos onde havia a necessidade de utilizar a Eletrodinâmica Quântica. A constante de acoplamento, neste caso, era a chamada constante de estrutura fina, definida como α := e2 /~c, onde e é a carga do elétron. Esta constante é adimensional e da ordem de 1/137, o que a torna um parâmetro muito conveniente para controlar a aplicação da teoria de perturbações. No entanto, os primeiros cálculos perturbativos, realizados por Heisenberg e Pauli em 1929/30 deram resultados nada animadores: os coeficientes da expansão em potências de α davam infinito! Podia-se “parametrizar” este infinito, requerendo que os momenta dos estados 166 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... intermediários não contribuı́ssem para o cálculo, a partir de um certo Λ (este procedimento é chamado de regularização). Obviamente, dever-se-ia tomar o limite Λ → ∞ ao final da conta. Isso mostrava que os cálculos divergiam seguindo uma lei do tipo 1/Λ2 . Outros cálculos, posteriores, mostraram resultados ambı́guos: em alguns casos, os infinitos se cancelavam, em outros a divergência era menos severa (os cálculos divergiam como ln Λ), enquanto que, em outros, a divergência mencionada anteriormente se confirmava. A sensação generalizada, entre os fı́sicos mais proeminentes da época (o que incluı́a nomes como os de Dirac e Heisenberg), era de que a Teoria Quântica de Campos era inconsistente e que alguma modificação essencial era necessária, embora houvesse trabalhos isolados (como o de Weisskopf) que chamavam a atenção para a possibilidade de os infinitos serem tratáveis. A confusão durou até depois do final da segunda guerra mundial, quando os trabalhos de Schwinger, Feynman, Tomonaga e Dyson, por volta de 1949, foram progressivamente estabelecendo esquemas sistemáticos de cálculos perturbativos, através da definição de regras gráficas que possibilitaram escrever rapidamente as contribuições perturbativas e analisar, de forma organizada, a origem dos infinitos. Descobriu-se, então, que se os parâmetros caracterı́sticos da Eletrodinâmica Quântica (massas e cargas das partı́culas carregadas) fossem tomados como funções do parâmetro regularizador Λ, tais funções podiam ser escolhidas de forma que uma parte dos infinitos podia ser cancelada em qualquer ordem perturbativa. O restante dos infinitos poderia ser descartado considerando que os operadores de campo fossem multiplicados por constantes que, por sua vez, eram tomadas também como funções de Λ, escolhidas ordem por ordem perturbativa para deixar a teoria finita. O procedimento todo recebeu o nome de renormalização. Os cálculos feitos com o auxı́lio da renormalização foram comparados com a experiência, com o sucesso mencionado no inı́cio deste artigo. IV. OUTRAS INTERAÇÕES O sucesso da Eletrodinâmica Quântica, consubstanciado no inı́cio da década de 1950, estimulou a aplicação da Teoria Quântica de Campos à descrição das interações fortes e fracas. Em 1954, Yang e Mills propuseram uma generalização da Eletrodinâmica Quântica, que seria adequada a uma descrição das interações entre prótons e nêutrons (mediada por pı́ons, conforme tinha sido proposto por Yukawa anteriormente). A Eletrodinâmica possui uma simetria, bastante bem conhecida classicamente, a simetria de calibre, que implica na invariância do 167 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 lagrangeano perante as transformações 1 A0µ = Aµ + g−1 ∂µ g, e ψe0 = gψe , onde Aµ é a µ-ésima componente do operador associado ao fóton, ψe representa o operador de campo associado ao elétron e g = e−ieθ(x) , é função de um parâmetro θ arbitrário, dependente de x. O conjunto de todos os g forma um grupo, o grupo das transformações unitárias unidimensonais (chamado de U (1)). Yang e Mills generalizaram as transformações acima para um grupo chamado SU (2) (que pode ser visto como o conjunto das matrizes unitárias 2 × 2 de determinante 1). As matrizes deste grupo misturam campos de prótons com campos de nêutrons 0 a b ψ ψ p = p , c d ψn ψn0 o que se baseia na observação experimental de que próton e nêutron são indistinguı́veis sob a ótica das interações fortes. Ocorre que SU (2) é um grupo não-abeliano (ou seja, tal que dois elementos quaisquer g1 e g2 não necessariamente comutam, g1 g2 6= g2 g1 ). Isto implica numa teoria dinamicamente mais rica que a Eletrodinâmica Quântica, já que prevê, entre outras coisas, a interação entre as partı́culas mediadoras (no caso, os pı́ons). De modo similar, a primeira tentativa de explicação do decaimento β envolvia uma teoria quântica de campos, proposta por Fermi, com uma interação quártica do tipo − P GF √ ψ̄p γ µ ψn ψ̄e γµ ψν , 2 µ onde ψ̄p , ψn , ψ̄e e ψν são os operadores de campo associados, respectivamente, ao próton, nêutron, elétron e neutrino e γ µ (com ı́ndices superiores e inferiores) são as matrizes de Dirac, necessárias para a formulação de qualquer teoria envolvendo férmions. A constante GF , conhecida como constante de Fermi, faz o papel de constante de acoplamento da teoria, e vale aproximadamente, em unidades naturais (~ = c = 1), GF ' 10−5 /m2p , onde mp é a massa do próton. 168 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... As tentativas acima, de utilização da Teoria Quântica de Campos na descrição das interações fortes e fracas, fracassaram por vários motivos distintos [3]. No caso das teorias de Yang-Mills, a generalização proposta implicava em que os pı́ons deveriam ter massa nula, o que não era observado. Além disso, a partir da década de 1950 o número de partı́culas interagindo fortemente cresceu de forma dramática, o que exigia uma teoria mais abrangente das interações fortes. Quanto à teoria de Fermi, logo se viu que o método da renormalização não podia ser aplicado a ela (é uma teoria dita não-renormalizável; se insistı́ssemos e considerássemos os pı́ons com massa, a teoria de Yang-Mills tornava-se não-renormalizável também) e que violava a condição fundamental da unitaridade (requerimento de que a probabilidade total seja conservada). Isto fez com que, na década de 60, a Teoria Quântica de Campos fosse duramente questionada, no que diz respeito às suas aplicações às interações fortes e fracas, em favor de abordagens mais puristas, que visavam avaliar o impacto das simetrias sobre as interações (linha chamada de álgebra de correntes) ou obter conseqüências de princı́pios fundamentais (como unitaridade e invariância de Poincaré) sobre as amplitudes de probalilidade associadas ao espalhamento das partı́culas (a chamada teoria axiomática da matriz S). Estes estudos foram muito importantes e conseguiram estabelecer diversos teoremas com conseqüências experimentais ao longo daqueles anos, que seriam fundamentais para balizar as futuras teorias de campo para essas interações. Mesmo assim, para as interações fracas a teoria de Fermi fornecia uma aproximação qualitativamente razoável (embora, devido aos problemas com a renormalizabilidade e unitaridade, não pudesse ser considerada uma teoria fundamental). Não havia, contudo, uma teoria quântica de campos, nem mesmo aproximada, que fizesse o mesmo pelas interações fortes. No final dos anos 60 a situação estava tão confusa que mesmo os adeptos da abordagem via matriz S não conseguiam ver, em curto prazo, progressos no sentido de propor amplitudes de probabilidade consistentes para os processos caracterı́sticos das interações fortes. Um alento, nesta época, foi a fórmula de Veneziano, que propunha um elemento de matriz S satisfazendo todas as simetrias necessárias, para o espalhamento de partı́culas de spin 0. Ao se procurar modelos dinâmicos que explicassem a amplitude proposta empı́ricamente, progressivamente ficou claro que ela era conseqüência de uma teoria onde o ente fundamental não era mais uma partı́cula (entidade adimensional) mas sim uma corda (que possui uma dimensão linear). As partı́culas observadas seriam excitações desta corda fundamental (seus modos normais) e satisfaziam uma relação entre massa e momentum angular verificada para as interações fortes por Regge. 169 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 O modelo original foi estendido para incluir férmions e, neste processo, descobriu-se que, ao fazer isso, aparecia uma nova simetria entre bósons e férmions que foi chamada de supersimetria. Era a primeira vez que o mundo dos bósons dava indicações de poder se misturar com o dos férmions. No entanto, apesar de tantas caracterı́sticas interessantes, a teoria de cordas apresentava problemas aparentemente incontornáveis: requeria que o espaço-tempo tivesse 10 dimensões, exibia em seu espectro uma partı́cula de spin 2 que nunca apareceu nas interações fortes e, pior que tudo, dava resultados errados para as amplitudes de espalhamento em certos limites. Estes fatos, aliados a novos avanços na teoria quântica de campos (que narramos na próxima seção) acabaram por fazer com que a maior parte dos fı́sicos teóricos abandonasse a teoria de cordas, no inı́cio dos anos 70 [5]. V. A QUEBRA ESPONTÂNEA DE SIMETRIA E A VOLTA DAS TEORIAS DE YANG-MILLS O problema da massa da partı́cula intermediária era comum às interações fortes e fracas, em meados da década de 1960 [4]. De fato, foi proposta uma modificação da teoria de Fermi, na qual eram introduzidas partı́culas mediadoras com massa e carga (as partı́culas W + e W − , cuja massa era necessária devido ao curto alcance das interações fracas). No entanto, devido ao fato da partı́cula intermediária ter massa, os problemas de unitaridade e renormalizabilidade persistiam. Goldstone, no inı́cio dos anos 60, mostrou que, numa situação em que a hamiltoniana que descreve a teoria possui uma dada simetria contı́nua (em termos mais técnicos, a hamiltoniana comuta com o gerador dessa simetria) mas o seu estado fundamental (chamado de vácuo) é degenerado (há vários estados associados à menor energia possı́vel para o sistema) e não é simétrico (não é aniquilado pelo gerador da simetria, mas sim levado em outro vácuo pela ação dele) é possı́vel reparametrizar a teoria de modo que a hamiltoniana pareça não ser simétrica, ao custo do surgimento de um conjunto de partı́culas sem massa (os bósons de Goldstone). A simetria continua existindo, mas escondida, e visualizamos o espectro de partı́culas de outra forma. Este fenômeno foi chamado de quebra espontânea de simetria, e sua inspiração remonta à Fı́sica da Matéria Condensada. O mecanismo, embora extremamente interessante, gerava o problema de descobrir o que aconteceu com os bósons de Goldstone já que, pelo fato de não terem massa, deveriam ser facilmente descobertos nos aceleradores onde, no entanto, não havia 170 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... sinal deles. Então, em 1964, Higgs mostrou que a quebra espontânea de simetria poderia ser usada, no caso da simetria quebrada ser de calibre, para gerar massa para as partı́culas mediadoras. A simetria de calibre possibilitava redefinições dos campos que apareciam no hamiltoniano, que absorviam os bósons de Goldstone e geravam um termo de massa para os campos de calibre. Este era o ingrediente que faltava para a construção de um modelo unificado das interações eletromagnéticas e fracas. Usando todo o conhecimento experimental e teórico obtido sobre as interações fracas e fortes e acumulado ao longo dos últimos 30 anos, Glashow, Weinberg e Salam conseguiram montar (a partir de esforços independentes durante toda a década), em 1968, uma teoria quântica de campos que descrevia, de maneira precisa, as principais caracterı́sticas dessas interações. Era uma teoria de calibre, do tipo daquela proposta por Yang e Mills, baseada em um grupo não-abeliano SU (2)×U (1), onde a matéria (elétrons, múons e neutrinos) era descrita por férmions quirais (autoestados do operador γ5 = iγ 0 γ 1 γ 2 γ 3 , onde os γ µ são as matrices de Dirac, mencionadas anteriormente) e os intermediadores da interação eram bósons vetoriais, análogos ao fóton. Nenhuma partı́cula tinha massa, inicialmente, e o mecanismo de Higgs era o responsável por gerar massa para todas elas, inclusive três dos quatro bósons vetoriais que apareciam no modelo. Estes, após a reparametrização que lhes concedeu massa, se tornaram as partı́culas W + , W − e Z 0 , enquanto o bóson vetorial sem massa foi identificado com o fóton. Em 1983 estas partı́culas foram descobertas experimentalmente, o que se constituiu num grande triunfo para a teoria quântica de campos. No entanto, uma das conseqüências do mecanismo de Higgs é o aparecimento de uma partı́cula escalar fundamental com massa (a primeira a existir na natureza), o bóson de Higgs, que ainda não foi visto experimentalmente. VI. A CROMODINÂMICA QUÂNTICA, A RENORMALIZAÇÃO DE TEORIAS NÃO-ABELIANAS E A LIBERDADE ASSINTÓTICA Paralelamente aos avanços feitos na descrição das interações fracas, em 1964, Gell-Mann and Zweig insinuaram a possibilidade de que as partı́culas que interagiam através das interações fortes (chamadas de hádrons) poderiam ser constituı́das por partı́culas mais elementares, que chamaram de quarks. Na época eles mostraram como conseguiam reproduzir todo o espectro de mésons (hádrons bosônicos) e bárions (hádrons fermiônicos) com o auxı́lio de três quarks férmiônicos (de spin 1/2) chamados de up, down e strange (u, d, s) que possuiam carga elétrica 171 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 fracionária de 2/3, -1/3, -1/3, respectivamente. Embora até mesmo novos hádrons tivessem sido descobertos devido a este esquema classificatório, os quarks foram tratados inicialmente como um artifı́cio curioso e não como partı́culas de verdade, principalmente devido à carga elétrica fracionária, que nunca antes tinha sido observada. Pouco depois, em 1965, Greenberg, Han e Nambu propuseram o conceito de cor, como um novo atributo para os quarks, para resolver um paradoxo associado com o princı́pio de exclusão de Pauli. Tratava-se de um novo número quântico, que nada tinha a ver com a cor no sentido eletromagnético do termo. A cor podia assumir três valores distintos, que foram chamados de red, green e blue. Então, em 1968, Bjorken e Feynman analisaram um experimento de colisão entre elétrons e prótons, no Stanford Linear Accelerator Center (SLAC), e propuseram que os elétrons estavam realmente sendo espalhados por partı́culas constituentes dos prótons (que eles chamaram de pártons). Estimulados por tais análises, entre 1972 e 1973, várias pessoas (Fritzsch, Gell-Mann, Leutwyller, Weinberg, Gross e Wilczek) propuseram, então, uma teoria quântica de campos, novamente do tipo Yang-Mills, para as interações fortes, pensadas agora como sendo interações tı́picas dos quarks. Nesta teoria, a cor desempenhava um papel análogo ao da carga elétrica e, assim, a teoria foi chamada de Cromodinâmica Quântica. As partı́culas que intermediavam a interação foram chamadas de glúons. A teoria era baseada num grupo não abeliano do tipo SU (3), o que fixava o número de glúons em 8. Aos três quarks iniciais foi adicionado um quarto (desde 1964) chamado de charm, que desempenhava um papel importante para compatibilizar dados experimentais relativos às interações fracas (que redundariam na descoberta das correntes neutras). A vitória final da Teoria Quântica de Campos, na descrição das interações eletrofracas e fortes, no entanto, tinha vindo um ano antes, em 1971, quando ’t Hooft apresentou sua demonstração de que as teorias de calibre não-abelianas eram renormalizáveis, mesmo sob a ação do mecanismo de Higgs [7]. Este resultado, juntamente com a formulação dos modelos descritos anteriormente para as três interações, fez com que três das quatro interações conhecidas fossem unificadas em uma única teoria de calibre, baseada no grupo SU (3) × SU 2 × U (1), que hoje recebe o nome de modelo padrão das interações fundamentais. A renormalizabilidade das teorias de Yang-Mills possibilitou a aplicação da técnica do grupo de renormalização, que prevê que, dependendo da energia envolvida em um dado processo, podemos utilizar uma constante de acoplamento efetiva, dependente desta energia, para efetuar nossos cálculos. Com isto, Gross, Politzer e Wilczek descobriram, em 1973, uma propriedade essencial das interações fortes (vis- 172 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... tas a partir do ponto de vista da Cromodinâmica Quântica): a constante de acoplamento efetiva destas interações, que regula a aplicação da teoria de perturbações, diminui de intensidade à medida que a energia do processo em consideração aumenta. Isto possibilitou, pela primeira vez, a aplicação da teoria de perturbações às interações fortes, o que era inviável em qualquer outro cenário teórico proposto até então. VII. PERSPECTIVAS ATUAIS Três das quatro interações acham-se unificadas numa descrição consistente, através das teorias de calibre não-abelianas. Resta ainda incluir a gravitação, a primeira interação a ser estudada quantitativamente, numa descrição que respeite os princı́pios quânticos e relativı́sticos. A grande maioria dos fı́sicos que hoje se dedica a esta tarefa acredita que a resposta pode estar na reabilitação da teoria das cordas, proposta no inı́cio da década de 80 por Green e Schwarz [8]. Eles propuseram que o que havia de errado com a teoria das cordas era o contexto ao qual se pensava inicialmente que elas se aplicassem (no caso, as interações fortes). Se a teoria fosse considerada como descrevendo a Fı́sica em distâncias da ordem do comprimento de Planck (um comprimento tı́pico de uma teoria onde a gravitação seja importante, tal como r ~GN LP = ' 1, 6 × 10−33 cm c3 onde GN é a constante de Newton), então a partı́cula de spin 2 poderia corresponder ao gráviton (a partı́cula intermediária da interação gravitacional), as dimensões a mais poderiam ser consideradas pequenas demais para serem vistas mesmo na escala atômica e, como não pretendia ser uma teoria somente das interações fortes, não teria que reproduzir as suas amplitudes de espalhamento. Desenvolvimentos posteriores mostraram que o limite desta teoria em grandes distâncias (ou seja, as distâncias atualmente acessı́veis aos nossos experimentos) coincide com os modelos citados acima, que abordam as outras três interações. No entanto, não há uma maneira única de formular a teoria das cordas, considerada como teoria fundamental da natureza, mas cinco maneiras distintas. Recentemente Witten mostrou que estas cinco teorias parecem ser aspectos diferentes de uma mesma teoria, que seria mais fundamental, e que foi chamada de teoria M. A dificuldade de investigar experimentalmente distâncias da ordem de LP impede um progresso mais decisivo da teoria das cordas, embora os desenvolvimentos teóricos tenham sido fantásticos ao longo das últimas duas décadas. 173 Sebastião Alves Dias CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 Em 2007 entrará em operação o Large Hadron Collider (LHC), na Organisation Européenne pour la Recherche Nucléaire (CERN, localizada na Suı́ça), que vai se constituir no mais potente acelerador de partı́culas construı́do até hoje. Há intensa expectativa quanto à descoberta do bóson de Higgs (o que legitimaria definitivamente o mecanismo de geração de massas proposto no modelo padrão) e de partı́culas supersimétricas (que dariam sinais na direção da viabilidade da teoria das cordas, além de clarear certas questões técnicas do modelo padrão). Também se espera poder investigar a questão da existência ou não de dimensões extras. Sejam quais forem os resultados obtidos, sabemos, no entanto, que a Teoria Quântica de Campos continuará a ser o principal instrumento de análise teórica a ser aplicado ao estranho e fascinante mundo das partı́culas elementares. VIII. AGRADECIMENTOS Gostaria de expressar os mais profundos agradecimentos aos meus amigos, professores da UEFS, Antônio Vieira de Andrade Neto, Franz Peter Alves Farias, Germano Pinto Guedes e Milton Souza Ribeiro, pelo convite para falar sobre Teoria Quântica de Campos, pela acolhida e pelo ambiente extremamente estimulante propiciado por eles, durante a IX semana de Fı́sica da UEFS. E também ao meu amigo, professor da UFRJ, Carlos Farina de Souza, igualmente convidado para o evento, que me estimulou imensamente na redação destas notas e de quem assisti aulas brilhantes sobre o papel do vetor de Runge-Lenz nos problemas de forças centrais, durante a mesma semana de Fı́sica. A todos vocês, muito obrigado! [1] Para uma história dos primórdios da Teoria Quântica de Campos e uma lista detalhada dos artigos originais mais influentes na sua constituição, veja o capı́tulo 1 de S. Weinberg, The Quantum Theory of Fields, vol. 1, 1a edição, Cambridge University Press, Cambridge, 1995. [2] Uma abordagem histórica dos primórdios da Mecânica Quântica, inclusive com uma demonstração do teorema de Rayleigh e Jeans, é dada no capı́tulo 15 de J. Leite Lopes, A Estrutura Quântica da Matéria, 3a edição, Editora UFRJ, Rio de Janeiro, 2005. [3] Uma discussão (mais técnica) sobre as motivos pelos quais as teorias de Yang-Mills e Fermi falharam ao descrever as interações fortes e fracas, respectivamente, pode ser encontrada nos capı́tulos 8 (seção 8.1) e 11 (seção 11.1) de T.-P. Cheng e L.-F. Li, Gauge Theory of Elementary Particle Physics, 1a edição, Clarendon Press, Oxford, 1984. 174 CADERNO DE FÍSICA DA UEFS 04, (01 e 02): 161-175, 2006 A Teoria Quântica de ... [4] O panorama histórico detalhado, com descrições de todos os problemas que apareceram no estudo das interações eletrofracas (além do problema da massa do bóson vetorial intermediário, citado no texto) e listas de referências bastante completas, podem ser encontrados nas Nobel Lectures de Glashow, Salam e Weinberg, acessı́veis nos endereços eletrônicos abaixo: http://nobelprize.org/nobel prizes/physics/laureates/1979/glashow-lecture.pdf http://nobelprize.org/nobel prizes/physics/laureates/1979/salam-lecture.pdf http://nobelprize.org/nobel prizes/physics/laureates/1979/weinberg-lecture.pdf [5] Pode-se encontrar bastante informação sobre a teoria das cordas, como foi proposta no final dos anos 60, nos artigos de revisão de Scherk (Rev. Mod. Phys. 47 (1975), 123) e Mandelstam (Phys. Rep. 13 (1974), 259). [6] Uma visão geral, incluindo o lado experimental, das partı́culas elementares hoje conhecidas pode ser encontrada no site do Particle Data Group, vinculado ao Lawrence Berkeley National Laboratory, nos Estados Unidos, intitulado The Particle Adventure, no endereço: http://www.particleadventure.org/index.html . [7] Veja a história deste conceito e uma descrição do procedimento de renormalização nos endereços eletrônicos abaixo: http://nobelprize.org/nobel prizes/physics/laureates/1999/thooft-autobio.html http://nobelprize.org/nobel prizes/physics/laureates/1999/thooft-lecture.pdf [8] Para uma introdução qualitativa à teoria das cordas, veja B. Greene, O Universo Elegante, Companhia das Letras, São Paulo, 2001. Uma abordagem técnica do assunto pode ser encontrada em J. Polchinski, String Theory, volumes I e II, Cambridge University Press, Cambridge, 1998. SOBRE O AUTOR Sebastião Alves Dias - Doutor em Fı́sica pelo CBPF, é Pesquisador Adjunto B II do Centro Brasileiro de Pesquisas Fı́sicas. e-mail: [email protected] 175