CADERNO DE FÍSICA DA UEFS 04 (01 e 02):
161-175, 2006
A TEORIA QUÂNTICA DE CAMPOS E SEU PAPEL NA DESCRIÇÃO
DAS INTERAÇÕES FUNDAMENTAIS∗
Sebastião Alves Dias
Centro Brasileiro de Pesquisas Fı́sica - CBPF
Apresentamos um histórico do desenvolvimento da descrição de três interações fundamentais (eletrodinâmica, interações fracas e fortes), ressaltando o papel da teoria quântica de
campos como unificadora dos princı́pios da relatividade especial e da mecânica quântica.
Tópicos relacionados, como a renormalização, a quebra espontânea de simetria e a liberdade
assintótica também são brevemente abordados.
I.
INTRODUÇÃO
A descrição atual da natureza, no seu nı́vel mais fundamental, vale-se da hipótese da existência de quatro interações: a forte, caracterizada por uma constante de acoplamento, αs ,
da ordem da unidade, responsável pelas forças entre prótons e neutrons; a eletromagnética,
controlada pela constante de estrutura fina, α = e2 /~c, cem vezes mais fraca que a anterior; a fraca, de magnitude tı́pica mil vezes menor que a eletromagnética; e a gravitacional,
10−34 vezes mais tênue que a fraca. Todas as interações são descritas por modelos que se baseiam na troca de partı́culas de spin ou helicidade inteiros (com ou sem massa) chamadas de
bósons, entre partı́culas de spin ou helicidade semi-inteiros (chamadas de férmions, também
com ou sem massa), dentro de um contexto teórico consistente com a Mecânica Quântica e
a Relatividade Especial. A Gravitação resiste, até o momento, a uma descrição compatı́vel
com a Mecânica Quântica. Devido ao curtı́ssimo alcance das interações fortes e fracas (em
geral, intranuclear), a maioria dos fenômenos que ocorrem desde a escala atômica até a ordem do tamanho do universo pode ser atualmente descrita pela Eletrodinâmica (distâncias
interatômicas) e pela Gravitação (distâncias desde metros até anos-luz ou mais). A incompatibilidade entre Gravitação e Mecânica Quântica não tem efeitos observacionais registrados
até agora, dada a extrema pequenez das possı́veis correções gravitacionais a fenômenos nos
∗
Este trabalho é oriundo da palestra apresentada pelo autor na IX Semana de Fı́sica da UEFS ocorrida no
perı́odo de 18 a 22 de setembro de 2006.
161
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
domı́nios atômico e sub-atômico. A Eletrodinâmica, contudo, não poderia descrever adequadamente estes domı́nios sem ser consistente com os princı́pios quânticos. Houve, pois, uma necessidade histórica de construir uma teoria para os fenômenos eletromagnéticos que obedecesse a
esses requerimentos.
A teoria que emergiu deste contexto foi a Eletrodinâmica Quântica. As suas previsões têm
o maior grau de concordância com os dados experimentais alcançado pela Fı́sica até hoje.
Poderı́amos citar, como exemplo, o cálculo do momento magnético anômalo do elétron, onde a
previsão teórica (1, 00115965221 ± 4 no último dı́gito) concorda com o valor medido em nove
casas decimais (1, 00115965246 ± 19 nos últimos dois dı́gitos). Feynman comparou a precisão
desta medida com a que seria pretendida caso se desejasse medir a distância entre Los Angeles
e Nova Iorque com o erro menor que a espessura de um fio de cabelo. A base sobre a qual se
funda essa teoria é o casamento entre a Relatividade Especial e a Mecânica Quântica, obtido
através da Teoria Quântica de Campos. Este é um formalismo que acomoda situações em que
o número de partı́culas não permanece constante, sendo, portanto, compatı́vel com a descrição
de processos como a emissão ou absorção de fótons por átomos, ou a criação ou aniquilação de
pares elétron-pósitron.
As teorias de campos, em geral, fazem uso de objetos matemáticos chamados distribuições,
ou funções generalizadas. Os campos quânticos são considerados como distribuições que tomam
valores em operadores. Em geral, precisamos considerar situações em que aparecem produtos
de campos no mesmo ponto, o que implica em considerar produtos de distribuições, os quais
não estão definidos em geral. Esse fato poderia invalidar toda a estratégia básica das teorias
quânticas de campos, se não houvesse uma classe dessas teorias onde este problema pode ser
contornado. Tais teorias são chamadas de renormalizáveis. A Eletrodinâmica Quântica foi a
primeira teoria de campos realista que se mostrou renormalizável. Graças a este fato, ela se
tornou o protótipo para a construção das teorias para as interações fracas e fortes. Isso se deu
a partir da generalização do conceito de simetria de calibre, ou de gauge. Esse conceito está na
origem da renormalizabilidade da Eletrodinâmica e foi o guia para a construção e interpretação
das outras teorias fundamentais.
Neste seminário procuraremos mostrar o desenvolvimento da Teoria Quântica de Campos,
a partir dos sucessos conseguidos na descrição de três das quatro interações [1]. Ao final,
discutiremos brevemente a situação atual e as perspectivas da área.
162
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
II.
161-175, 2006
A Teoria Quântica de ...
ORIGENS DA TEORIA QUÂNTICA DE CAMPOS
O século XX inaugura uma era de restrições ao modo pelo qual achávamos que podı́amos
conhecer o mundo. A primeira delas é o reconhecimento (a partir de bases experimentais) de
que não é possı́vel transmitir informação com velocidade infinita e que a velocidade máxima é
a velocidade da luz. A segunda restrição diz respeito à precisão com que podemos medir simultaneamente alguns observáveis fı́sicos (posição e momentum linear são exemplos de tais observáveis), quando consideramos dimensões atômicas ou menores. Tais observáveis são chamados de incompatı́veis, pois foi reconhecida a impossibilidade de conhecê-los simultaneamente
com precisão arbitrária (quanto mais preciso fosse o conhecimento de um, mais impreciso seria o do outro). As conseqüências dessas restrições foram revolucionárias para toda a Fı́sica.
A primeira levou ao desenvolvimento da Relatividade Especial, enquanto a segunda levou à
Mecânica Quântica. A consideração de domı́nios da realidade onde fosse necessário levar em
conta os dois tipos de restrições levou naturalmente à tentativa de estabelecer uma teoria em
que ambos os princı́pios estivessem satisfeitos. Tais questões apareceram já nos primeiros fatos
experimentais que marcaram o desenvolvimento da Mecânica Quântica. O problema do espectro de radiação emitido por um corpo negro, o efeito fotoelétrico e o efeito Compton (e, um
pouco depois disso, a descoberta do spin), são exemplos de situações em que as dimensões e
velocidades envolvidas exigem as duas teorias.
A Teoria Quântica de Campos já se insinua como necessária na descrição do mundo subatômico desde a análise do campo eletromagnético numa cavidade, feita por Rayleigh e Jeans
em seu trabalho pioneiro sobre a radiação emitida por um corpo negro. Neste trabalho, é
notado que o sistema dinâmico dado pelo campo eletromagnético clássico é equivalente a um
outro, consistindo em infinitos osciladores harmônicos desacoplados, cada um oscilando com
uma freqüência diferente, distribuı́da entre zero e infinito [2]. Mas uma teoria de campos
(livre) é sempre equivalente a um sistema de infinitos osciladores harmônicos livres, como
descrito acima. O fato de Planck e Einstein observarem, posteriormente, a necessidade de
que a energia estivesse distribuı́da em pacotes (quanta) implica, do ponto de vista formal, em
simplesmente considerar a versão quântica de cada um destes infinitos osciladores harmônicos,
o que representa a forma padrão de quantizar uma teoria clássica de campos (neste caso a
Eletrodinâmica).
Assim, a Eletrodinâmica foi a primeira teoria clássica de campos a ser quantizada. Isto foi
163
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
feito através da associação de operadores aos seus graus de liberdade clássicos (as componentes
do quadrivetor potencial eletromagnético), os quais, por sua vez, dependiam das coordenadas
espaço-temporais. Aqui é preciso marcar a diferença entre esta quantização e a que foi feita
por Schrödinger e Heisenberg no caso não-relativı́stico: as coordenadas espaciais são apenas
parâmetros que indexam os verdadeiros graus de liberdade do sistema dinâmico. A quantização
resulta num espaço de estados onde um autoestado do operador de momentum,
P µ |pµ , εi = pµ |pµ , εi ,
pµ pµ = 0,
é associado com uma partı́cula elementar com quadrimomentum pµ e helicidade (projeção do
momentum angular na direção do movimento da partı́cula) ε = ±1. O estado acima é também
autoestado de outros observáveis (carga elétrica, número bariônico, número leptônico, etc.),
com autovalores que correspondem ao fóton. Isso reforça a identificação feita entre o estado e
a presença de um fóton. Um estado de n fótons pode ser indicado pelo sı́mbolo
|pµ1 , ε1 , pµ2 , ε2 ....pµn , εn i .
Na ausência de interações, estes estados seriam estacionários (não haveria transição entre um
estado com n fótons e um outro com m fótons). Dada a presença de correntes externas dadas,
interagindo com o campo eletromagnético quantizado, tais transições podem ocorrer e vemos
que o número de partı́culas não necessariamente se conserva. Em outras palavras, pode haver
criação ou aniquilação de partı́culas (neste caso, fótons). Esta é uma caracterı́stica de qualquer
teoria quântica e relativista de campos. A ênfase deixa de ser na entidade (antes tida como
indestrutı́vel) representada pela partı́cula e passa a ser na conservação da energia e de outros
números quânticos relevantes.
A concepção acima não prevaleceu imediatamente para os demais tipos de partı́culas elementares, particularmente aqueles para os quais essas partı́culas possuiam massas diferentes
de zero. Dirac, em 1930, propôs uma teoria quântica e relativista para o elétron introduzindo
novos graus de liberdade internos (que seriam identificados com o spin) mantendo, contudo,
a identificação das coordenadas de posição como sendo os graus de liberdade fundamentais
do sistema (o que implicava na “indestrutibilidade” do elétron). No entanto, o fato de ele
não ter conseguido escrever uma hamiltoniana que possuı́sse um estado de energia mı́nima
fazia com que sua teoria fosse instável (elétrons de energia positiva poderiam perder energia
164
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
indefinidamente, através de interações com fótons ou campos externos dados). Para resolver
este problema, Dirac postulou a existência de um número infinito de elétrons, prenchendo todos os nı́veis acessı́veis de energia negativa (que não seriam observados) e evitando (devido ao
princı́pio de exclusão de Pauli) que um elétron pudesse decair para nı́veis de energia iguais ou
abaixo de −mc2 . Elétrons de energia negativa poderiam ser excitados a nı́veis de energia positiva, deixando conseqüências observáveis no “mar de elétrons” de energia negativa, que seriam
vistas como buracos (partı́culas que se comportariam como sendo de energia positiva, mas com
carga e componente de spin opostas). Similarmente, elétrons de energia positiva poderiam
emitir um fóton e ocupar a posição vaga no “mar”, tornando-se então inobserváveis (ou seja,
desaparecendo, na prática). Estava, assim, aberta a possibilidade de criação e aniquilação de
pares de partı́culas com massa não-nula, o que, na época, pareceu extremamente bizarro aos
olhos da comunidade dos fı́sicos. Subrepticiamente, passava-se, também, de uma teoria de uma
única partı́cula para uma teoria sem número definido de partı́culas, muito mais próxima (em
suas caracterı́sticas efetivas) da teoria quântica construı́da anteriormente para os fótons.
Os buracos no “mar” de elétrons, inicialmente identificados, por Dirac, como sendo os
prótons, logo foram associados a novas partı́culas, de mesma massa e carga oposta à do elétron.
Em 1932, Anderson descobriu experimentalmente uma partı́cula com essas caracterı́sticas, à
qual foi dado o nome de pósitron e que se constituiu no primeiro exemplo fı́sico do que se
convencionou chamar de anti-matéria. Consubstanciou-se, a partir daı́ a teoria chamada de
Eletrodinâmica Quântica, na qual elétrons e pósitrons (ou partı́culas carregadas eletricamente,
de spin 1/2) interagiam, de forma não-linear, através da troca de fótons.
Assim, no inı́cio da década de 30, eram conhecidos como partı́culas elementares os elétrons,
prótons e fótons e haviam sido recentemente propostos o nêutron e o neutrino. A descoberta
do nêutron e a proposição, por Heisenberg, de que os núcleos atômicos eram compostos por
prótons e nêutrons, conduziu à proposição de uma nova interação (a interação forte), que
seria responsabilizada pela estabilidade dos núcleos. A observação do decaimento β (Co60 →
Ni60 + e− + ν̄e ), com a subseqüente proposição da existência do neutrino, ao não poder ser
explicada por nenhuma das interações já descobertas, implicou na hipótese da existência da
interação fraca. Era natural que fossem tentadas descrições dessas interações baseadas na
técnica que tão bem havia funcionado no caso da Eletrodinâmica. Em particular, no caso
das interações fortes, foi proposto um modelo, por Yukawa, que seguia bem de perto o da
Eletrodinâmica, com uma partı́cula de massa diferente de zero (chamada de méson) fazendo
165
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
o papel correspondente ao do fóton. No entanto, como veremos, a história seguiu caminhos
bastante tortuosos até que conseguı́ssemos formular um modelo das interações fracas e fortes
baseado na Teoria Quântica de Campos.
III.
O PROBLEMA DOS INFINITOS E SUA SOLUÇÃO
Uma das bases da ciência ocidental é o procedimento de incorporar, inicialmente, apenas os
aspectos mais relevantes de um determinado fenômeno, deixando para um segundo momento
a consideração de efeitos mais sutis e numericamente menores (mas que poderiam complicar
excessivamente o problema). Assim, por exemplo, ao considerarmos o problema de estabelecer
a órbita da Terra no sistema solar, desprezamos, inicialmente, a atração gravitacional exercida
sobre ela pelos outros planetas, para nos concentrarmos naquela oriunda do Sol. Uma vez calculada a órbita sob apenas esta influência, vamos aos poucos incluindo as outras contribuições,
chamadas de perturbações (no exemplo, a influência dos planetas, da Lua, o fato da Terra
não ser uma distribuição de massa exatamente esférica, etc.) através de uma técnica chamada
de teoria de perturbações. O alcance desta técnica é amplo o suficiente para cobrir situações
tanto no domı́nio clássico quanto no quântico. Ela se baseia em considerar que a solução exata do problema dependa de algum parâmetro (caracterı́stico da perturbação) que possa ser
considerado pequeno em comparação com parâmetros similares, correspondentes ao caso sem
perturbações. Se for este o caso, a solução pode ser expressa como uma série de potências
neste parâmetro, chamado de constante de acoplamento. Um procedimento algorı́tmico permite, então, o cálculo dos coeficientes desta série, que vão nos dar a solução truncada numa
dada potência da constante de acoplamento. Se ela for pequena o suficiente, serão precisos
poucos termos na série para dar uma boa idéia do comportamento da solução.
Assim, como não poderia deixar de ocorrer, a teoria de perturbações foi aplicada para
os fenômenos atômicos onde havia a necessidade de utilizar a Eletrodinâmica Quântica. A
constante de acoplamento, neste caso, era a chamada constante de estrutura fina, definida
como α := e2 /~c, onde e é a carga do elétron. Esta constante é adimensional e da ordem de
1/137, o que a torna um parâmetro muito conveniente para controlar a aplicação da teoria de
perturbações. No entanto, os primeiros cálculos perturbativos, realizados por Heisenberg e Pauli
em 1929/30 deram resultados nada animadores: os coeficientes da expansão em potências de α
davam infinito! Podia-se “parametrizar” este infinito, requerendo que os momenta dos estados
166
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
intermediários não contribuı́ssem para o cálculo, a partir de um certo Λ (este procedimento
é chamado de regularização). Obviamente, dever-se-ia tomar o limite Λ → ∞ ao final da
conta. Isso mostrava que os cálculos divergiam seguindo uma lei do tipo 1/Λ2 . Outros cálculos,
posteriores, mostraram resultados ambı́guos: em alguns casos, os infinitos se cancelavam, em
outros a divergência era menos severa (os cálculos divergiam como ln Λ), enquanto que, em
outros, a divergência mencionada anteriormente se confirmava. A sensação generalizada, entre
os fı́sicos mais proeminentes da época (o que incluı́a nomes como os de Dirac e Heisenberg),
era de que a Teoria Quântica de Campos era inconsistente e que alguma modificação essencial
era necessária, embora houvesse trabalhos isolados (como o de Weisskopf) que chamavam a
atenção para a possibilidade de os infinitos serem tratáveis.
A confusão durou até depois do final da segunda guerra mundial, quando os trabalhos de
Schwinger, Feynman, Tomonaga e Dyson, por volta de 1949, foram progressivamente estabelecendo esquemas sistemáticos de cálculos perturbativos, através da definição de regras gráficas
que possibilitaram escrever rapidamente as contribuições perturbativas e analisar, de forma
organizada, a origem dos infinitos. Descobriu-se, então, que se os parâmetros caracterı́sticos
da Eletrodinâmica Quântica (massas e cargas das partı́culas carregadas) fossem tomados como
funções do parâmetro regularizador Λ, tais funções podiam ser escolhidas de forma que uma
parte dos infinitos podia ser cancelada em qualquer ordem perturbativa. O restante dos infinitos poderia ser descartado considerando que os operadores de campo fossem multiplicados
por constantes que, por sua vez, eram tomadas também como funções de Λ, escolhidas ordem
por ordem perturbativa para deixar a teoria finita. O procedimento todo recebeu o nome de
renormalização. Os cálculos feitos com o auxı́lio da renormalização foram comparados com a
experiência, com o sucesso mencionado no inı́cio deste artigo.
IV.
OUTRAS INTERAÇÕES
O sucesso da Eletrodinâmica Quântica, consubstanciado no inı́cio da década de 1950, estimulou a aplicação da Teoria Quântica de Campos à descrição das interações fortes e fracas.
Em 1954, Yang e Mills propuseram uma generalização da Eletrodinâmica Quântica, que seria
adequada a uma descrição das interações entre prótons e nêutrons (mediada por pı́ons, conforme tinha sido proposto por Yukawa anteriormente). A Eletrodinâmica possui uma simetria,
bastante bem conhecida classicamente, a simetria de calibre, que implica na invariância do
167
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
lagrangeano perante as transformações
1
A0µ = Aµ + g−1 ∂µ g,
e
ψe0 = gψe ,
onde Aµ é a µ-ésima componente do operador associado ao fóton, ψe representa o operador de
campo associado ao elétron e
g = e−ieθ(x) ,
é função de um parâmetro θ arbitrário, dependente de x. O conjunto de todos os g forma um
grupo, o grupo das transformações unitárias unidimensonais (chamado de U (1)). Yang e Mills
generalizaram as transformações acima para um grupo chamado SU (2) (que pode ser visto
como o conjunto das matrizes unitárias 2 × 2 de determinante 1). As matrizes deste grupo
misturam campos de prótons com campos de nêutrons

 


0
a b
ψ
ψ

 p  =  p ,
c d
ψn
ψn0
o que se baseia na observação experimental de que próton e nêutron são indistinguı́veis sob a
ótica das interações fortes. Ocorre que SU (2) é um grupo não-abeliano (ou seja, tal que dois
elementos quaisquer g1 e g2 não necessariamente comutam, g1 g2 6= g2 g1 ). Isto implica numa
teoria dinamicamente mais rica que a Eletrodinâmica Quântica, já que prevê, entre outras
coisas, a interação entre as partı́culas mediadoras (no caso, os pı́ons).
De modo similar, a primeira tentativa de explicação do decaimento β envolvia uma teoria
quântica de campos, proposta por Fermi, com uma interação quártica do tipo
−
P GF
√ ψ̄p γ µ ψn ψ̄e γµ ψν ,
2
µ
onde ψ̄p , ψn , ψ̄e e ψν são os operadores de campo associados, respectivamente, ao próton,
nêutron, elétron e neutrino e γ µ (com ı́ndices superiores e inferiores) são as matrizes de Dirac,
necessárias para a formulação de qualquer teoria envolvendo férmions. A constante GF , conhecida como constante de Fermi, faz o papel de constante de acoplamento da teoria, e vale
aproximadamente, em unidades naturais (~ = c = 1),
GF ' 10−5 /m2p ,
onde mp é a massa do próton.
168
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
As tentativas acima, de utilização da Teoria Quântica de Campos na descrição das interações
fortes e fracas, fracassaram por vários motivos distintos [3]. No caso das teorias de Yang-Mills,
a generalização proposta implicava em que os pı́ons deveriam ter massa nula, o que não era observado. Além disso, a partir da década de 1950 o número de partı́culas interagindo fortemente
cresceu de forma dramática, o que exigia uma teoria mais abrangente das interações fortes.
Quanto à teoria de Fermi, logo se viu que o método da renormalização não podia ser aplicado
a ela (é uma teoria dita não-renormalizável; se insistı́ssemos e considerássemos os pı́ons com
massa, a teoria de Yang-Mills tornava-se não-renormalizável também) e que violava a condição
fundamental da unitaridade (requerimento de que a probabilidade total seja conservada). Isto
fez com que, na década de 60, a Teoria Quântica de Campos fosse duramente questionada,
no que diz respeito às suas aplicações às interações fortes e fracas, em favor de abordagens
mais puristas, que visavam avaliar o impacto das simetrias sobre as interações (linha chamada
de álgebra de correntes) ou obter conseqüências de princı́pios fundamentais (como unitaridade
e invariância de Poincaré) sobre as amplitudes de probalilidade associadas ao espalhamento
das partı́culas (a chamada teoria axiomática da matriz S). Estes estudos foram muito importantes e conseguiram estabelecer diversos teoremas com conseqüências experimentais ao longo
daqueles anos, que seriam fundamentais para balizar as futuras teorias de campo para essas
interações.
Mesmo assim, para as interações fracas a teoria de Fermi fornecia uma aproximação qualitativamente razoável (embora, devido aos problemas com a renormalizabilidade e unitaridade,
não pudesse ser considerada uma teoria fundamental). Não havia, contudo, uma teoria quântica
de campos, nem mesmo aproximada, que fizesse o mesmo pelas interações fortes. No final dos
anos 60 a situação estava tão confusa que mesmo os adeptos da abordagem via matriz S não
conseguiam ver, em curto prazo, progressos no sentido de propor amplitudes de probabilidade
consistentes para os processos caracterı́sticos das interações fortes. Um alento, nesta época, foi
a fórmula de Veneziano, que propunha um elemento de matriz S satisfazendo todas as simetrias
necessárias, para o espalhamento de partı́culas de spin 0. Ao se procurar modelos dinâmicos
que explicassem a amplitude proposta empı́ricamente, progressivamente ficou claro que ela era
conseqüência de uma teoria onde o ente fundamental não era mais uma partı́cula (entidade
adimensional) mas sim uma corda (que possui uma dimensão linear). As partı́culas observadas
seriam excitações desta corda fundamental (seus modos normais) e satisfaziam uma relação
entre massa e momentum angular verificada para as interações fortes por Regge.
169
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
O modelo original foi estendido para incluir férmions e, neste processo, descobriu-se que, ao
fazer isso, aparecia uma nova simetria entre bósons e férmions que foi chamada de supersimetria.
Era a primeira vez que o mundo dos bósons dava indicações de poder se misturar com o
dos férmions. No entanto, apesar de tantas caracterı́sticas interessantes, a teoria de cordas
apresentava problemas aparentemente incontornáveis: requeria que o espaço-tempo tivesse 10
dimensões, exibia em seu espectro uma partı́cula de spin 2 que nunca apareceu nas interações
fortes e, pior que tudo, dava resultados errados para as amplitudes de espalhamento em certos
limites. Estes fatos, aliados a novos avanços na teoria quântica de campos (que narramos na
próxima seção) acabaram por fazer com que a maior parte dos fı́sicos teóricos abandonasse a
teoria de cordas, no inı́cio dos anos 70 [5].
V.
A QUEBRA ESPONTÂNEA DE SIMETRIA E A VOLTA DAS TEORIAS DE
YANG-MILLS
O problema da massa da partı́cula intermediária era comum às interações fortes e fracas,
em meados da década de 1960 [4]. De fato, foi proposta uma modificação da teoria de Fermi,
na qual eram introduzidas partı́culas mediadoras com massa e carga (as partı́culas W + e W − ,
cuja massa era necessária devido ao curto alcance das interações fracas). No entanto, devido ao
fato da partı́cula intermediária ter massa, os problemas de unitaridade e renormalizabilidade
persistiam.
Goldstone, no inı́cio dos anos 60, mostrou que, numa situação em que a hamiltoniana que
descreve a teoria possui uma dada simetria contı́nua (em termos mais técnicos, a hamiltoniana
comuta com o gerador dessa simetria) mas o seu estado fundamental (chamado de vácuo) é
degenerado (há vários estados associados à menor energia possı́vel para o sistema) e não é
simétrico (não é aniquilado pelo gerador da simetria, mas sim levado em outro vácuo pela ação
dele) é possı́vel reparametrizar a teoria de modo que a hamiltoniana pareça não ser simétrica,
ao custo do surgimento de um conjunto de partı́culas sem massa (os bósons de Goldstone). A
simetria continua existindo, mas escondida, e visualizamos o espectro de partı́culas de outra
forma. Este fenômeno foi chamado de quebra espontânea de simetria, e sua inspiração remonta
à Fı́sica da Matéria Condensada. O mecanismo, embora extremamente interessante, gerava o
problema de descobrir o que aconteceu com os bósons de Goldstone já que, pelo fato de não
terem massa, deveriam ser facilmente descobertos nos aceleradores onde, no entanto, não havia
170
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
sinal deles.
Então, em 1964, Higgs mostrou que a quebra espontânea de simetria poderia ser usada, no
caso da simetria quebrada ser de calibre, para gerar massa para as partı́culas mediadoras. A
simetria de calibre possibilitava redefinições dos campos que apareciam no hamiltoniano, que
absorviam os bósons de Goldstone e geravam um termo de massa para os campos de calibre.
Este era o ingrediente que faltava para a construção de um modelo unificado das interações
eletromagnéticas e fracas. Usando todo o conhecimento experimental e teórico obtido sobre as
interações fracas e fortes e acumulado ao longo dos últimos 30 anos, Glashow, Weinberg e Salam
conseguiram montar (a partir de esforços independentes durante toda a década), em 1968, uma
teoria quântica de campos que descrevia, de maneira precisa, as principais caracterı́sticas dessas
interações. Era uma teoria de calibre, do tipo daquela proposta por Yang e Mills, baseada em
um grupo não-abeliano SU (2)×U (1), onde a matéria (elétrons, múons e neutrinos) era descrita
por férmions quirais (autoestados do operador γ5 = iγ 0 γ 1 γ 2 γ 3 , onde os γ µ são as matrices de
Dirac, mencionadas anteriormente) e os intermediadores da interação eram bósons vetoriais,
análogos ao fóton. Nenhuma partı́cula tinha massa, inicialmente, e o mecanismo de Higgs era
o responsável por gerar massa para todas elas, inclusive três dos quatro bósons vetoriais que
apareciam no modelo. Estes, após a reparametrização que lhes concedeu massa, se tornaram
as partı́culas W + , W − e Z 0 , enquanto o bóson vetorial sem massa foi identificado com o fóton.
Em 1983 estas partı́culas foram descobertas experimentalmente, o que se constituiu num grande
triunfo para a teoria quântica de campos. No entanto, uma das conseqüências do mecanismo de
Higgs é o aparecimento de uma partı́cula escalar fundamental com massa (a primeira a existir
na natureza), o bóson de Higgs, que ainda não foi visto experimentalmente.
VI.
A CROMODINÂMICA QUÂNTICA, A RENORMALIZAÇÃO DE TEORIAS
NÃO-ABELIANAS E A LIBERDADE ASSINTÓTICA
Paralelamente aos avanços feitos na descrição das interações fracas, em 1964, Gell-Mann and
Zweig insinuaram a possibilidade de que as partı́culas que interagiam através das interações
fortes (chamadas de hádrons) poderiam ser constituı́das por partı́culas mais elementares, que
chamaram de quarks. Na época eles mostraram como conseguiam reproduzir todo o espectro
de mésons (hádrons bosônicos) e bárions (hádrons fermiônicos) com o auxı́lio de três quarks
férmiônicos (de spin 1/2) chamados de up, down e strange (u, d, s) que possuiam carga elétrica
171
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
fracionária de 2/3, -1/3, -1/3, respectivamente. Embora até mesmo novos hádrons tivessem
sido descobertos devido a este esquema classificatório, os quarks foram tratados inicialmente
como um artifı́cio curioso e não como partı́culas de verdade, principalmente devido à carga
elétrica fracionária, que nunca antes tinha sido observada. Pouco depois, em 1965, Greenberg,
Han e Nambu propuseram o conceito de cor, como um novo atributo para os quarks, para
resolver um paradoxo associado com o princı́pio de exclusão de Pauli. Tratava-se de um novo
número quântico, que nada tinha a ver com a cor no sentido eletromagnético do termo. A cor
podia assumir três valores distintos, que foram chamados de red, green e blue.
Então, em 1968, Bjorken e Feynman analisaram um experimento de colisão entre elétrons e
prótons, no Stanford Linear Accelerator Center (SLAC), e propuseram que os elétrons estavam
realmente sendo espalhados por partı́culas constituentes dos prótons (que eles chamaram de
pártons). Estimulados por tais análises, entre 1972 e 1973, várias pessoas (Fritzsch, Gell-Mann,
Leutwyller, Weinberg, Gross e Wilczek) propuseram, então, uma teoria quântica de campos,
novamente do tipo Yang-Mills, para as interações fortes, pensadas agora como sendo interações
tı́picas dos quarks. Nesta teoria, a cor desempenhava um papel análogo ao da carga elétrica
e, assim, a teoria foi chamada de Cromodinâmica Quântica. As partı́culas que intermediavam
a interação foram chamadas de glúons. A teoria era baseada num grupo não abeliano do tipo
SU (3), o que fixava o número de glúons em 8. Aos três quarks iniciais foi adicionado um quarto
(desde 1964) chamado de charm, que desempenhava um papel importante para compatibilizar
dados experimentais relativos às interações fracas (que redundariam na descoberta das correntes
neutras).
A vitória final da Teoria Quântica de Campos, na descrição das interações eletrofracas e
fortes, no entanto, tinha vindo um ano antes, em 1971, quando ’t Hooft apresentou sua demonstração de que as teorias de calibre não-abelianas eram renormalizáveis, mesmo sob a ação do
mecanismo de Higgs [7]. Este resultado, juntamente com a formulação dos modelos descritos
anteriormente para as três interações, fez com que três das quatro interações conhecidas fossem
unificadas em uma única teoria de calibre, baseada no grupo SU (3) × SU 2 × U (1), que hoje recebe o nome de modelo padrão das interações fundamentais. A renormalizabilidade das teorias
de Yang-Mills possibilitou a aplicação da técnica do grupo de renormalização, que prevê que,
dependendo da energia envolvida em um dado processo, podemos utilizar uma constante de
acoplamento efetiva, dependente desta energia, para efetuar nossos cálculos. Com isto, Gross,
Politzer e Wilczek descobriram, em 1973, uma propriedade essencial das interações fortes (vis-
172
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
tas a partir do ponto de vista da Cromodinâmica Quântica): a constante de acoplamento efetiva
destas interações, que regula a aplicação da teoria de perturbações, diminui de intensidade à
medida que a energia do processo em consideração aumenta. Isto possibilitou, pela primeira
vez, a aplicação da teoria de perturbações às interações fortes, o que era inviável em qualquer
outro cenário teórico proposto até então.
VII.
PERSPECTIVAS ATUAIS
Três das quatro interações acham-se unificadas numa descrição consistente, através das
teorias de calibre não-abelianas. Resta ainda incluir a gravitação, a primeira interação a ser
estudada quantitativamente, numa descrição que respeite os princı́pios quânticos e relativı́sticos.
A grande maioria dos fı́sicos que hoje se dedica a esta tarefa acredita que a resposta pode estar
na reabilitação da teoria das cordas, proposta no inı́cio da década de 80 por Green e Schwarz
[8]. Eles propuseram que o que havia de errado com a teoria das cordas era o contexto ao qual
se pensava inicialmente que elas se aplicassem (no caso, as interações fortes). Se a teoria fosse
considerada como descrevendo a Fı́sica em distâncias da ordem do comprimento de Planck (um
comprimento tı́pico de uma teoria onde a gravitação seja importante, tal como
r
~GN
LP =
' 1, 6 × 10−33 cm
c3
onde GN é a constante de Newton), então a partı́cula de spin 2 poderia corresponder ao gráviton
(a partı́cula intermediária da interação gravitacional), as dimensões a mais poderiam ser consideradas pequenas demais para serem vistas mesmo na escala atômica e, como não pretendia
ser uma teoria somente das interações fortes, não teria que reproduzir as suas amplitudes de
espalhamento. Desenvolvimentos posteriores mostraram que o limite desta teoria em grandes
distâncias (ou seja, as distâncias atualmente acessı́veis aos nossos experimentos) coincide com
os modelos citados acima, que abordam as outras três interações.
No entanto, não há uma maneira única de formular a teoria das cordas, considerada como
teoria fundamental da natureza, mas cinco maneiras distintas. Recentemente Witten mostrou
que estas cinco teorias parecem ser aspectos diferentes de uma mesma teoria, que seria mais
fundamental, e que foi chamada de teoria M. A dificuldade de investigar experimentalmente
distâncias da ordem de LP impede um progresso mais decisivo da teoria das cordas, embora os
desenvolvimentos teóricos tenham sido fantásticos ao longo das últimas duas décadas.
173
Sebastião Alves Dias
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
Em 2007 entrará em operação o Large Hadron Collider (LHC), na Organisation Européenne
pour la Recherche Nucléaire (CERN, localizada na Suı́ça), que vai se constituir no mais potente
acelerador de partı́culas construı́do até hoje. Há intensa expectativa quanto à descoberta do
bóson de Higgs (o que legitimaria definitivamente o mecanismo de geração de massas proposto
no modelo padrão) e de partı́culas supersimétricas (que dariam sinais na direção da viabilidade
da teoria das cordas, além de clarear certas questões técnicas do modelo padrão). Também se
espera poder investigar a questão da existência ou não de dimensões extras. Sejam quais forem
os resultados obtidos, sabemos, no entanto, que a Teoria Quântica de Campos continuará a ser
o principal instrumento de análise teórica a ser aplicado ao estranho e fascinante mundo das
partı́culas elementares.
VIII.
AGRADECIMENTOS
Gostaria de expressar os mais profundos agradecimentos aos meus amigos, professores da
UEFS, Antônio Vieira de Andrade Neto, Franz Peter Alves Farias, Germano Pinto Guedes e
Milton Souza Ribeiro, pelo convite para falar sobre Teoria Quântica de Campos, pela acolhida
e pelo ambiente extremamente estimulante propiciado por eles, durante a IX semana de Fı́sica
da UEFS. E também ao meu amigo, professor da UFRJ, Carlos Farina de Souza, igualmente
convidado para o evento, que me estimulou imensamente na redação destas notas e de quem
assisti aulas brilhantes sobre o papel do vetor de Runge-Lenz nos problemas de forças centrais,
durante a mesma semana de Fı́sica. A todos vocês, muito obrigado!
[1] Para uma história dos primórdios da Teoria Quântica de Campos e uma lista detalhada dos artigos
originais mais influentes na sua constituição, veja o capı́tulo 1 de S. Weinberg, The Quantum Theory
of Fields, vol. 1, 1a edição, Cambridge University Press, Cambridge, 1995.
[2] Uma abordagem histórica dos primórdios da Mecânica Quântica, inclusive com uma demonstração
do teorema de Rayleigh e Jeans, é dada no capı́tulo 15 de J. Leite Lopes, A Estrutura Quântica da
Matéria, 3a edição, Editora UFRJ, Rio de Janeiro, 2005.
[3] Uma discussão (mais técnica) sobre as motivos pelos quais as teorias de Yang-Mills e Fermi falharam
ao descrever as interações fortes e fracas, respectivamente, pode ser encontrada nos capı́tulos 8 (seção
8.1) e 11 (seção 11.1) de T.-P. Cheng e L.-F. Li, Gauge Theory of Elementary Particle Physics, 1a
edição, Clarendon Press, Oxford, 1984.
174
CADERNO DE FÍSICA DA UEFS 04, (01 e 02):
161-175, 2006
A Teoria Quântica de ...
[4] O panorama histórico detalhado, com descrições de todos os problemas que apareceram no estudo
das interações eletrofracas (além do problema da massa do bóson vetorial intermediário, citado
no texto) e listas de referências bastante completas, podem ser encontrados nas Nobel Lectures de
Glashow, Salam e Weinberg, acessı́veis nos endereços eletrônicos abaixo:
http://nobelprize.org/nobel prizes/physics/laureates/1979/glashow-lecture.pdf
http://nobelprize.org/nobel prizes/physics/laureates/1979/salam-lecture.pdf
http://nobelprize.org/nobel prizes/physics/laureates/1979/weinberg-lecture.pdf
[5] Pode-se encontrar bastante informação sobre a teoria das cordas, como foi proposta no final dos
anos 60, nos artigos de revisão de Scherk (Rev. Mod. Phys. 47 (1975), 123) e Mandelstam (Phys.
Rep. 13 (1974), 259).
[6] Uma visão geral, incluindo o lado experimental, das partı́culas elementares hoje conhecidas pode ser
encontrada no site do Particle Data Group, vinculado ao Lawrence Berkeley National Laboratory,
nos Estados Unidos, intitulado The Particle Adventure, no endereço:
http://www.particleadventure.org/index.html .
[7] Veja a história deste conceito e uma descrição do procedimento de renormalização nos endereços
eletrônicos abaixo:
http://nobelprize.org/nobel prizes/physics/laureates/1999/thooft-autobio.html
http://nobelprize.org/nobel prizes/physics/laureates/1999/thooft-lecture.pdf
[8] Para uma introdução qualitativa à teoria das cordas, veja B. Greene, O Universo Elegante, Companhia das Letras, São Paulo, 2001. Uma abordagem técnica do assunto pode ser encontrada em J.
Polchinski, String Theory, volumes I e II, Cambridge University Press, Cambridge, 1998.
SOBRE O AUTOR Sebastião Alves Dias - Doutor em Fı́sica pelo CBPF, é Pesquisador Adjunto B II do Centro
Brasileiro de Pesquisas Fı́sicas.
e-mail: [email protected]
175
Download

a teoria quˆantica de campos e seu papel na descric¸ ˜ao das