História da Ciência
Volume III
A Ciência e o Triunfo do Pensamento
Científico no Mundo Contemporâneo
Carlos Augusto de Proença Rosa
2ª Edição
Fundação Alexandre de Gusmão
O autor argumenta que uma
nova era científica teve início no
século XX com o definitivo triunfo
do espírito científico no meio
intelectual sobre quaisquer outras
considerações. A Ciência, agora de
âmbito mundial, totalmente laica e
positiva, tem reconhecida sua
função social. Na era do Conhecimento, a Ciência contemporânea
passa a se caracterizar, por sua
crescente complexidade teórica e
experimental, além dos altos
custos envolvidos, como uma
atividade de grupo, empenhado
num trabalho de criação coletiva,
na qual a obra pessoal e solitária do
cientista individual tende a ser
substituída pelo trabalho solidário
de um grupo de pesquisadores. As
instituições científicas, com apoio
público e privado, adquiririam
posição de relevo na Sociedade.
Todos os ramos da Ciência
fundamental evoluiriam a um
ritmo acelerado com inovações
teóricas que colocam a Ciência
contemporânea num patamar
imprevisto no século anterior. A
incessante busca do Homem por
um maior e melhor conhecimento
dos fenômenos naturais e sociais
assegura, como afirma o autor, o
continuado progresso dos diversos
ramos da Ciência.
HISTÓRIA DA CIÊNCIA
A Ciência e o Triunfo do Pensamento
Científico no Mundo Contemporâneo
Volume III
Ministério das Relações Exteriores
Ministro de Estado Embaixador Antonio de Aguiar Patriota
Secretário-Geral Embaixador Ruy Nunes Pinto Nogueira
Fundação Alexandre de Gusmão
Presidente
Embaixador José Vicente de Sá Pimentel
Instituto de Pesquisa de
Relações Internacionais
Centro de História e
Documentação Diplomática
Diretor
Embaixador Maurício E. Cortes Costa
A Fundação Alexandre de Gusmão, instituída em 1971, é uma fundação pública vinculada
ao Ministério das Relações Exteriores e tem a finalidade de levar à sociedade civil
informações sobre a realidade internacional e sobre aspectos da pauta diplomática
brasileira. Sua missão é promover a sensibilização da opinião pública nacional para os
temas de relações internacionais e para a política externa brasileira.
Ministério das Relações Exteriores
Esplanada dos Ministérios, Bloco H
Anexo II, Térreo, Sala 1
70170-900 Brasília, DF
Telefones: (61) 2030-6033/6034
Fax: (61) 2030-9125
Site: www.funag.gov.br
Carlos Augusto de Proença Rosa
HISTÓRIA DA CIÊNCIA
A Ciência e o Triunfo do Pensamento
Científico no Mundo Contemporâneo
Volume III
2ª Edição
Brasília, 2012
Direitos de publicação reservados à
Fundação Alexandre de Gusmão
Ministério das Relações Exteriores
Esplanada dos Ministérios, Bloco H
Anexo II, Térreo
70170-900 Brasília – DF
Telefones: (61) 2030-6033/6034
Fax: (61) 2030-9125
Site: www.funag.gov.br
E-mail: [email protected]
Equipe Técnica:
Eliane Miranda Paiva
Fernanda Antunes Siqueira
Fernanda Leal Wanderley
Gabriela Del Rio de Rezende
Jessé Nóbrega Cardoso
Rafael Ramos da Luz
Wellington Solon de Souza Lima de Araújo
Capa:
Rafael Sanzio, A Escola de Atenas
Programação Visual e Diagramação:
Gráfica e Editora Ideal
Impresso no Brasil 2012
R788
ROSA, Carlos Augusto de Proença.
História da ciência : a ciência e o triunfo do pensamento científico no
mundo contemporâneo / Carlos Augusto de Proença. ─ 2. ed. ─ Brasília :
FUNAG, 2012.
3 v. em 4; 23 cm.
Conteúdo: v.1. Introdução geral; Tempos pré-históricos. ─ v.2. A ciência moderna.
─ v.3. A ciência e o triunfo do pensamento científico no mundo contemporâneo.
Inclui bibliografia.
ISBN: 978-85-7631-396-0
1. Pensamento científico. 2. Matemática. 3. Astronomia. 4. Física. 5. Química.
6. Biologia. 7. Sociologia. I. Fundação Alexandre de Gusmão.
CDU: 930.85
Ficha catalográfica elaborada pela bibliotecária Talita Daemon James – CRB-7/6078
Depósito Legal na Fundação Biblioteca Nacional conforme Lei n° 10.994, de
14/12/2004.
Plano Geral da Obra
VOLUME I
INTRODUÇÃO GERAL
Tempos Pré-Históricos
Capítulo I: A Técnica nas Primeiras Grandes Civilizações
Mesopotâmia
Egito
China
Índia
Outras Culturas Antigas (Hititas, Hebraica, Fenícia e Persa)
Capítulo II: A Filosofia Natural na Civilização Greco-Romana
A Civilização Grega e o Advento do Pensamento Científico e da Ciência
A Técnica na Cultura Romana
5
Capítulo III: A Filosofia Natural nas Culturas Orientais
A China da Dinastia Tang à Ming e a Filosofia Natural
A Índia Gupta e dos Sultanatos e a Filosofia Natural
A Filosofia Natural no Mundo Árabe Islâmico
Capítulo IV: A Filosofia Natural na Europa Medieval
A Ciência na Europa Oriental Grega e o Império Bizantino
O Mundo Eslavo e a Filosofia Natural
A Ciência na Europa Ocidental Latina
Capítulo V: O Renascimento Científico
VOLUME II
A CIÊNCIA MODERNA
Tomo I
Capítulo VI: A Ciência Moderna
O Advento da Ciência Moderna
O Desenvolvimento Científico no Século das Luzes
VOLUME II
A CIÊNCIA MODERNA
Tomo II
O Pensamento Científico e a Ciência no Século XIX
VOLUME III
Capítulo VII: A Ciência e o Triunfo do Pensamento Científico no
Mundo Contemporâneo
Sumário
VOLUME III
Capítulo VII: A Ciência e o Triunfo do Pensamento Científico no
Mundo Contemporâneo................................................................... 15
7.1 - Introdução............................................................................................................. 15
7.2 - Matemática............................................................................................................ 24
7.2.1 - Aspectos Atuais........................................................................................... 25
7.2.1.1 - Os Problemas de Hilbert.................................................................... 28
7.2.1.2 - Matemática de Âmbito Mundial...................................................... 28
7.2.1.3 - Instituições Nacionais........................................................................ 32
7.2.1.4 - Instituições e Conclaves Internacionais. Premiação...................... 33
7.2.1.5 - Publicações........................................................................................... 37
7.2.1.6 - Vínculos e Contribuições................................................................... 38
7.2.1.7 - Problemas do Milênio........................................................................ 39
7.2.1.8 - Temas.................................................................................................... 39
7.2.2 - Fundamentos e Filosofia da Matemática.................................................. 40
7.2.2.1 - Axiomatização..................................................................................... 40
7.2.2.2 - Paradoxos da Teoria dos Conjuntos................................................ 44
7.2.2.3 - Filosofia Matemática.......................................................................... 46
7.2.2.3.1 - Logicismo.................................................................................... 46
7.2.2.3.2 - Intuicismo................................................................................... 48
7.2.2.3.3 - Formalismo................................................................................. 51
7.2.3 - Desenvolvimento da Matemática.............................................................. 54
7.2.3.1 - Álgebra Moderna................................................................................ 54
7.2.3.1.1 - Teoria dos números................................................................... 57
7.2.3.1.2 - Teoria dos Conjuntos................................................................ 58
7.2.3.2 - Geometria............................................................................................. 58
7.2.3.2.1 - Geometria Algébrica................................................................. 58
7.2.3.2.2 - Geometria Projetiva................................................................... 60
7.2.3.2.3 - Geometria Diferencial............................................................... 61
7.2.3.2.4 - Geometria Fractal....................................................................... 62
7.2.3.3 - Topologia............................................................................................. 63
7.2.3.4 - Análise.................................................................................................. 67
7.2.3.4.1 - Equações Diferenciais............................................................... 67
7.2.3.4.2 - Análise Funcional...................................................................... 68
7.2.3.4.3 - Integração e Medida.................................................................. 69
7.2.3.5 - Probabilidade Matemática................................................................. 70
7.3 - Astronomia............................................................................................................ 73
7.3.1 - Características Atuais.................................................................................. 74
7.3.1.1 - Astronomia de Âmbito Mundial...................................................... 76
7.3.1.2 - Instrumentos e Tecnologia................................................................ 78
7.3.1.3 - Instituições Internacionais. Premiação............................................ 79
7.3.1.4 - Publicações........................................................................................... 82
7.3.1.5 - Temas.................................................................................................... 83
7.3.2 - Astronomia do Espectro Eletromagnético. Instrumentos Astronômicos
e Novas Técnicas de Pesquisas................................................................................83
7.3.2.1 - Astronomia Óptica. Telescópios e Observatórios.......................... 85
7.3.2.2 - Radioastronomia................................................................................. 89
7.3.2.3 - Astronomia do Infravermelho.......................................................... 92
7.3.2.4 - Astronomia do Ultravioleta.............................................................. 95
7.3.2.5 - Astronomia dos Raios -X................................................................... 96
7.3.2.6 - Astronomia dos Raios-Gama............................................................ 99
7.3.2.7 - Novas Técnicas de Pesquisa............................................................ 100
7.3.2.7.1 - Interferometria......................................................................... 101
7.3.2.7.2 - Radar.......................................................................................... 103
7.3.2.7.3 - Maser/Laser............................................................................. 104
7.3.3 - Astronomia Planetária.............................................................................. 105
7.3.3.1 - Primeira Fase..................................................................................... 106
7.3.3.2 - Segunda Fase..................................................................................... 109
Mercúrio..................................................................................................... 109
Vênus.......................................................................................................... 109
Marte........................................................................................................... 110
Júpiter......................................................................................................... 111
Saturno........................................................................................................ 111
Urano.......................................................................................................... 112
Netuno........................................................................................................ 112
7.3.3.2.1 - Planetas anões – Plutoides................................................ 112
7.3.3.2.2 - Lua....................................................................................... 113
7.3.3.2.3 - Cometas – Cinturão de Kuiper – Nuvem de Oort........ 114
7.3.3.2.4 - Asteroides........................................................................... 117
7.3.4 - Astronomia Estelar.................................................................................... 117
7.3.4.1 - Astrometria. Catálogos.................................................................... 118
7.3.4.1.1 - Distância e Classificação das Estrelas................................... 120
7.3.4.2 - Energia das Estrelas.......................................................................... 123
7.3.4.3 - Pulsares/Estrelas de Nêutron......................................................... 124
7.3.4.4 - Planetas Extrassolares ou Exoplanetas.......................................... 126
7.3.4.5 - Anãs Marrons.................................................................................... 128
7.3.4.6 - Meio Interestelar............................................................................... 129
7.3.4.7 - Buracos Negros................................................................................. 129
7.3.5 - Astronomia Galáctica................................................................................ 131
7.3.5.1 - Formação e Classificação Morfológica........................................... 134
7.3.5.1.1 - Galáxias Ativas......................................................................... 135
7.3.5.1.2 - Grupos, Aglomerados e Superaglomerados........................ 139
7.3.6 - Cosmologia................................................................................................. 141
7.3.6.1 - A Teoria da Relatividade e a Cosmologia Moderna.................... 142
7.3.6.2 - Modelo Cosmológico de Einstein................................................... 145
7.3.6.3 - Modelo Cosmológico de De Sitter.................................................. 145
7.3.6.4 - Universo em Expansão. Modelos Cosmológicos......................... 146
7.3.6.4.1 - Friedmann................................................................................. 146
7.3.6.4.2 - Lemaître. Átomo Primordial.................................................. 147
7.3.6.4.3 - Hubble e a Demonstração da Expansão do Universo........ 149
7.3.6.4.4 - O Big Bang................................................................................ 150
7.3.6.5 - Matéria Escura. Radiação Cósmica................................................ 152
7.3.6.6 - Radiação Cósmica de Fundo........................................................... 154
7.3.6.7 - Energia Escura................................................................................... 155
7.3.6.8 - Modelo Cosmológico Padrão.......................................................... 156
7.3.6.9 - Outras Teorias sobre o Universo.................................................... 158
7.4 - Física..................................................................................................................... 159
7.4.1 - Teoria Quântica.......................................................................................... 166
7.4.1.1 - Radiação dos Corpos Negros.......................................................... 168
7.4.1.2 - A Concepção de Planck................................................................... 169
7.4.1.3 - Confirmação da Teoria: O efeito Fotoelétrico............................... 170
7.4.2 - Teoria da Relatividade.............................................................................. 172
7.4.2.1 - 1905 – O Ano Miraculoso................................................................. 173
7.4.2.2 - Teoria Especial da Relatividade .................................................... 175
7.4.2.3 -Teoria Geral da Relatividade........................................................... 178
7.4.3 - Física Atômica e Nuclear.......................................................................... 180
7.4.3.1 - Modelo Atômico de Thomson........................................................ 181
7.4.3.2 - Modelo Atômico de Rutherford..................................................... 183
7.4.3.3 - Modelo Atômico de Bohr................................................................ 185
7.4.3.4 - Outros Desenvolvimentos............................................................... 188
7.4.3.5 - Fissão Nuclear................................................................................... 191
7.4.4 - Física Quântica........................................................................................... 192
7.4.4.1 - Dualidade Partícula/Onda e Outros Desenvolvimentos........... 193
7.4.4.2 - Mecânica Quântica........................................................................... 195
7.4.4.3 - Modelo Atômico Orbital.................................................................. 196
7.4.4.4 - Controvérsia Einstein-Bohr. O Paradoxo EPR............................. 199
7.4.5 - Física das Partículas................................................................................... 201
7.4.5.1 - Desenvolvimento das Pesquisas. Descobertas. Modelos............ 201
7.4.5.2 - Modelo dos Quarks e Glúons. Gell-Mann.................................... 205
7.4.5.3 - Interações Fundamentais................................................................. 208
7.4.5.4 - Eletrodinâmica Quântica................................................................. 210
7.4.5.5 - Flavourdinâmica ou Teoria da Interação Eletrofraca.................. 212
7.4.5.6 - Cromodinâmica Quântica............................................................... 213
7.4.5.7 - Unificação das Interações................................................................ 214
7.4.5.8 - Bóson de Higgs................................................................................. 215
7.4.5.9 - Modelo Padrão das Partículas Elementares.................................. 215
7.5 - Química............................................................................................................... 217
7.5.1 - Química Analítica...................................................................................... 225
7.5.2 - Físico-Química............................................................................................ 231
7.5.2.1 - Termoquímica................................................................................... 232
7.5.2.2 - Cinética Química............................................................................... 235
7.5.2.3 - Eletroquímica. Ligações Químicas................................................. 236
7.5.2.4 - Ácidos e Bases................................................................................... 242
7.5.3 - Química Inorgânica................................................................................... 243
7.5.3.1 - Os Elementos e a Tabela Periódica................................................. 243
7.5.3.2 - Isótopos.............................................................................................. 245
7.5.3.3 - Elementos Transurânicos................................................................. 247
7.5.3.4 - A Tabela Periódica dos Elementos................................................. 252
7.5.4 - Química Orgânica...................................................................................... 253
7.5.4.1 - Estereoquímica.................................................................................. 254
7.5.4.2 - Reações Químicas............................................................................. 257
7.5.4.3 - Síntese Orgânica................................................................................ 261
7.5.4.4 - Macromoléculas................................................................................ 268
7.5.5 - Bioquímica.................................................................................................. 270
7.5.5.1 - Proteínas e Enzimas.......................................................................... 271
7.5.5.2 - Ácido Nucleico – DNA e RNA....................................................... 277
7.5.5.3 - Carboidrato........................................................................................ 282
7.5.5.4 - Metabolismo...................................................................................... 284
7.6 - Biologia................................................................................................................ 287
7.6.1 - Fisiologia..................................................................................................... 295
7.6.1.1 - Neurociência...................................................................................... 302
7.6.1.2 - Sistema Sensorial.............................................................................. 307
7.6.2 - Biologia Celular e Molecular.................................................................... 309
7.6.3 - Microbiologia............................................................................................. 315
7.6.4 - Genética....................................................................................................... 323
7.6.4.1 - Primeiro período. Confirmação das Leis de Mendel................... 325
7.6.4.2 - Segundo período. Desenvolvimento e Pesquisa.......................... 330
7.6.4.3 - Terceiro Período. DNA e RNA. Código Genético........................ 335
7.6.4.4 - Quarto Período. Engenharia Genética........................................... 341
7.6.4.5 - Quinto Período. Genoma Humano. Clonagem............................ 345
7.6.4.5.1 - Sequenciamento do Genoma Humano................................. 345
7.6.4.5.2 - Clonagem.................................................................................. 348
7.6.5 - Evolução...................................................................................................... 351
7.6.5.1 - Síntese Evolutiva .............................................................................. 355
7.6.5.2 - Criação X Evolução........................................................................... 360
7.7. - Sociologia........................................................................................................... 363
7.7.1 - A Sociologia na Alemanha....................................................................... 367
7.7.1.1 - Max Weber......................................................................................... 368
7.7.1.1.1 - Nota Biográfica e Bibliográfica.............................................. 369
7.7.1.1.2 - Sociologia Weberiana ............................................................. 370
7.7.1.1.3 - Sociologia Política.................................................................... 373
7.7.1.1.4 - Sociologia da Religião............................................................. 375
7.7.1.2 - Desenvolvimento da Sociologia na Alemanha............................. 378
7.7.1.2.1 - Segunda Fase............................................................................ 380
7.7.1.2.2 - Terceira Fase............................................................................. 383
7.7.2 - A Sociologia na França.............................................................................. 388
7.7.2.1 - Primeiro Período............................................................................... 389
7.7.2.2 - Segundo Período............................................................................... 393
7.7.3 - A Sociologia na Itália................................................................................. 401
7.7.3.1 -Vida e Obra de Pareto....................................................................... 402
7.7.3.2 - Desenvolvimento da Sociologia..................................................... 406
7.7.4 - A Sociologia em Outros Países Europeus.............................................. 409
7.7.4.1 - A Sociologia na Grã-Bretanha......................................................... 410
7.7.4.2 - A Sociologia na Áustria................................................................... 414
7.7.4.3 - A Sociologia na Rússia/URSS......................................................... 417
7.7.4.4 - A Sociologia nos Países Escandinavos........................................... 419
7.7.5 - A Sociologia nos Estados Unidos da América....................................... 424
7.7.5.1 - Primeiro Período............................................................................... 425
7.7.5.1.1 - Escola de Chicago.................................................................... 426
7.7.5.1.2 - Escola de Colúmbia................................................................. 430
7.7.5.1.3 - Escola de Harvard................................................................... 431
7.7.5.1.4 - Outras Instituições de Pesquisa. Sociologia Empírica ....... 434
7.7.5.2 - Segundo Período............................................................................... 435
7.7.5.2.1 - Escola de Chicago.................................................................... 436
7.7.5.2.2 - Teoria Funcionalista-Estrutural............................................. 439
7.7.5.2.3 - Teoria do Intercâmbio Social.................................................. 440
7.7.5.2.4 - Etnometodologia...................................................................... 441
7.7.5.2.5 - Sociologia Crítica ................................................................... 442
7.7.6 - A Sociologia na América Latina.............................................................. 445
7.7.6.1 - A Sociologia no Brasil...................................................................... 447
7.7.6.1.1 - Primeira Fase............................................................................ 448
7.7.6.1.2 - Segunda Fase............................................................................ 450
7.7.6.1.3 - Terceira Fase............................................................................. 456
7.7.6.2 - A Sociologia na Argentina............................................................... 459
7.7.6.2.1 - Primeiro Período...................................................................... 460
7.7.6.2.2 - Segundo Período...................................................................... 462
7.7.6.2.3 - Terceiro Período....................................................................... 463
7.7.6.2.4 - Quarto Período......................................................................... 464
7.7.6.3 - A Sociologia no México.................................................................... 466
7.7.6.3.1 - Primeira Etapa.......................................................................... 467
7.7.6.3.2 - Segunda Etapa.......................................................................... 470
7.7.6.3.3 - Terceira Etapa........................................................................... 471
Bibliografia Geral....................................................................................................... 475
Capítulo VII
A Ciência e o Triunfo do Pensamento Científico
no Mundo Contemporâneo
7.1 Introdução
O período histórico atual, conhecido como “contemporâneo”,
se caracteriza por profundas mudanças nos âmbitos social, político,
econômico, cultural, científico e tecnológico dos diversos países do
Planeta. Uma Sociedade com novas ambições e reivindicações e com novos
anseios e propósitos emergiria de um novo contexto que, inicialmente
originário da Europa ocidental, se espalharia, rapidamente, por todos os
cantos do Globo. A efervescência cultural e uma nova postura mental,
particularmente no meio intelectual de uma emergente burguesia e classe
média europeia do século XIX, ansiosa pelo poder político e econômico
para usufruir os benefícios da Revolução Industrial, seriam decisivas na
formação de uma Sociedade dinâmica, defensora de novos valores.
O formidável legado dos últimos séculos, nos diversos campos da
atividade humana, contudo, não deve ser minimizado, dada sua decisiva
contribuição para a reformulação das novas bases doutrinária, filosófica e
moral da Sociedade contemporânea. A contestação aberta dos tradicionais
valores, individuais e institucionais, significaria, a partir da segunda metade
do século XIX, a falência das doutrinas e das políticas sustentadoras do
status quo, criando, deste modo, as condições necessárias para o surgimento
de uma nova Sociedade – industrial, capitalista, laica – em substituição ao
velho regime absolutista, feudal, mercantilista.
15
CARLOS AUGUSTO DE PROENÇA ROSA
Na história da evolução das ideias no campo filosófico, social e
político, verdadeira fonte do aperfeiçoamento da Humanidade, somente
o período áureo da civilização grega pode ser comparado com o
extraordinário desenvolvimento ocorrido na Europa ocidental, do século
XVI ao XIX. As inestimáveis contribuições de pensadores desse período,
como Bacon, Descartes, Locke, Montesquieu, Vico, Hume, Adam Smith,
Diderot, d’Alembert, Beccaria, Condorcet, Kant, Comte e Marx, para citar
apenas alguns dos pensadores mais representativos do período, seriam
decisivas para a renovação do pensamento ocidental, prestigiando a
racionalidade e assegurando o avanço do espírito científico.
A revolução das ideias não atingiu imediatamente a grande
maioria da população, apegada à tradição, mas ganhou espaço e adeptos
nos meios acadêmicos e governamentais, vindo a ser uma das alavancas
das profundas mudanças na Sociedade. Conceitos como os de Igualdade,
Liberdade, Racionalidade, Humanidade, Progresso e Natureza, seriam
debatidos e veiculados através de sociedades secretas, salões aristocráticos,
clubes políticos, livros e panfletos, permitindo uma transparência e
um fluxo de novas ideias, em detrimento das normas vigentes, sociais,
políticas e morais, representativas de uma Sociedade em crise.
Ao mesmo tempo, a confiança na Ciência (e sua metodologia) e na Razão,
e não mais na Teologia e na Fé, como resposta adequada para o entendimento
dos fenômenos naturais e sociais, ganharia força e adesões no meio intelectual,
gerando a noção de progresso e de aperfeiçoamento continuado do Homem
e da Sociedade. Em consequência, haveria uma radical mudança da visão do
Mundo e da Sociedade, que, de teológica, passaria a se caracterizar como laica.
O dogmatismo e o obscurantismo seriam combatidos pelo anticlericalismo,
que se reforçaria com a adesão de segmentos interessados em ocupar fatias do
Poder, até então privilégio da hierarquia religiosa.
A consequente conquista pela Ciência teórica e aplicada de buscar
entender os fenômenos naturais, da Vida e da Sociedade, sem recurso
a argumentos fantasiosos, asseguraria, a partir do século XX, o triunfo
do espírito científico, o qual passaria a privilegiar estudos e pesquisas,
evidências e verificação, em vez de mera especulação. Uma nova era, a da
positividade científica, se inauguraria, assim, no período contemporâneo,
após 2500 anos em que a curiosidade humana se satisfez com explicações
nascidas de pura imaginação. Necessária no processo histórico da evolução
mental e intelectual do Homem, deve ser reconhecida, no entanto, a
importância da etapa, agora esgotada, na aquisição de conhecimento
científico e no aprimoramento da mentalidade humana, indispensável
para se atingir a atual fase.
16
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A criação de academias e observatórios, a partir do século XVII,
com o apoio oficial, já demonstrava a consciência, em alguns círculos,
da importância da Ciência para o desenvolvimento econômico, social e
tecnológico. A reformulação do ensino científico e o crescente reconhecimento
do valor do método experimental contribuiriam, principalmente desde
o século XVIII, para o avanço de vários ramos da Ciência. A evolução do
conhecimento das Matemáticas (Aritmética, Álgebra, Geometria, Cálculo), da
Astronomia (Heliocentrismo, Mecânica Celeste, Astronomia Observacional,
Espectroscopia), da Física (Mecânica, Óptica, Eletromagnetismo,
Termodinâmica, Radioatividade), da Química (Elementos e Substâncias,
Nomenclatura e Classificação, Conservação da Matéria, Leis Quantitativas,
Química Orgânica, Atomismo), da Biologia (Anatomia, Fisiologia, Teoria
Celular, Embriologia, Evolução) e a criação da Sociologia são marcos, no
século XIX, do processo evolutivo da Ciência, que orientariam os estudos e
pesquisas posteriores. Tal evolução estaria diretamente vinculada à aplicação
da metodologia científica, baseada na observação sistemática, verificação,
comparação, comprovação e quantificação, na busca das leis reguladoras dos
fenômenos naturais e sociais. A partir dessa época, estariam desmoralizadas
a Alquimia e a Astrologia, que perderiam prestígio e respeitabilidade, e
sofreriam forte golpe a superstição e o sobrenatural, que continuariam, no
entanto, a usufruir da aceitação popular.
Essa extraordinária mudança de mentalidade, de enfoque e
de interesses, como atestam as diversas Escolas filosóficas, políticas e
econômicas, ocorreu, fundamentalmente, no meio intelectual europeu,
limitado, porém, a pensadores, filósofos, escritores, pesquisadores, grandes
senhores e membros da alta burguesia, cuja influência nas esferas de Poder
era crescente. As Igrejas Romana, Ortodoxas e Protestantes, manteriam,
contudo, suas autoridades, temporal e espiritual, junto aos governos
e ao povo, com o objetivo de sustentar a vigência da realidade social,
política e religiosa, que lhe era vantajosa. A grande massa populacional,
sem participação na vida política do Estado e sem gozar os benefícios da
expansão mercantil e financeira, e da Revolução Industrial, era relegada à
condição de pária social, mantendo-se crente e supersticiosa, dependente
da orientação moral e religiosa do clero, ainda que crítica e reticente quanto
ao papel e à atuação das instituições religiosas. As crescentes objeções ao
conservadorismo da hierarquia das Igrejas não afetariam a religiosidade
do povo, mas seriam elementos importantes na perda de sua autoridade
na esfera de assuntos públicos.
O mundo contemporâneo não pode ser entendido, contudo, como
mero prosseguimento cronológico ou como simples continuação da obra
17
CARLOS AUGUSTO DE PROENÇA ROSA
dos séculos precedentes. Beneficiada pelas conquistas obtidas no período
anterior, principalmente no terreno das ideias e do espírito, a Sociedade
contemporânea teve condições para criar e expandir, para reformular
e inovar nos diversos âmbitos – social, político, cultural, econômico,
científico, tecnológico –, lançando, decisivamente, os fundamentos para
o extraordinário progresso atual ocorrido nessas áreas. A pretensão,
ao final do século XIX, de que se teria chegado ao esgotamento do
possível conhecimento científico nas diversas áreas seria imediatamente
desmentida pelas realizações do período atual.
As profundas transformações na vida social e dos indivíduos,
inicialmente circunscritas à Europa, e, depois, exportadas para os demais
recantos do Globo, refletem e explicam as condições de uma nova
Sociedade, cujas características, interesses e objetivos situam o século XX
num novo período histórico.
No contexto da História da Ciência, se firmaria, ao menos na
comunidade acadêmica e científica, o espírito independente e livre
de conotações metafísicas, ao mesmo tempo em que ocorreria um
espetacular desenvolvimento de pesquisas e estudos em Ciência pura e
aplicada. As extraordinárias realizações no campo industrial, resultantes
do conhecimento e da aplicação da Ciência, teriam como consequência
inevitável a elevação, ainda mais, de seu prestígio junto à opinião
pública. A nova e marcante situação desse desenvolvimento no mundo
contemporâneo se traduziria no triunfo definitivo da Ciência sobre a
ignorância, o preconceito e o dogmatismo, permitindo à comunidade
científica uma grande liberdade de pesquisa. Na evolução do conhecimento
científico, ficaria, assim, cada vez mais patente, a importância da
afirmação do espírito científico, o qual seria responsável pelo correto
encaminhamento das pesquisas conducentes ao melhor entendimento dos
fenômenos.
Os movimentos de massas populares adquiriram especial
relevância nos planos social, político, econômico e cultural. Ganhariam
relevância os fenômenos sociais (reivindicações operárias, urbanização,
direitos humanos, poder da burguesia, conscientização do proletariado),
a radicalização decorrente de uma nova ordem econômica (capitalismo,
industrialização, competitividade, finanças e comércio internacionais,
colonialismo), o impacto de um cenário político cambiante e de dimensão
global (representação e direitos políticos, cooperação e antagonismo
internacionais, conflitos armados e “Guerra Fria”), a decrescente influência
do poder espiritual, e de suas instituições, sobre os assuntos de Estado e de
Governo (separação do Estado e da Igreja em grande número de países) em
18
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
função do fortalecimento de um espírito laico, embora a grande maioria da
população continuasse crente e mantivesse sua religiosidade, e a grande
efervescência cultural (massificação da instrução, surgimento de novas
Escolas artísticas, manifestação e importância da arte popular, folclore).
Tais desdobramentos foram acontecimentos que indicam o dinamismo da
Época Contemporânea e que lhe dão contornos bem distintos dos séculos
anteriores.
As grandes mudanças doutrinárias, promovidas por um meio
intelectual cada vez mais influente nos círculos governamentais, não
seriam limitadas, no entanto, às esferas social, política, econômica e
cultural. Uma das atividades que experimentaria decisivas transformações
seria a da Ciência, cujo espantoso e extraordinário avanço seria um
dos aspectos mais relevante e característico da Época Contemporânea,
servindo, inclusive, de marco de uma nova etapa da História da Ciência.
Sua contribuição para o progresso em diversos âmbitos foi
decisiva, bem como devem ser realçadas a estreita vinculação e a crescente
cooperação entre a Ciência e a Tecnologia, o que viria a determinar o atual
fantástico desenvolvimento técnico e científico. As descobertas e invenções,
os aperfeiçoamentos e inovações permitiriam, em curto prazo de tempo, e
num ritmo veloz, uma mudança radical no cotidiano da nova Sociedade.
O Homo Sapiens, que levara milhares de anos, desde a revolução agrícola e
a descoberta e a utilização dos metais para iniciar a Revolução Industrial,
necessitaria apenas de cerca de um século, no período contemporâneo,
para ingressar na era do computador e da Informática.
A Ciência, criação humana para explicar racionalmente os fenômenos,
adquiriria uma nova dimensão ao se colocar a serviço da Sociedade e do
Homem. Sua missão de desvendar os mistérios dos fenômenos continuaria
vigente e permaneceria fundamental, pois somente através do conhecimento,
abstrato e positivo, é possível entendê-los e explicá-los. A Ciência Moderna,
desde seu advento, se utilizaria do modelo da Física, e de sua metodologia,
para expandir o conhecimento, através da investigação dos fenômenos
ocorridos no ramo das Ciências exatas, como a Astronomia e a Química, bem
como em seus novos ramos, como o Eletromagnetismo e a Termodinâmica. A
mensuração, a experimentação, a verificação e a comprovação continuariam
a ser procedimentos válidos e atuais da metodologia científica, a qual rejeita,
assim, a busca das causas dos fenômenos, com conotação teleológica e
qualitativa. O conceito de causalidade, no qual se buscava o “porquê”, seria
substituído pelo estudo de “como” ocorrem os fenômenos. A descoberta de
leis gerais, de caráter universal, que expressem matematicamente as relações
entre os fenômenos, e os expliquem, se firmaria como objetivo da Ciência
19
CARLOS AUGUSTO DE PROENÇA ROSA
experimental. Para as Ciências históricas, como a Sociologia, a Geologia, a
Biologia Evolutiva, a Paleontologia e a Arqueologia, a observação e a narrativa
histórica seriam os principais instrumentos para o correto entendimento
do ocorrido em épocas pretéritas. Nesse processo, a crença e o misticismo
deixariam de ser o caminho para o conhecimento, que passaria a ser adquirido,
através da racionalidade e da pesquisa, pelo método científico, o qual inclui
critérios e instrumentos apropriados para o fenômeno em estudo. Assim,
a expansão, por exemplo, do método científico aos fenômenos sociais e da
evolução, pela utilização do procedimento comparativo e histórico, colocaria
tais Ciências em bases firmes e seguras.
Os seis grandes ramos da Ciência fundamental contemporânea
evoluiriam a um ritmo acelerado nunca visto, como atestam
os estudos pioneiros, as pesquisas sistemáticas, as descobertas
inovadoras e as teorias “revolucionárias”. Além do grande avanço
conceitual e prático na Matemática, na Astronomia e na Física, cujos
campos de atividade já estavam praticamente delineados, deve ser
consignado o extraordinário progresso registrado, ao longo do século
XX, na Química, na Biologia e na Sociologia, a partir das respectivas
estruturações, como objetos de atividade científica. Nesse processo, a
vinculação mútua das Ciências se patentearia, inclusive com a criação
de novas disciplinas científicas, como a Astrofísica, a Físico-Química,
a Bioquímica e a Bioinformática.
Paralelamente ao desenvolvimento das Ciências fundamentais, se
ampliaria extraordinariamente o campo do conhecimento com a criação
ou o avanço nos estudos e nas investigações, segundo metodologia e
procedimentos científicos, de várias novas áreas. Assim, o progresso em
diversos campos, como da Geologia, da Antropologia, da Arqueologia, da
Paleontologia, da Meteorologia, da Cosmologia e da Psicologia, seria da
maior importância para o entendimento objetivo e racional dos fenômenos
naturais e da evolução da Espécie e da Sociedade. O desenvolvimento
da pesquisa no domínio da Ciência pura, e o fortalecimento progressivo
do espírito científico, particularmente na comunidade científica,
seriam características fundamentais da Sociedade humana no mundo
contemporâneo, e seriam, igualmente, responsáveis pelo ritmo acelerado
do avanço teórico e investigativo nos diversos ramos da Ciência.
O aumento significativo da escala enciclopédica determinaria, por
outro lado, a aplicação inevitável da lei da divisão do trabalho, deixando
para o passado o conhecimento universalista, decorrente da escassez dos
conhecimentos adquiridos. O surgimento de novas áreas de conhecimento
e a velocidade e o volume do conhecimento produzido tornariam o
20
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
cientista cada vez mais dedicado e restrito à sua área de trabalho e de
preocupações, o que deve ser considerado como um aspecto favorável da
pesquisa contemporânea, desde que não seja levado ao extremo.
A especialização daí decorrente levaria a um espetacular progresso
no conhecimento disciplinar, que contribuiria, também, para uma frutífera
vinculação da Ciência com a Tecnologia. A primeira Revolução Industrial
(segunda metade do século XVIII), resultado de inovações técnicas
na engenharia e na indústria, pouco deveu ao conhecimento científico,
tendo sido realizada, principalmente, por engenheiros e práticos. Uma
das importantes consequências desse desenvolvimento para a Ciência
seria a compreensão de que a investigação não deveria ter um caráter
contemplativo, em que o conhecimento seria um fim em si mesmo, mas
deveria ser uma atividade pragmática, com o objetivo de ser útil ao
Homem. Tal conhecimento, assim adquirido, passaria a ser reconhecido,
como no aforismo baconiano de “saber é poder”, como fonte indispensável
para o progresso da Sociedade humana. A noção de Ciência aplicada
ganharia terreno, transformando-se numa das características da Ciência
contemporânea, sendo decisiva para o sucesso da segunda Revolução
Industrial, ocorrida, principalmente, a partir da segunda metade do século
XIX. As pesquisas industriais pioneiras no século XIX se dariam nos ramos
das Ciências experimentais (Física e Química), e abarcariam os setores de
eletricidade, ferro e aço, adubos, açúcar, produtos farmacêuticos, corantes
e petróleo, para se estenderem, depois, a todas as demais áreas industriais.
Seriam notáveis os avanços nas indústrias química, mecânica, de energia,
de transporte e de comunicação, numa segunda Revolução Industrial,
dessa vez em estreita vinculação com a Ciência.
Dessa forma, a Ciência atual substituiria a mera erudição de
acumulação de fatos desconexos, com recurso a especulações, pela
previsão racional decorrente das relações constantes estabelecidas entre
os fenômenos, colocando esse conhecimento a serviço da Humanidade.
Não haveria mais lugar para a predição ou para a especulação. O saber
racional, baseado em metodologia científica, passaria a ser a base para
previsão, que, por sua vez, seria indispensável para prover o Homem e a
Humanidade dos meios necessários para seu aperfeiçoamento.
Outra característica atual da Ciência seria sua abrangência
universal, no sentido de que seria cultivada e praticada nos cinco
continentes, deixando de ser uma atividade, como no passado, restrita,
praticamente, à Europa ocidental. A partir do Renascimento Científico,
os estudos e as pesquisas se espalhariam desde a Itália para outros
reinos europeus, mantendo-se o Reino Unido e a França na liderança
21
CARLOS AUGUSTO DE PROENÇA ROSA
científica por todo o período da História Moderna. Pouco há a registrar
de original e pioneiro, nesse campo, nos países da Europa Central e do
Leste. A situação começaria a se alterar na segunda metade do século
XIX, com a Alemanha, reunificada, assumindo, com aqueles dois países,
a liderança nos estudos e investigações científicas, ao mesmo tempo em
que a pesquisa despertava interesse na Europa central e oriental, no Japão
e nos EUA. Ainda dependentes, do ponto de vista político, econômico e
cultural, da Europa, continuariam ausentes desse processo os países latino-americanos e caribenhos, as colônias africanas e asiáticas, a China, a Índia,
o Império Otomano e as áreas sob domínio islâmico. Apenas no período
contemporâneo, a partir dos anos 50, a Ciência adquiriria, finalmente,
âmbito mundial, com pesquisas e estudos sendo efetuados em diversos
países dos vários continentes. A liderança, a partir da década dos anos
de 1930, seria assumida pelos EUA, que se transformaria no maior centro
de investigações científicas da História. A formação da União Europeia, a
constituição da Rússia e a modernização da China, ocorridas no final do
século XX, confirmariam tais regiões como polos de excelência científica,
dada a prioridade, reconhecida pelo Estado e pelas empresas, públicas e
privadas, às atividades de estudo e de investigação, tanto da Ciência pura,
quanto da Ciência aplicada.
O atual caráter internacional da Ciência propiciaria uma crescente
cooperação entre os Estados, por meio de acordos bilaterais e multilaterais,
e de criação de organismos específicos de financiamento e divulgação
de pesquisas, e entre instituições, oficiais e privadas, criadas com o
propósito declarado de promover investigação e estudo. Conferências,
seminários, cursos e publicações especializadas diversas aproximariam
as comunidades científicas nacionais, ampliando a divulgação e o
conhecimento recíproco dos estudos efetuados e das conquistas obtidas.
Cabe assinalar que, do ponto de vista da evolução das instituições
dedicadas ao desenvolvimento do conhecimento, as universidades,
criadas no início do Renascimento Científico em várias cidades da
Europa, pouco contribuíram para o progresso da Ciência, já que estavam
limitadas ao ensino da Escolástica e à preservação dos ensinamentos
clássicos. No entanto, as academias, sociedades, bibliotecas e outras
instituições culturais, fundadas fora do âmbito universitário, a partir do
século XVII contribuiriam, através da pesquisa e da divulgação científicas,
significativamente, para o advento da Ciência Moderna, sendo, em boa
medida, responsáveis por esse avanço. As universidades, ameaçadas
de perda de prestígio, e também pressionadas pelas contribuições das
instituições de pesquisa ao progresso da Ciência, abandonariam sua
22
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
tradicional postura acadêmica e participariam positivamente, com
laboratórios de investigação e com estudos teóricos, do esforço de
expansão do conhecimento científico.
O desenvolvimento da atividade científica passou a requerer,
na atualidade, enormes recursos financeiros, indisponíveis em nível
individual, ou, mesmo, em empreendimentos de pequena monta, para
custear pessoal, equipamentos, material, viagens, etc. A Ciência passou a ser
uma atividade de alto risco, altamente custosa, que requer grande capital.
É a chamada Ciência de equipe, ou Big Science, uma realidade nos diversos
campos científicos. Na impossibilidade de enfrentar, individualmente, os
altos custos e a crescente complexidade teórica e experimental, a pesquisa
tende a se tornar cada vez mais uma pesquisa de grupo, financiada por
grandes empresas e laboratórios privados, ou por entidades públicas.
Dezenas, ou centenas, de pesquisadores empenhados num trabalho de
criação coletiva se dedicam, segundo suas especialidades, a estudos e
experiências em centros de pesquisas para a compreensão e elucidação de
alguma teoria ou de algum determinado aspecto fundamental; o Projeto
Genoma pode ser citado como o mais recente e importante exemplo dessa
pesquisa coletiva, que, aliás, reflete, também, o alto grau da cooperação
internacional científica. A obra pessoal e solitária do cientista individual
seria substituída pelo trabalho solidário de grupos de pesquisadores.
A obra científica resultante desse trabalho de equipe, ou de
equipes, tende a ser creditada à entidade financiadora ou patrocinadora da
pesquisa, ou ao chefe da equipe, desconhecendo a contribuição importante
de grande número de colaboradores. Tal situação, inevitável, não significa
a desvalorização das realizações individuais, nem pode ser considerado
como demérito para os pesquisadores, mas, simplesmente, espelha uma
realidade imposta como o único meio atual de se poder avançar na pesquisa
científica. Apesar do anonimato a que é relegada a quase totalidade do
enorme número de pesquisadores e de sua contribuição para se alcançar
o objetivo perseguido, há a consciência, da parte da Sociedade, de seu
mérito e do papel importante que representam para o avanço da Ciência.
A decorrente competição comercial, com a entrada de grandes
quantidades de novos produtos no mercado, criaria a “patente”,
instrumento defensivo da aquisição e proteção do processo produtivo, o
que pode ser um ônus na expansão dos benefícios advindos do avanço
científico. Sob o pretexto de segurança nacional, de perigo de proliferação
nuclear e de desenvolvimento de armamentos de destruição em massa,
e de aquisição de material e equipamentos de uso dual (civil e militar),
uma série de obstáculos ao comércio tem sido criada com a finalidade
23
CARLOS AUGUSTO DE PROENÇA ROSA
de impedir o acesso e seu uso equivocado por parte de países não
detentores dessas tecnologias. Esse problema não se coloca, no entanto,
ao conhecimento teórico, cujo produto é objeto de ampla divulgação em
revistas especializadas, pois, não se tratando de um bem comercial, não
sofre, ao menos ostensivamente, qualquer tipo de restrição.
Tal desenvolvimento da Sociedade e do Homem contemporâneos
confirmaria o continuado interesse pela pesquisa na Ciência pura, teórica,
conceitual, o que afasta o perigo de se pensar ter atingido a fronteira
do conhecimento científico. As contribuições de um grande número de
cientistas, em suas diferentes áreas de pesquisas e estudos, comprovam,
ainda, o continuado interesse pela Ciência pura e sua reconhecida
importância no processo, em curso, de libertação do espírito humano da
tutela teológica e metafísica. Dado que a grande maioria da população está,
ainda, alheia a esse processo, é forçoso reconhecer que considerações de
ordem teológico-metafísica, como a incessante busca de causas primeira e
final, continuam presentes na atualidade, retardando o pleno e completo
triunfo do espírito positivo. Em consequência, incompreensão e objeções,
resultantes de um dogmatismo anacrônico, são atuantes, por exemplo, na
Biologia e na Sociologia, criando obstáculos a seu pleno desenvolvimento.
Apesar de tais dificuldades e obstáculos, o aludido processo tem
resultado em crescente número de adeptos, principalmente nos meios
intelectuais, imbuídos de espírito científico, expresso pela positividade
e racionalidade. O decorrente progresso das Ciências, que beneficia a
Sociedade como um todo, tem contribuído para aumentar a confiança na
atividade científica e para assegurar seu prestígio.
Na impossibilidade de cobrir a evolução de todo o vasto domínio
científico na Época Contemporânea, o exame, a seguir, se limitará ao
desenvolvimento das seis Ciências fundamentais, com as referências
necessárias aos antecedentes mais importantes, de forma a ressaltar
o caráter evolutivo desse desenvolvimento. Buscar-se-á, igualmente,
enfatizar o vínculo entre as diversas Ciências, o qual é mais estreito entre
as Ciências Exatas (Matemática, Astronomia, Física e Química) que entre
essas e a Biologia e a Sociologia.
7.2 Matemática
A Matemática teve início como uma técnica de contagem
e de medição, na qual predominava seu caráter intuitivo. Seu
desenvolvimento ao longo dos séculos esteve baseado em noções
24
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
fundamentais (espaço, grandeza, quantidade, número, medida,
dimensão, forma, posição, ordem), introduzidas mediante percepções
de objetos materiais e figuras geométricas. O caráter de Ciência abstrata
e dedutiva seria introduzido pelos gregos no campo da Geometria,
através do método postulacional (axioma, teorema, postulado). Ao
mesmo tempo, a indução nunca esteve ausente da Matemática, como
evidenciam o método empregado por Arquimedes (para a obtenção
da quadratura dos arcos da parábola) ou por Fermat (proposição não
dedutiva do Teorema).
A convicção generalizada de que a Matemática lidava com objetos
reais (números, pontos, retas, planos) foi expressa, ainda no século XIX, por
Charles Hermite, ao sustentar que os números e as funções da Análise não
são produtos arbitrários, mas uma realidade com as mesmas características
da realidade objetiva. No entanto, a base realista em que se assentaria a
Matemática já fora estremecida com a introdução dos números negativos e
dos números imaginários, ambos necessários ao Cálculo algébrico. Golpe
mais recente seria a criação das Geometrias não euclidianas, já que implicou
não ser mais a Geometria a descrição do espaço físico; o ponto, a reta e o
plano não poderiam mais servir para designar tais figuras físicas. A partir
daí, decorreria que os axiomas da Geometria não seriam verdades físicas, mas
convenções para a construção de Geometrias. Perdido, desta forma, o elo com
a realidade, a Matemática deixaria de inferir do mundo físico as relações e
as propriedades dos objetos matemáticos, e passaria a lhes atribuir relações
e propriedades de acordo com as necessidades da própria Matemática.
Na ausência de estrutura natural dos objetos, impôs-se, inevitavelmente,
o estudo e o desenvolvimento da noção de estrutura matemática, que
corresponde a um objeto matemático (abstrato e sem relação com qualquer
objeto concreto em particular).
7.2.1 Aspectos Atuais
À medida que o pensamento matemático se orientava para uma
crescente abstração, o raciocínio se apartava, portanto, das figuras,
formulava com maior precisão e refinamento os conceitos básicos e
concatenava, com mais rigor, as proposições fundam entais. Um dos
aspectos extraordinários do desenvolvimento da Matemática moderna,
ocorrido no século XIX, se referiria exatamente à ênfase no rigor da
análise dos seus fundamentos, como, por exemplo, no Cálculo com os
infinitésimos e na Álgebra com os números complexos. A impossibilidade
25
CARLOS AUGUSTO DE PROENÇA ROSA
da demonstração do V Postulado de Euclides, e a criação de Geometrias
não euclidianas, determinariam a eliminação dos poderes da intuição na
fundamentação e na elaboração de uma Teoria geométrica, reduzindo
o axioma de “verdade evidente” a mero ponto de partida, escolhido
convencionalmente para servir de base de uma construção dedutiva.
As contribuições de Gauss, Cauchy, Bolzano, Weierstrass,
Dedekind, Riemann, Cantor, Peano e Hilbert foram decisivas para o
gradual rigor na fundamentação da Álgebra, da Geometria e da Análise,
assegurando base confiável e segura para seu desenvolvimento. Tal
ênfase, que correspondia a repensar os tradicionais fundamentos,
prosseguiria como prioridade, constituindo-se no aspecto mais relevante
da Matemática na atualidade.
A Lógica matemática, ou Lógica simbólica, seria outro importante
legado do século XIX. Com os estudos pioneiros de George Boole (1815-1864),
e a partir dos trabalhos de Gottlob Frege (1848-1925) e de Giuseppe Peano
(1850-1932), o tema ganharia importância com a obra Principia Mathematica
(1910/13), de Bertrand Russel e Alfred Whitehead, na qual procuraram
estabelecer uma estreita relação entre a Matemática e a Lógica. Um número
crescente de matemáticos se dedicaria, na atualidade, à tarefa de reduzir a
símbolos as proposições fundamentais de um sistema.
A Teoria geral dos conjuntos, de Cantor, teria repercussões
praticamente em toda a extensa área da Matemática, por suas implicações
em todos os seus ramos (Álgebra, Topologia, Teoria dos grupos, Análise
funcional e Teoria das funções de variável real) e por explicar conceitos
abstratos como o de “infinito”. A descoberta de alguns paradoxos
(ou antinomias) teria profundas e inquietantes repercussões, conduzindo
à axiomatização das teorias matemáticas, com influência sobre a Lógica e
os Fundamentos da Matemática. Estabelecer-se-ia um laço entre a Lógica
e a Filosofia e entre a Filosofia e a Matemática, o que redundaria no
nascimento de três grandes Escolas de Filosofia da Matemática dos dias
atuais: a do logicismo, a do formal ou axiomática e a do intuicionismo,
tema que, por sua relevância, merece especial atenção.
Assim, as mudanças estruturais ocorridas na Matemática balizam
o início deste novo período de sua evolução, em que a penetração crescente
da Teoria dos conjuntos, de Cantor, as investigações relacionadas com os
Fundamentos da Matemática e o desenvolvimento de estruturas abstratas
na Álgebra, Lógica e Espaços gerais são marcas decisivas. Do tradicional
conceito da Matemática como teoria da quantidade, ganhariam terreno
as pesquisas na área da teoria da estrutura em geral. Novos campos se
abririam, como a Teoria da integração, de Lebesgue, a Análise funcional,
26
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
o Cálculo operacional e os Tensores, bem como ampla discussão sobre a
Filosofia da Matemática (logicistas, formalistas, intuicionistas). A famosa
lista de vinte e três problemas, relacionados por Hilbert, em 1900, no II
Congresso Internacional de Matemáticos (Paris), daria a pauta dos grandes
desafios da Matemática atual.
Historiadores da Matemática costumam equiparar a grande
controvérsia gerada pelas demonstrações provocadas pela Teoria dos
conjuntos (contradições em certos Fundamentos da Matemática) às duas
grandes crises anteriores, a primeira relativa à descoberta, pela Escola
pitagórica, dos números irracionais (incompatível com a natureza do
número), e a segunda, relativa às contradições na fundamentação do
Cálculo infinitesimal (uma quantidade “h” ou “dx” tinha de ser zero ou
não ser zero na mesma operação); tais contradições seriam eliminadas de
maneira dialética1. O sistema de sete axiomas, de Zermelo (1908), seria
uma tentativa de resolver as contradições da Teoria dos conjuntos, de
Cantor.
A crescente complexidade matemática (abstração e rigor na
fundamentação), a ampliação de sua habitual área de competência e a
definição de novos conceitos estabeleceriam zonas comuns e de estreito
contato entre os tradicionais ramos – Álgebra, Geometria e Análise –,
pondo fim ao isolamento dessas áreas e à estrita compartimentalização da
Matemática. A Topologia, por exemplo, se constitui, para uns estudiosos,
num ramo autônomo da Matemática, enquanto para outros é objeto da
Geometria, se Topologia geral, e da Álgebra, se Topologia algébrica; a
Geometria diferencial pode ser incluída em Geometria ou em Análise;
Teoria das Probabilidades, Estatística e Computação são estudadas como
Matemática aplicada; Filosofia da Matemática, Lógica simbólica e Teoria
dos conjuntos são incluídas, muitas vezes, como integrantes de um novo
ramo, o dos Fundamentos. Tal evolução não significa, assim, a extinção de
ramos ou setores, mas apenas que aumentaram as dificuldades para um
acordo, entre os matemáticos, sobre os critérios para a classificação atual
da Matemática. A complexidade e a amplitude se estendem, inclusive,
em campos específicos. Assim, a Teoria dos Números comporta seis
campos: teorias elementar, analítica, algébrica, geométrica, combinatória
e computacional dos números; a Análise funcional compreende o exame
dos Espaços de Banach, de Hilbert e de Fréchet; e a Álgebra abstrata
(ou Álgebra moderna) lida com estruturas algébricas (Grupos, Anéis,
Campos, Espaços vetoriais, Módulos).
1 STRUIK, Dirk J. História Concisa das Matemáticas.
27
CARLOS AUGUSTO DE PROENÇA ROSA
7.2.1.1 Os Problemas de Hilbert
Os famosos vinte e três problemas da Matemática, formulados
por Hilbert, em 1900, dariam a tônica das investigações ao longo do
século XX. Em 1975, a American Mathematical Society (AMS) publicaria,
em dois volumes, coleção de artigos e estudos atualizando o progresso
em cada um desses temas, com exceção dos problemas n° 3 (igualdade
do volume de dois tetraedros, se a base, a área e a altura forem iguais)
resolvido, em 1903, por Max Dehn e n° 16 (o problema da Topologia das
curvas e superfícies algébricas). O desafio lançado por Hilbert continua
a incentivar pesquisas, apesar de quase todos os problemas relacionados
terem sido resolvidos, ou totalmente (# 1 – a cardinalidade do contínuo, de
Cantor, por Paul Joseph Cohen, em 1960; # 2, demonstrado por Godel, em
1931; # 3, resolvido por Dehn; # 9, demonstrado por Emil Artin, em 1927;
# 13, demonstrado por Kolmogorov, em 1954; # 15, comprovado por van
der Waerden, em 1930; # 17 – resolução de equações definidas, por Emil
Artin, em 1927; # 18, por Thomas C. Hales, em 1998; # 19, demonstrado
por Sergei Bernstein e Tibor Rado, em 1929; # 20, por Sergei Bernstein;
# 21, por Helmut Rölr, em 1957; e # 22, por Paul Koebe e Poincaré, em
1907), ou parcialmente (# 5 – a conjectura de Hilbert de que a qualquer
Grupo topológico euclidiano pode ser dada uma estrutura para que se
transforme num Grupo de Lie, seria parcialmente solucionada por von
Neumann, em 1929, para Grupos compactos, e em 1934, por Pontryagin,
para Grupos abelianos, e # 7 – a irracionalidade e transcendência de
alguns números, por Alexander Gelfond, em 1924) ou negativamente
(# 10 – resolução da Equação Diofântica, por Yuri Matiyasevich, em 1970,
e # 14, provado por Nagata, em 1959).
Consequência inevitável dessa expansão e da complexidade dos
temas seria a especialização atual, dedicado o pesquisador a algumas
poucas áreas. O especialista substituiria o generalista, pelo que muitos
autores consideram Poincaré e Hilbert como os últimos grandes
matemáticos, por suas extraordinárias contribuições nos diversos ramos,
inclusive na Filosofia da Matemática2.
7.2.1.2 Matemática de Âmbito Mundial
A Matemática, uma atividade científica, até o final do século XIX,
quase que exclusivamente da Europa ocidental e do norte, seria cultivada
2 EVES, Howard. Introdução à História da Matemática.
28
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
e prestigiada, igualmente, em outras partes do Planeta, como Japão e
EUA, já no início do século XX, adquirindo rapidamente âmbito mundial.
A Alemanha, principal centro de pesquisa, desde Gauss, Jacobi,
Riemann, Weierstrass, Dirichlet, Plucker, Grassmann, Clebsch e Krönecker,
manteria sua posição privilegiada frente aos demais países, graças às
contribuições teóricas de Cantor, Dedekind, Frege, Klein, Frobenius,
Minkowski, Planck e Hilbert nos diversos ramos da Matemática.
Uma nova geração, com excelente qualificação, adquirida nos grandes
estabelecimentos de ensino (como Göttingen, Erlangen, Berlim, Breslau),
seria capaz de manter, por algum tempo, a Alemanha na liderança; dessa
lista, constam, entre outros, Zermelo, Hausdorff, Stewitz, Landau, Hahn,
Emmy Noether, Weyl, Bieberbach e Hopf. O advento do regime nazista
e a eclosão da Segunda Guerra Mundial desmantelariam a rede de alta
qualidade de ensino e propiciaria a fuga de “cérebros” alemães para
outros países, situação que começaria a se reverter a partir dos anos 60,
voltando a Alemanha a ser importante centro científico e cultural.
A França, de longa tradição matemática (Viète, Desargues,
Fermat, Descartes, Pascal, Clairaut, d’Alembert, Lagrange, Monge,
Fourier, Cauchy, Galois), mas que perdera a liderança para a Alemanha,
continuaria, no entanto, como importante centro de referência matemática.
Poincaré é, reconhecidamente, sua maior expressão no período, que
contaria, igualmente, com as contribuições de Gaston Darboux, Camille
Jordan, Émile Picard, Jacques Hadamard, Élie Cartan, Émile Borel, René
Baire, Henri Lebesgue, Gaston Julia e Maurice Fréchet. Uma nova geração
de matemáticos (Jean Dieudonné e André Weil seriam os principais
colaboradores do Grupo Bourbaki) representada por Henri Cartan, Laurent
Schwartz, Jean Pierre Serre, Jean Delsarte, René Thom, Claude Chevalley,
Laurent Lafforgue, Jean Christophe Yoccoz e Alain Connes asseguraria
a retomada da França no Pós-Guerra como referência na pesquisa
matemática. Nesse contexto, caberia citar Alexander Grothendieck, alemão
de nascimento, mas francês naturalizado, Medalha Fields, especialista
nas áreas da Geometria algébrica, da Álgebra homológica e da Análise
funcional, que, apesar de suas críticas ao meio matemático e rebeldia
às convenções, é considerado um dos maiores matemáticos da segunda
metade do século XX.
A Itália, que após sua reunificação política voltara a ter presença
marcante no cenário internacional, com Betti, Cremona, Beltrami, Veronese
e Bianchi, contaria, na primeira metade do período, com as importantes
contribuições de Ricci, Peano, Volterra, Burali-Forti, Castelnuovo,
Enriques, Levi-Civita. O fascismo e o conflito de 1939/45 seriam fatores
29
CARLOS AUGUSTO DE PROENÇA ROSA
determinantes da queda de produção matemática italiana até meados do
século, quando voltariam a prevalecer condições favoráveis ao ensino e à
pesquisa. No Pós-Guerra, sobressaíram os trabalhos de Segre, Gian Carlo
Rota, Dionisio Gallarati e Enrico Bombieri (Medalha Fields).
O filósofo Bertrand Russell seria o grande matemático da
Grã-Bretanha na primeira metade do período, contemporâneo de
Whitehead, Pearson, Young, Hardy, Paul Bernays, John Littlewood,
Dirac. O novo e promissor campo da Computação teria em Turing um de
seus iniciadores; da nova geração britânica, da qual caberia citar Michael
Atiyah, David Mumford, Simon Donaldson e Richard Borcherds, Andrew
Wiles tornou-se famoso com a solução para o Último Teorema de Fermat.
O Império Russo, que formara matemáticos de primeira grandeza
no passado (Lobachevski, Chebyshev, Kovalevski, Karpov, Ostrogradski)
se transformaria, no período atual, como URSS, num dos mais importantes
centros de Matemática do Mundo. De uma longa lista de eminentes
pesquisadores e teóricos, valeria citar, como exemplo, Markov, Egorov,
Luzin, Vinogradov, Aleksandrov, Lyapunov, Chebyshev, Khinchin,
Petrovsky, Kolmogorov, Gelfond, Zariski, Bernstein, Gelfand, Aleksandr,
Pontryagin, Chermikov e Gnedenko; da nova geração, Margulis, Novikov,
Zelmanov, Kontsevich e Voevodsky receberam a Medalha Fields.
A Polônia ocuparia um lugar de grande relevância até a II Guerra
Mundial; seus mais renomados matemáticos desse período seriam
Lukasiewicz, Lesniewski, Sierpinki, Mazurkievski, Tarski, Kuratowski,
Banach, Steinhaus, Eilenberg, Mandelbrot e Zygmund.
Ainda na Europa, nos Países Baixos sobressaíram Brouwer, Arendt
Heyting e van der Waerden; na Hungria Friedrich Riesz, Alfred Haar, John
von Neumann, Imre Lakatos, Paul Erdos e Tibor Rado; na Áustria von
Mises, Emil Artin e Kurt Gödel; na Bélgica Pierre Deligne e Jean Bourgain
(ambos ganhadores da Medalha Fields); na Suécia Harald Cramer, Lars
Hörrmander e Erik Fredholm e na Noruega Thoralf Skolem.
Até então praticamente circunscrita ao continente europeu, a
Matemática passaria, no atual período de seu desenvolvimento, a ser
estudada, pesquisada e cultivada em outras regiões. Os EUA, cujos
matemáticos do período anterior não contribuiriam significativamente para
o desenvolvimento da Matemática, passaria a ter um papel de crescente
importância no cenário internacional, convertendo-se, depois do fim da
Segunda Guerra Mundial, num dos principais centros de pesquisa, em parte
pela chegada de perseguidos e exilados políticos e refugiados europeus, em
parte pela excelência da rede universitária. Dickson, Veblen, Polya, Wiener,
Wald, Church, Quine, Kleene, Marshall Hall, Shannon, Appel, Paul Joseph
30
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Cohen, Shing Yau, Stephen Smale, William Thurston, John Thompson,
David Mumford e Michael Freedman (estes sete últimos matemáticos citados
receberam a Medalha Fields) são alguns nomes que atestam o avanço ocorrido
no campo da Matemática, pura e aplicada, nesse país.
Com a Era Meiji, o governo japonês incentivaria o estudo da
Matemática e propiciaria contato e intercâmbio com pesquisadores e
entidades estrangeiras, em particular da Alemanha, França e EUA. Desta
forma, viria o Japão a se beneficiar com a reformulação do ensino superior e
a formação de matemáticos atualizados com o estágio de desenvolvimento
da Matemática no Ocidente. Takagi, Suetuna, Shoda e Iyanaga foram dos
primeiros beneficiados pela nova política imperial, seguindo-se Sasaki,
Kakutani, Iwasawa, Ito e Kodaira (Medalha Fields). Uma nova geração
de hábeis matemáticos seria representada por Hironaka (Medalha Fields),
Honda, Kumano-Go, Matsushima, Sato e Mori (Medalha Fields). Ainda
no Extremo Oriente, a China avançaria bastante na pesquisa matemática
durante o período até a Revolução Cultural, conforme atesta o progresso
alcançado em vários domínios (aeroespacial, comunicações, computação)
que requerem vasto conhecimento e capacidade matemática. A partir dos
anos 80, as novas autoridades de Beijing buscariam estabelecer contatos e
colaboração com a cultural ocidental, particularmente no campo científico.
Desta forma, as perspectivas, já para um futuro próximo, serão de crescente
interação de matemáticos chineses com seus colegas ocidentais, e de
ampla participação nos foros internacionais, que, além de extremamente
proveitosas para a República Popular da China, permitirão ao Ocidente
conhecer o real desenvolvimento da Matemática nesse país asiático.
O primeiro matemático conhecido da Índia do período atual seria
Srinivasa Ramanujan (1887-1920), por seus trabalhos principalmente
em Álgebra. A partir de sua independência política, a Índia priorizaria
o estudo e a pesquisa matemática, o que lhe criaria condições para
desenvolver outros ramos da Ciência pura e aplicada.
Os vários países da América Latina (Brasil, Argentina, México,
Chile, Cuba, Peru, Venezuela) procurariam recuperar o tempo perdido
estimulando, através do ensino e da investigação, em universidades,
centros de pesquisa e sociedades, a formação de seus matemáticos e o
desenvolvimento do conhecimento dos vários ramos da Matemática.
Ainda que não figurem pesquisadores latino-americanos da lista de
contemplados com afamados prêmios internacionais, o intenso contato,
a estreita colaboração e a constante participação em foros multilaterais
asseguram, para o futuro, a crescente presença latino-americana no
cenário mundial.
31
CARLOS AUGUSTO DE PROENÇA ROSA
7.2.1.3 Instituições Nacionais
Se a pesquisa e o estudo da Matemática superior estiveram,
anteriormente, concentrados nos grandes centros universitários
(Alemanha, França, Grã-Bretanha, Itália, Rússia e EUA, por exemplo), no
período atual passariam a ter grande importância os centros de pesquisa,
vinculados ou não às universidades, mas espalhados num grande número
de países. Via de regra, tais centros estabelecem áreas de investigação,
formam equipes de trabalho, sob a coordenação de um matemático mais
experiente, dispõem de recursos financeiros, de pessoal e mantêm contato
e colaboração com outras instituições.
Um pequeno número desses centros, de uma longa lista, é
apresentado a seguir, a título meramente exemplificativo: Centre de
Recherches Mathématiques (Universidade de Montreal), Centre de
Mathématique de l’École Polytechnique (Paris), Centro de Recerca
Matematica (Barcelona), Consiglio Nazionale delle Ricerche (Roma),
Euler International Mathematical Institute (São Petersburgo), Geometry
Center (Universidade de Minnesota), Institute for Advanced Study
(Universidade de Princeton), Instituto de Matemática Pura e Aplicada
(Rio de Janeiro), Institut des Hautes Études Scientifiques (Paris), Institute
for Pure and Applied Mathematics (UCLA), Isaac Newton Institute
for Mathematical Sciences (Universidade de Cambridge), Max Planck
Institut für Mathematik (Bonn), Mathematical Sciences Research Institute
(Universidade de Berkeley), Research Institute for Mathematical Sciences
(Universidade de Kyoto), Clay Mathematics Institute, de Cambridge
(Mass. - EUA), Mittag-Leffler Institute (Estocolmo), Center for Scientific
Computing (Finlândia), Mathematical Research Institute, dos Países
Baixos, Tata Institute for Fundamental Research (Bombaim).
Hoje em dia, todo país com razoável e ativa comunidade científica
dispõe de um Centro de Pesquisa Matemática e mantém estreito
relacionamento com entidades congêneres de outros países.
Como no período anterior, quando foram criadas sociedades em
alguns países e cidades (como Holanda, Praga, Moscou, Londres, França,
Finlândia, Alemanha, Dinamarca, Tóquio, Hungria, São Petersburgo,
Palermo, EUA, Bulgária, Romênia), instituições nacionais especializadas
para o desenvolvimento, divulgação e cooperação no campo da Matemática
seriam fundadas em diversos outros países, dos cinco continentes.
Tais sociedades civis não têm vínculos governamentais, não têm fins
lucrativos e são financiadas por contribuições e donativos particulares.
Suas atividades compreendem, normalmente, realização de simpósios,
32
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
conferências e cursos, além de divulgação de trabalhos em publicações
periódicas, de participação em reuniões internacionais e do patrocínio de
contatos entre pesquisadores nacionais e intercâmbio com estrangeiros. A
titulo exemplificativo podem ser citadas as Sociedades Matemáticas: de
Viena (1903) mais tarde denominada Sociedade Austríaca de Matemática,
da Polônia (1917), da Noruega (1918), da Grécia (1918), da Bélgica (1921),
da Itália (1922), da China (1935), da Argentina (1936), de Portugal (1940),
do México (1943), do Canadá (1945), da Coreia (1946), da Islândia (1947),
da Turquia (1948), da Suécia (1950), da Austrália (1956), da África do Sul
(1957), do Vietnam (1965), do Brasil (1969), da Irlanda (1970), da Malásia
(1970), das Filipinas (1972), da Nova Zelândia (1974), do Chile (1982) e da
Europa (1990).
Tais iniciativas, de cunho nacional, atestam o grande interesse pelo
desenvolvimento e divulgação da Matemática, além de terem servido de
impulsionadoras de fecunda e mutuamente benéfica cooperação entre
matemáticos das diversas nacionalidades.
7.2.1.4 Instituições e Conclaves Internacionais. Premiação
No final do século XIX, cientistas de vários países e de diversas
especializações começariam a se reunir, de forma regular e periódica, para
discutir questões relevantes de sua área de competência. Conferências
internacionais, entre outras, de químicos, de astrônomos, de médicos, de
biólogos e de estatísticos seriam celebradas com o intuito de permitir debate
de temas que requeriam exame conjunto e cooperação multilateral. Célebres
são, por exemplo, o Congresso Internacional de Estatística, em Bruxelas
(1853) e a Conferência Internacional de Química, em Karlsruhe (1860).
O século XX testemunharia, igualmente, uma inédita e ampla
cooperação internacional no campo da Matemática3, a qual se iniciara,
de forma tímida e restrita, no I Congresso Internacional de Matemática
(Zurique, 1897) com cerca de 200 participantes, em que os temas centrais
foram as Funções Analíticas e a Teoria dos conjuntos, de Georg Cantor, os
Fundamentos da Lógica e as Funções das Funções.
O II Congresso Internacional (Paris, 1900), com cerca de 260
participantes, ficou célebre devido à apresentação, por David Hilbert, dos
vinte e três problemas que relacionara como os que requereriam maior
atenção dos matemáticos nos anos vindouros. Seguiram-se os Congressos
de Heidelberg (1904), Roma (1908) e Cambridge, na Inglaterra (1912),
3 TATON, René (dir.). La Science Contemporaine.
33
CARLOS AUGUSTO DE PROENÇA ROSA
iniciativas que seriam interrompidas por causa da Primeira Guerra
Mundial, mas que não impediria a realização, em 1914, do Congresso de
Filosofia da Matemática. Terminado o conflito, seria criado em Bruxelas
o Conselho Internacional de Pesquisa (1919), ao qual se associariam as
sociedades matemáticas nacionais, e seria fundada a União Internacional
de Matemática (UIM), filiada ao Conselho.
A partir de 1920, voltaria a se reunir o conclave internacional
de Matemática, agora como Congresso Internacional de Matemáticos
(CIM), sob a égide da União Internacional de Matemática (UIM). O VI
Congresso se realizou em Estrasburgo (1920), enquanto Toronto sediou o
VII Congresso (1924) e Bolonha, o VIII Congresso (1928).
Em 1931, o Conselho Internacional de Pesquisa transformou-se em
Conselho Internacional das Uniões Científicas, com o intuito de congregar
as diversas entidades científicas espalhadas pelo Mundo. Em 1932,
realizou-se, em Zurique, o IX Congresso Internacional de Matemáticos,
com cerca de 670 participantes, de quarenta países; entretanto, problemas
vinculados à participação de não membros levariam à dissolução da
UIM, mas seria aprovada a criação da Medalha Fields, a ser outorgada,
a cada quatro anos, a matemáticos jovens, com relevantes contribuições
para o desenvolvimento da Matemática. Apesar de não ser conhecida do
grande público, a Medalha Fields é considerada como o Prêmio Nobel da
Matemática, e, como tal, muito prestigiada no meio matemático.
Uma série de colóquios se realizaria nos anos seguintes: Teoria
quântica, 1933; Lógica matemática, 1934; Geometria diferencial, 1934;
Topologia, 1935; Probabilidades, 1937.
Mesmo com a UIM dissolvida, realizou-se em Oslo (1936) o
X Congresso Internacional de Matemáticos, seguindo-se, por causa
da Segunda Guerra Mundial, uma longa interrupção de reuniões, só
retomada em 1950, com o XI Congresso, em Cambridge (EUA). Em 1951,
a União Internacional de Matemática foi recriada ou reconstituída, sendo
bastante atuante desde então.
Os Congressos Internacionais de Matemáticos que se seguiram
foram os de Amsterdã (1954), Edimburgo (1958), Estocolmo (1962),
Moscou (1966), Nice (1970), Vancouver (1974), Helsinque (1978), Varsóvia
(1983), Berkeley (1986), Kyoto (1990), Zurique (1994), Berlim (1998), Beijing
(2002) e Madri (2006).
Com o intuito de prestigiar a Matemática e expressar reconhecimento
pelo trabalho de matemáticos, várias entidades, nacionais e internacionais,
concedem prêmios a relevantes obras nesse campo. Referências a algumas
dessas premiações são apresentadas a seguir.
34
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Dentre os laureados com a Medalha Fields da UIM, caberia
mencionar Lars Ahlfors (1936), Laurent Schwartz (1950), Kunihiko Kodaira
e Jean Pierre Serre (1954), Klaus Roth e René Thom (1958), Alexander
Grothendieck, Michael Francis Atiyah, Paul Joseph Cohen e Stephen
Smale (1966), Richard Borcherds, William T. Gowers, Maxim Kontsevich
e Curtis T. MacMullen (1998), Laurent Lafforgue e Vladimir Voevodsky
(2002) e Terence Tao, Andrei Okounkov e Wendelin Werner (2006).
Além da Medalha Fields (matemático canadense John Charles
Fields, 1863-1932), foram criados: i) em 1981 (e outorgados a cada quatro
anos, a partir de 1982) o Prêmio Rolf Nevanlinna, destinado a jovens
matemáticos com relevantes contribuições a aspectos matemáticos da
Ciência da Computação (Robert Tarjan, em 1982; Leslie Valiant, em
1986; Peter Shor, em 1998; Madhu Sudan, em 2002; e Jon Kleinberg, em
2006) e ii) em 2002 (e outorgado pela primeira vez em 2006 a Hiyoshi Ito)
o Prêmio Karl Friedrich Gauss (homenagem pelos 225 anos de nascimento
do matemático alemão) para matemáticos cujas pesquisas sejam de
relevância para outros campos.
Em 1o de janeiro de 2002, o Parlamento norueguês criou o
“Fundo Comemorativo Niels Hendrik Abel”, para celebrar o segundo
centenário de nascimento do matemático, com a finalidade de conceder
prêmio por contribuições relevantes em Matemática. O Prêmio, a ser
outorgado, anualmente, a matemáticos de qualquer idade, e que tem o
valor aproximado de 750 mil euros, foi concedido, pela primeira vez, em
2003, a Jean Pierre Serre, do Colégio de França, por seus trabalhos em
Topologia, Geometria algébrica e Teoria dos Números; em 2004, a Michael
Atiyah, da Universidade de Edimburgo, e Isadore Singer, do MIT, por
suas pesquisas em Topologia, Análise e Geometria; em 2005, a Peter D.
Lax, do Instituto de Ciências Matemáticas da Universidade de Nova
York, por seu trabalho em teoria e aplicação de equações diferenciais
e à informatização de suas soluções; em 2006, a Lennart Carleson, do
Instituto Real de Tecnologia, da Suécia, por suas contribuições à Análise
harmônica (Séries Fourier); em 2007, ao indiano Srinivasa, professor
do Instituto Courant da Universidade de Nova York; e em 2008, a John
Griggs Thompson, professor da Universidade da Flórida e o belga
Jacques Tits, do Colégio de França.
O Fundo Abel, em parceria com o Centro Internacional de Física
Teórica (ICTP) e a União Internacional de Matemática, criaria, ainda, o
Prêmio Ramanujam, para homenagear Srinivasa Ramanujam (1887-1920),
matemático indiano com relevantes contribuições em Teoria dos Números,
Funções elípticas e Séries infinitas. Outorgado aos matemáticos de idade
35
CARLOS AUGUSTO DE PROENÇA ROSA
até 45 anos com relevantes pesquisas em países em desenvolvimento,
o Prêmio Ramanujam foi concedido pela primeira vez, em 2005, ao
brasileiro Marcelo Viana, do Instituto de Matemática Pura e Aplicada (Rio
de Janeiro), por seus trabalhos em Sistemas dinâmicos, Teoria ergódiga e
Teoria de bifurcação. O Prêmio foi concedido em 2006 à professora indiana
Ramdorai Sujatha, e em 2007, a Jorge Lauret.
Outros importantes prêmios de caráter internacional são
outorgados pela Sociedade Matemática Americana (AMS): i) o Prêmio
Böcher, em memória de Maxime Böcher, Presidente da AMS em 1909-1910;
concedido desde 1923, atualmente, a cada três anos; já foram laureados,
entre outros, David Birkhoff, Marston Morse, John von Neumann,
Paul J. Cohen e Alberto Brassan; ii) o Prêmio Frank Nelson Cole, em
Álgebra, em homenagem ao Professor Frank Cole (1861-1926), secretário
da AMS por vinte e cinco anos e editor-chefe do Boletim da entidade por
vinte e um anos; concedido, desde 1928, a membros da Sociedade, por
trabalhos sobre Teoria dos Números, publicados nos seis anos anteriores,
ou por não membros, desde que os artigos tenham sido publicados pela
AMS; atualmente, o prêmio Cole é concedido a cada três anos, o último
tendo sido em 2006; dentre os laureados, cabe citar Claude Chevalley,
John T. Tate, Andrew Wiles, Peter Sarnak; e Prêmios Leroy P. Steele,
criados, em 1970, em homenagem a George David Birkhoff, William Fogg
Osgood e William Caspar Graustein, e concedidos, até 1976, anualmente,
por pesquisas relevantes no campo da Matemática. A Sociedade, em 1977,
modificaria os termos para a concessão dos prêmios, no limite de três
por ano e com a criação de três categorias i) pela influência cumulativa
do trabalho total matemático do laureado, alto nível de pesquisa por um
período de tempo, influência sobre o desenvolvimento de um campo e
influência na Matemática por meio de estudantes PhD; ii) por um livro,
pesquisa substancial ou um artigo expositivo de pesquisa; e iii) por um
trabalho, recente ou não, de grande importância num determinado campo.
Solomon Lefschetz e Jean Dieudonné estão entre os laureados da primeira
fase, podendo-se citar Antoni Sygmund, André Weil, John Nash, Oscar
Zariski, Gian Carlo Rota e Robert Langlands na fase atual.
A Fundação Wolf, com sede em Israel, foi criada em 1976, com
fundos doados por Ricardo Wolf, e concede, anualmente, prêmios a várias
atividades científicas e artísticas (Agricultura, Química, Matemática,
Física, Medicina e Arte). Quanto à Matemática, o prêmio é concedido
anualmente, tendo sido agraciados, até o momento, entre outros, Izrael
Gelfand, Carl Siegel, André Weil, Henri Cartan, Kolmogorov, Paul Erdos,
Kiyoshi Ito, Alberto Calderon, Gregori Margulis, Novikov.
36
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.2.1.5 Publicações
Em decorrência da importância e do interesse da comunidade
intelectual e acadêmica pela Matemática pura e aplicada, aumentariam
consideravelmente o número e a qualidade das publicações especializadas,
cujo total é, hoje, superior a dois mil títulos. Revistas de universidades
e das sociedades e institutos nacionais, de entidades internacionais e
de organizações públicas e privadas divulgam e comentam trabalhos,
investigações, eventos e obras no amplo campo da Matemática, tornando
mais disponível o acesso, pela comunidade científica, às descobertas,
linhas de pesquisa e correntes de pensamento.
Especial menção deve registrar a contribuição da Mathematical
Review, publicada desde 1940, pela Sociedade Matemática Americana
(AMS). Em fascículos de cerca de 150 páginas cada um, a revista apresenta,
mensalmente, resumo da produção matemática mais importante em todo
o Mundo, tornando-se indispensável nas bibliotecas especializadas e de
consulta obrigatória da comunidade científica. Os sumários ou resumos
críticos de livros e artigos publicados nas principais revistas abrangem
59 grandes títulos, distribuídos em onze partes, que cobrem extensa
variedade de temas, tanto de Matemática pura quanto de Matemática
aplicada (Mecânica, Elasticidade e Plasticidade, Acústica, Óptica,
Termodinâmica, Eletromagnetismo, Mecânica dos fluidos) e questões de
Ciências afins (Astronomia, Geofísica, Relatividade, Estrutura da Matéria,
Biologia, Economia, Informática, Comunicação).
No vasto campo da Matemática pura caberia citar, a título
exemplificativo, alguns temas tratados regularmente nos comentários
bibliográficos pela Review: Álgebra, Geometria, Análise, Lógica, Teoria
dos conjuntos, Topologia, Geometria algébrica, Teoria dos Números,
Álgebras e Anéis, Equações integrais, Análise de Fourier, Teoria dos
grupos, Probabilidades, Equações diferenciais, Análise funcional.
Revistas periódicas, dedicadas a pesquisas, como a polonesa
Fundamenta Mathematicae (fundada em 1920, por Sierpinski, Mazurkiewicz
e Janizewski), o Journal (1926), da Sociedade Matemática de Londres
e a Historia Mathematicae (1974), da Comissão Internacional da História
da Matemática, viriam juntar-se a outras importantes publicações
especializadas, algumas editadas desde a segunda metade do século XIX,
de universidades e sociedades, como a publicação sueca Acta Mathematica
(fundada por Mittag-Leffler) e a alemã Matematische Annalen.
Atualmente, há um grande número de importantes publicações
eletrônicas especializadas em vários ramos da Matemática. A título
37
CARLOS AUGUSTO DE PROENÇA ROSA
exemplificativo, caberia citar a Documenta Mathematica (1996), da Sociedade
Matemática Alemã, a Annonces de Montpellier en Algèbre (AMA), a Algebraic
and Geometric Topology, da Universidade de Warwick, em Coventry
(Inglaterra), a Central European Journal of Mathematics, de Varsóvia, o
New York Journal of Mathematics e o Lobachevskii Journal of Mathematics, da
Universidade Estatal de Kazan.
7.2.1.6 Vínculos e Contribuições
A Matemática foi decisiva no advento do espírito científico moderno
e no desenvolvimento da Ciência experimental. O crescente e generalizado
reconhecimento, nos meios intelectuais e nos círculos governamentais e
empresariais, da importância da Matemática aplicada para o progresso
tecnológico, comprovado com a Segunda Revolução Industrial, seria um
incentivo adicional para os avanços nas investigações matemáticas, que se
acelerariam a partir da segunda metade do século XIX.
Em consequência, o prestígio do matemático se firmaria na
comunidade científica e industrial, o ensino da Matemática se tornaria
obrigatório em todos os níveis, se multiplicariam os centros de pesquisa
e os cursos especiais, e se intensificaria a colaboração internacional. Se
o notável desenvolvimento, expansão, especialização e abstração da
Matemática, na atualidade, reforçariam a sua já estreita e tradicional
vinculação com outras Ciências4, por outro lado, restringiriam a pesquisa
matemática ao profissional. Ao contrário de épocas anteriores, quando
foram inúmeros os exemplos de físicos, químicos e biólogos envolvidos
em investigações matemáticas e vice-versa, atualmente, a área de pesquisa
matemática está restrita, pela complexidade dos temas, aos matemáticos
profissionais.
As universidades continuariam a desempenhar papel
fundamental nos avanços teóricos da Matemática pura, porém seria
crescente a investigação em laboratórios e centros de pesquisa, públicos
e privados, no campo da Matemática aplicada, em particular na Física e
na Engenharia.
A Indústria tem sido, portanto, uma das grandes impulsionadoras
atuais do desenvolvimento científico, por sua reconhecida dependência
de pesquisa tecnológica (Robótica, Nanotecnologia, Cibernética,
Informação, Biotecnologia, Meio Ambiente, novos materiais) para
aplicação em diversos setores (manufatureiro, radiocomunicação,
4 COTARDIÈRE, Philippe de la. Histoire des Sciences.
38
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
informática, computação, aeroespacial, energia, química, farmacêutica
e outros). Diante da premente necessidade de inovação tecnológica
numa sociedade competitiva e consumista, setores da indústria mantêm
laboratórios de pesquisa, com a participação de matemáticos, cientistas
e técnicos, com a finalidade de encontrar solução aos constantes
desafios devidos a uma demanda em expansão. A resultante desse
quadro de cooperação e vinculação científica e tecnológica de uma
Sociedade industrial é o incentivo ao desenvolvimento da investigação
matemática. Dessa forma, a inestimável contribuição da Matemática
e dos matemáticos ao desenvolvimento científico e tecnológico é hoje
amplamente reconhecida.
7.2.1.7 Problemas do Milênio
Finalmente, é importante assinalar o novo desafio lançado
à comunidade matemática pelo Clay Mathematics Institute, de
Cambridge, Massachussets. A exemplo do anúncio, em 1900, de Hilbert,
durante a Conferência Internacional de Matemáticos, em Paris, do que
se convencionou chamar de “os vinte e três problemas matemáticos”,
o mencionado Instituto, em reunião no Collège de France (Paris),
em maio de 2000, estabeleceu um prêmio de um milhão de dólares
para a solução de cada um dos seguintes sete problemas, chamados
de “problemas do Milênio”: Conjectura Birch e Swinnerton-Dyer
(1965), Conjectura Hodge (1950), Conjectura Poincaré (1904), Equações
Navier-Stokes (1850), P versus NP (1971), Hipótese Riemann (1859) e
Teoria Yang-Mills (1950).
7.2.1.8 Temas
Em vista das características atuais da Matemática, o exame de sua
evolução neste período começará com um capítulo sobre Fundamentos
e Filosofia da Matemática, seguido de outro sobre Desenvolvimento
da Matemática, no qual serão abordados vários temas, como Álgebra
moderna, Teoria dos Números, Geometria algébrica, Geometria
diferencial, Geometria fractal, Topologia, Equações diferenciais, Análise
funcional, Integração e Medida. Os temas da Teoria das Probabilidades
e da Cibernética/Computação serão examinados em dois tópicos em
separado e independentes.
39
CARLOS AUGUSTO DE PROENÇA ROSA
7.2.2 Fundamentos e Filosofia da Matemática
As importantes questões dos Fundamentos e da Filosofia da
Matemática, temas estreitamente relacionados, serão examinados em três
tópicos: Axiomatização, Paradoxos da Teoria dos conjuntos e Filosofia da
Matemática.
7.2.2.1 Axiomatização
O questionamento dos Fundamentos da Matemática em função de
objeções e críticas a conceitos e princípios, aceitos, até então, sem discussão,
determinaria o início do reexame, no século XIX, das suas próprias bases,
o que, pela importância e repercussões do tema, seria o assunto central
das investigações da Matemática na atualidade.
A busca pelo rigor matemático em seus Fundamentos levaria a
uma série de revisões de seus pressupostos, que resultaria no triunfo de
uma postura de bases mais sólidas para a Matemática. O resultado foi a
criação da Axiomática, ou estudo de um conjunto de postulados e suas
propriedades principais, conhecidas como da “consistência” (não pode
haver contradições), da “independência” (não serem consequência lógica
um do outro) e da “equivalência” (os conceitos primitivos de cada um
deles podem ser definidos por meio de conceitos primitivos do outro, e os
postulados de cada um podem ser deduzidos dos postulados do outro)5.
Desde a criação do Cálculo infinitesimal (Leibniz, Newton)
surgiram objeções a certas noções imprecisas e complexas (diferencial,
infinitesimal) e a certas contradições, como a de a quantidade “h” ou “dx”
ser zero e não ser zero na mesma operação. O reconhecimento generalizado
da necessidade de maior rigor nos Fundamentos da análise (d’Alembert,
Euler, Lagrange, Gauss, Cauchy, Bolzano, Grassmann, Weierstrass,
Peano) originaria noções de continuidade de uma função, de derivada, de
limite, de integral de uma função, de convergência e mesmo da definição
de “infinitamente pequeno”.
O interesse em estabelecer raízes sólidas e seguras, igualmente,
para a Álgebra (Dedekind, Cantor, Weierstrass) seria tentado por Frege
(Os Fundamentos da Aritmética, 1884, e As Leis Básicas da Aritmética, 1893 e
1903), com base na Teoria dos conjuntos (Cantor), cuja abrangência tinha
repercussões em toda a Matemática. Peano, em Os Princípios de Aritmética
logicamente expostos, 1889, e no Formulário Matemático (1894-1908),
5 EVES, Howard. Introdução à História da Matemática.
40
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
estabeleceria a base axiomática para seus Fundamentos da Aritmética.
Hilbert, que reduzira a consistência dos axiomas da Geometria aos da
Aritmética, conceberia um método (formalismo) destinado à axiomatização
da Aritmética.
A base conceitual dedutiva da Matemática, firmemente estabelecida
pelos gregos na Geometria com Euclides, por meio de teoremas
fundamentados em axiomas (verdades evidentes indemonstráveis)
e postulados (admitidos sem discussão), seria questionada, a partir
do surgimento das Geometrias não euclidianas (Lobachevski, Bolyai,
Riemann). A axiomatização da Geometria, por Hilbert (Fundamentos da
Geometria, 1898-1899) substituiria os cinco axiomas e os cinco postulados por
vinte e um postulados (oito sobre a incidência, quatro para propriedades
de ordem, cinco acerca da congruência, três sobre continuidade e um
postulado sobre paralelas), os quais enfeixam pressupostos fundamentais
e certos termos básicos não definidos (ponto, reta, plano). Nesse sentido,
Hilbert defendia que as relações não definidas deveriam ser tratadas como
abstrações, e a necessidade de abstração dos conceitos geométricos, como
a substituição de “pontos, retas e planos”, por “mesas, cadeiras, canecas de
cerveja”6. Nessa mesma época, Peano publicaria Os Princípios de Geometria
logicamente expostos (1899), influenciado pela afirmação (1882), de Moritz
Pasch, de que a dedução deveria independer dos significados de conceitos
geométricos.
A axiomatização da Álgebra começaria com os trabalhos de George
Peacock, em 1830, no Treatise on Algebra, no qual iniciaria um trabalho de
fundamentação lógica axiomática, a exemplo da Geometria de Euclides;
no mesmo sentido seria a obra de Augustus de Morgan, no mesmo ano de
1830, intitulada Trigonometry and Algebra.
As pesquisas para uma sólida e rigorosa fundamentação dos ramos
da Matemática (Álgebra, Geometria, Análise) se estenderiam à Teoria dos
conjuntos, em vista de sua ampla repercussão em vários domínios. A
Teoria dos conjuntos seria axiomatizada por Ernst Zermelo (1871-1953) em
1908, na publicação Newer Beweis, sendo seu sistema constituído por sete
axiomas: da extensão, de conjuntos elementares, de separação, de conjunto
de poder, de união, de escolha e do infinito. Com vistas a evitar paradoxos,
inclusive descobertos pelo próprio Zermelo, o sistema axiomático
seria refinado, independentemente, por Adolf Fraenkel (1891-1965)
em duas oportunidades (1922 e 1925) e pelo norueguês Thoralf Skolem
(1887-1963), em 1922 e 1929. O atual sistema axiomático da Teoria dos
conjuntos (dez axiomas – da extensão, do conjunto vazio, dos pares,
6 BOYER, Carl B. História da Matemática.
41
CARLOS AUGUSTO DE PROENÇA ROSA
da união, do infinito, de conjunto de poder, da regularidade, da separação,
da substituição e da escolha) é hoje conhecido como ZFS, iniciais dos três
matemáticos.
Outro sistema axiomático (mencionado, igualmente, mais adiante,
na parte relativa à corrente formalista) para a Teoria dos conjuntos seria
estabelecida por John von Neumann (1903-1957), Paul Bernays (1888-1977)
e Kurt Gödel (1906-1978), conhecido pela inicial dos três matemáticos NBG.
Inicialmente formulado por von Neumann, em 1925, 1928 e 1929, o sistema
seria modificado, em 1937, por Bernays, e simplificado por Gödel, em 1940.
O húngaro von Neumann, estudante de Hilbert em Göttingen, em
1926-1927, daria importantes contribuições em várias áreas, como Álgebra,
Teoria dos conjuntos, Análise funcional e Mecânica quântica. Pioneiro
da Teoria dos jogos (autor, com Oskar Morgenstern, do livro Teoria dos
Jogos e o Comportamento Econômico, de 1944), e pioneiro da Ciência da
computação, von Neumann participaria do Projeto Manhatann, e seria
um dos seis primeiros professores do recém-criado Instituto de Estudos
Avançados, de Princeton (os outros cinco professores eram Albert Einstein,
Hermann Weyl, Oswald Veblen, Harold Marston Morse e James Waddell
Alexander). Em sua tese de doutorado (1925), von Neumann aprimoraria
a axiomatização de Zermelo e Fraenkel, da Teoria dos conjuntos. Para
tanto, introduziria o “axioma da fundamentação”, pelo qual seria possível
excluir a possibilidade de conjuntos pertencerem a si mesmos, e as
definições de “conjunto” como uma classe que pertence a outras classes e
de “classe própria” como classe de todas as classes que não pertencem a
si mesmas.
Em 1917, o lógico Paul Bernays (1888-1977) se juntaria a Hilbert,
e, na condição de assistente em Göttingen, colaboraria em novas
contribuições para a Lógica formal, com um sofisticado desenvolvimento
de lógica de primeira ordem, base do curso de 1917, de Hilbert, sobre
Princípios da Matemática e da palestra, em 1923, sobre os Fundamentos
lógicos da Matemática. Bernays, além de revisar, em 1956, os Fundamentos
da Geometria, de Hilbert, escreveria (1937/54) uma série de artigos no
Journal of Symbolic Logic (fundado em 1935), com o propósito de estabelecer
um conjunto de axiomas para base da Teoria dos conjuntos, ao mesmo
tempo em que colaboraria com Hilbert no preparo do livro Fundamentos da
Matemática (primeiro volume, em 1934, e o segundo em 1939).
Em 1931, Kurt Gödel (1906-1978), austríaco nascido na cidade de
Brno (República Tcheca), publicaria um pequeno trabalho que teria uma
influência decisiva na filosofia da Matemática. Em sua Consistência do
Axioma da Escolha e da Generalizada Hipótese do Contínuo com os Axiomas da
42
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Teoria dos Conjuntos, Gödel formularia dois teoremas, conhecidos como
Teoremas da incompletude, concluindo que nos sistemas matemáticos a
completude é incompatível com a consistência, uma das propriedades da
Axiomática. Desta forma, seria impossível estabelecer uma base axiomática
para toda a Matemática, uma vez que haveria proposições cuja verdade ou
falsidade não poderia ser demonstrada com os axiomas do sistema. Gödel
mostraria (1938/40), ainda, que se os axiomas da Teoria (restrita) dos
conjuntos (Zermelo/Fraenkel) são consistentes, eles deveriam continuar
a ser, com a adição do “axioma da escolha” e da “Hipótese do contínuo”,
postulados que não podem ser, portanto, desaprovados pela Teoria estrita
dos conjuntos.
Em outras palavras, pelos dois Teoremas da incompletude, o sistema
não pode ser consistente e completo, pelo que concluiria Gödel, de forma
revolucionária, pela limitação fundamental do método axiomático: qualquer
sistema matemático é essencialmente incompleto, isto é, dado qualquer
conjunto consistente de axiomas aritméticos, sempre existem enunciados
aritméticos verdadeiros não dedutíveis desses axiomas. Se o sistema é
consistente, a consistência dos axiomas não pode ser provada pelo sistema.
O impacto da obra de Gödel seria de grande alcance, colocando em
posição defensiva, mas atuante, as três principais correntes do pensamento
matemático, conforme ocorreu no Congresso Internacional de Lógica e
Metodologia da Ciência, em Stanford (1960).
Na segunda metade do século XX, as divergências entre os
seguidores das tendências logicista, intuicionista e formalista tenderiam
a ser minimizadas, buscando-se uma conciliação que atendesse ao
objetivo geral de colocar a Matemática em bases firmes e seguras.
Seria o caso, por exemplo, de Alonzo Church (1903-1995), professor
das Universidades de Princeton e da Califórnia, fundador do Journal of
Symbolic Logic (1936), formulador, em 1936, do Teorema de Church sobre
a “indemonstrabilidade” da Aritmética de Peano (ampliando a prova de
incompletude de Gödel) e da “tese Church-Turing”, e descobridor do
“Cálculo lambda”. Church é autor, entre outras obras, de Formulação de
uma Simples Teoria de Tipos (1940), Introdução à Lógica Matemática (1944, e
ampliado em 1956), Bibliografia de Lógica Simbólica, Um Problema Insolúvel
da Teoria dos Números e Sobre o Conceito de Sequência Aleatória (1940).
Willard Quine (1908-2000), autor de Lógica Elementar (1941), Métodos
de Lógica (1950), Lógica Matemática (1961), Teoria dos Conjuntos e Sua Lógica
(1963), A Filosofia da Lógica (1970), buscaria via diferente, com algumas
alterações das teses do Principia Mathematica de Russell, a axiomatização
da Teoria dos conjuntos.
43
CARLOS AUGUSTO DE PROENÇA ROSA
O matemático americano Paul Joseph Cohen nascido em 1934 e
professor de Stanford (1964) tornou-se mundialmente conhecido ao provar
a independência na Teoria Restrita dos Conjuntos (Zermelo/Fraenkel) do
axioma da escolha e da Hipótese do contínuo, ou seja, que não podem ser
provados verdadeiros ou falsos. Pela solução da Hipótese do contínuo,
problema que consta como número um da lista de Hilbert, seria Cohen
agraciado com a Medalha Fields, em 1966, na reunião do Congresso
Internacional de Matemáticos, em Moscou.
7.2.2.2 Paradoxos da Teoria dos Conjuntos
O rigor requerido nos Fundamentos da Matemática poria em
relevo a grave crise surgida, em 1897, com a descoberta, por Cesare Burali-Forti (1861-1931), de um paradoxo, ou antinomia, na Teoria dos conjuntos,
posto que contradições na teoria colocariam em dúvida a própria validade
dos alicerces da Matemática. O paradoxo se refere ao conjunto de todos os
números ordinais, os quais são conhecidos como “números transfinitos”
dos conjuntos infinitos; Burali-Forti observara que o conjunto bem
ordenado formado por todos os números ordinais era contraditório.
Conforme a teoria desenvolvida por Georg Cantor, o principio básico é o
de que, dado um número transfinito qualquer, sempre existe um número
transfinito maior, de forma que, assim como não há número natural
máximo (nos conjuntos finitos), também não há um número transfinito
máximo. No caso de um conjunto cujos membros são todos os conjuntos
possíveis, nenhum conjunto poderia ter mais membros do que o conjunto
de todos os conjuntos. Como explicar, então, que pode haver um número
transfinito maior que o número transfinito desse conjunto? Consta que
Cantor, em 1896, teria escrito a Hilbert reconhecendo a existência do
paradoxo, a ser anunciado, no ano seguinte, por Burali-Forti.
Em 1899, o próprio Cantor descobriria um segundo paradoxo
derivado da noção de números transfinitos, que, por envolver apenas,
como o de Burali-Forti, resultados da Teoria dos conjuntos, não teria
maiores repercussões7.
Em 1902-1903, porém, o filósofo, matemático e lógico Bertrand Russell
descobriria um terceiro paradoxo na Teoria dos conjuntos, o qual, por suas
profundas implicações na parte básica da Teoria, não poderia ser ignorado, e
teria imediata repercussão nos meios intelectuais. O paradoxo, que se refere
ao conjunto de todos os conjuntos que não são membros deles próprios,
7 STRUIK, Dirk. História Concisa das Matemáticas.
44
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
é hoje, conhecido como “paradoxo das classes”. Esse conjunto de todos os
conjuntos parece ser membro dele mesmo, se e somente se não é membro dele
mesmo; daí o paradoxo. “Seja “S” o conjunto de todos os conjuntos que não
são elementos de si próprios. Pergunta: S é um elemento de si próprio? Se for,
então não é um elemento de si próprio; se não for, então é um elemento de
si próprio”8. Uma versão muito popular (1919) deste paradoxo, do próprio
Russel, é a do apuro do barbeiro de uma pequena cidade que estabeleceu a
regra de fazer a barba de todas as pessoas da cidade, somente delas, que não se
barbeavam a si mesmas e somente dessas. A situação paradoxal surge com a
pergunta “o barbeiro se barbeia a si mesmo?” se ele não se barbeia a si mesmo,
então ele se enquadra em sua regra, e se ele se barbeia a si mesmo, então ele
não se enquadra em sua regra. Este tipo de contradição lembra os paradoxos
lógicos já apresentados pelos gregos, como a de Eubúlides (século IV a. C.)
de que “a afirmação que estou fazendo agora é falsa”; ou a do cretense
Epiménedes, de que “todos os cretenses são sempre mentirosos”.
Russell, em 1903, escreveria ao filósofo e lógico Gottlob Frege, autor
de Os Fundamentos da Aritmética (1884), e que acabara de escrever o segundo
volume de As Leis Fundamentais da Aritmética, dando-lhe conhecimento
da contradição que encontrara na Teoria dos conjuntos, de Cantor, ao
mesmo tempo em que o consultava sobre como solucionar o paradoxo de
“conjuntos são Grupos de elementos semelhantes”. Alguns conjuntos são
também elementos de conjuntos que definem; assim, o conjunto de todas
as frases é um membro de si mesmo, pois é também uma frase, como o
conjunto de ideias abstratas é uma ideia abstrata. Outros conjuntos, por sua
vez, não são membros de si mesmos; assim, o conjunto de todos os gatos
não é, ele próprio, um gato. Desta forma, haveria “conjuntos contendo todos
os conjuntos que são elementos de si mesmos” e “conjuntos de todos os
conjuntos que não são elementos de si mesmos”. Ora, o conjunto de todos
os conjuntos que não são elementos de si mesmos é ou não é membro de si
mesmo? Se integrar o conjunto, deverá ser, então, um conjunto que não é
elemento de si mesmo; se não integrar o conjunto, pertence, então, a outro
conjunto dos conjuntos que são elementos de si mesmos.
Na impossibilidade de resolver a contradição, Frege ainda teria
tempo de acrescentar ao final da obra: “Dificilmente um cientista pode
enfrentar uma situação mais desagradável do que a de presenciar o
abalo dos fundamentos de uma obra sua, logo depois de concluí-la, pois
uma carta do senhor Bertrand Russell, exatamente quando este segundo
volume estava prestes a ser concluído, colocou-me nessa situação...”9.
8 9 STRUIK, Dirk. História Concisa das Matemáticas.
EVES, Howard. Introdução à História da Matemática.
45
CARLOS AUGUSTO DE PROENÇA ROSA
As questões suscitadas pelas antinomias ou paradoxos na Teoria dos
conjuntos, com reflexos sobre a viabilidade e a conveniência da aplicação
rigorosa da axiomatização dos Fundamentos da Matemática, provocariam
polêmica e dissensões de ordem filosófica no meio matemático.
7.2.2.3 Filosofia Matemática
Três principais tendências ou correntes de pensamento, em função
do desenvolvimento e aplicação da Axiomática, se delinearam, desde o
início do período, e seriam cruciais nos debates sobre os rumos futuros da
Matemática: a Lógica, a Intuitiva e a Formal. Dadas suas amplas implicações
na atualidade da Matemática, é conveniente o exame dessas tendências em
tópicos em separado, sendo o primeiro referente ao logicismo e o último
relativo ao formalismo. Vale consignar terem tais Escolas um número
considerável de seguidores, mas cujos principais representantes foram, no
caso do logicismo, Bertrand Russell; do intuicionismo, Luitzen Brouwer; e
do formalismo, David Hilbert.
7.2.2.3.1 Logicismo
A Lógica formal, desenvolvida pelos gregos, em particular
Aristóteles, para sistematizar o pensamento, se utilizava exclusivamente
da linguagem corrente, fonte de imprecisões e ambiguidade. Nos
tempos modernos, a partir do desenvolvimento da Álgebra, cresceria
a convicção, no meio intelectual, da necessidade, para uma abordagem
científica da Lógica, da introdução de uma linguagem simbólica, a qual
facilitaria o entendimento e permitiria a brevidade do texto. Leibniz é,
comumente, citado como o pioneiro dessa Lógica simbólica, porquanto
em sua obra De arte combinatoria (1666) defendeu uma linguagem
científica universal. O tema ressurgiria com os trabalhos de George
Boole (The Mathematical Analysis of Logic, 1847, e An Investigation into
the Laws of Thought, 1854), de Augustus De Morgan (Formal Logic, 1847),
com vários artigos e trabalhos de Frege, Georg Cantor, Weierstrass,
Dedekind, Peano, Charles Peirce e Schröder. Por sua influência no
desenvolvimento da Lógica simbólica merecem referência especial os
trabalhos de Frege (Fundamentos da Aritmética, 1884, e Leis Básicas da
Aritmética, 1893-1902) e de Giuseppe Peano (Cálculo Geométrico, 1888, e
Formulário Matemático, 1894-1908).
46
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Apesar dos avanços na “aritmetização” (dos números reais aos
números naturais), não fora obtida a redução da Matemática à Lógica,
pois faltava ainda nesse processo a inclusão da Teoria dos conjuntos.
A tentativa fracassada de Frege, diante do paradoxo descoberto por Russell,
de lidar com a questão do conjunto de números, forçaria o lógico alemão a
abandonar a crença e o empreendimento de reduzir a Aritmética à Lógica.
Convencido de que a Teoria dos conjuntos poderia servir de base
para a Matemática, o próprio Russell retomaria o tema, ao qual seria dado
um tratamento para incluir a teoria de Cantor na Lógica matemática, e,
inclusive, para eliminar o paradoxo descoberto. Essa iniciativa geraria
o chamado logicismo, cujo subproduto é a Teoria dos tipos, criada
justamente para contornar o paradoxo.
Bertrand Arthur William Russell (1872-1970), nascido no País de
Gales, de família aristocrática, autor de cerca de quarenta livros sobre
Matemática, Lógica, Filosofia, Sociologia e Educação, preso quatro vezes
por suas atividades pacifistas, líder do movimento de proscrição das armas
nucleares e Prêmio Nobel de Literatura (1950), foi o principal expoente, na
história da aplicação do método axiomático, da tese logicista. Russell se
propunha construir toda a Matemática através da dedução lógica a partir
de um pequeno número de conceitos e princípios de natureza puramente
lógica10. Nesse sentido, a Matemática seria um ramo da Lógica, a qual
proporciona as regras pelas quais a base (conjunto de postulados) poderia
expandir-se para se transformar num corpo de teoremas11.
A obra representativa dessa tendência, conhecida como logicismo,
é Principia Mathematica (1910/13), escrita por Russell, com a colaboração
de Alfred North Whitehead (1861-1947). Professor de Matemática
no Trinity College (1885-1911), no University College de Londres, no
Imperial College of Science and Technology da Universidade de Londres
(1914-1924) e de Filosofia na Universidade de Harvard, até sua
aposentadoria, em 1936, Whitehead é autor de Ensaio sobre os Fundamentos
da Geometria (1897), Álgebra Universal (1898) e artigos sobre axiomas de
Geometria projetiva e descritiva (1906, 1907).
O projeto Frege/Russell/Whitehead, objetivo do Principia
Mathematica, era reduzir a Matemática à Lógica, a qual estaria axiomatizada.
A ideia básica do Principia Mathematica é, no dizer do já citado Howard
Eves, a identificação de grande parte da Matemática com a Lógica pela
dedução do sistema de números naturais, e, portanto, do grosso da
Matemática, a partir de um conjunto de premissas ou postulados da
10 11 STRUIK, Dirk. História Concisa das Matemáticas.
EVES, Howard. Introdução à História da Matemática.
47
CARLOS AUGUSTO DE PROENÇA ROSA
própria Lógica. Dessa forma, a Matemática estaria com uma sólida base
axiomática, derivada da Lógica.
Com o propósito de eliminar os paradoxos, Russell/Whitehead
desenvolveriam a Teoria dos tipos, cuja ideia central é a de que todas
as entidades referidas na Teoria dos conjuntos (conjuntos, conjuntos
de conjuntos, conjuntos de conjuntos de conjuntos, etc.) deveriam ser
escalonados ou distribuídos numa hierarquia de níveis, ou tipos, de
elemento, cada entidade pertencendo a um só tipo. Os elementos primários
formariam o tipo 0; o tipo 1, seguinte, seria constituído por conjuntos cujos
elementos são entidades do tipo anterior; ao tipo 2, pertenceriam apenas
entidades do tipo 1, anterior; ao terceiro tipo, as entidades do tipo 2, e
assim por diante. Nessas condições, a Teoria dos conjuntos só tomaria em
consideração as entidades situadas num dos tais tipos, não tendo mais
sentido considerar conjuntos com os elementos que não fossem entidades
de tipo imediatamente inferior.
Com isto, estariam evitadas as antinomias, mas, ao mesmo tempo
eram introduzidas restrições na Teoria dos conjuntos. A fim de evitar tais
restrições, Russell formularia o “axioma da redutibilidade”, que, por ser
arbitrário e artificial, seria bastante criticado, e, mesmo, rejeitado, pela
comunidade matemática.
Os dois maiores matemáticos do início do século XX, Poincaré e
Hilbert, seriam críticos das teses do logicismo Russell/Whitehead. O ideal
de Russell, da transformação da Matemática hipotético-dedutiva a uma
Lógica absoluta, cujos princípios fossem intelectualmente evidentes, não
seria, assim, atingido.
7.2.2.3.2 Intuicionismo
A corrente intuicionista surgiu por volta de 1908, com o matemático
holandês L. E. J. Brouwer, vindo a exercer grande influência nos debates
sobre os Fundamentos da Matemática. Luitzen Egbertus Jan Brouwer
(1881-1966) nasceu em Roterdã, mas passou grande parte de sua vida
profissional em Amsterdã. Em 1908, escreveu A Não Confiabilidade dos
Princípios Lógicos, no qual rejeitaria o princípio do “terceiro excluído”,
pelo qual uma proposição só pode ser “falsa ou verdadeira”. Em 1918,
formularia uma Teoria dos conjuntos sem usar o princípio do terceiro
excluído no Fundando uma Teoria dos Conjuntos independente do Princípio do
Excluído. Em 1920, além da conferência sobre Todos os Números Reais têm
uma Expansão Décima? (na que deu resposta negativa à pergunta), Brouwer
48
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
publicaria a Teoria Intuicionista dos Conjuntos, e, em 1927, desenvolveria a
Teoria das funções em No Domínio da Definição das Funções, sem utilizar o
princípio do excluído. Como editor (1914) da revista Matematische Annalen,
opôs-se firmemente ao uso indiscriminado da reductio ad absurdum,
rejeitando artigos, submetidos à publicação, que apoiassem ou aplicassem
a lei do terceiro excluído em proposições cuja veracidade ou falsidade não
pudesse ser decidida num número finito de operações. A intransigência
de Brouwer criaria grave crise na comissão editorial da Revista, que, após
renúncia coletiva, reelegeu todos os seus integrantes, menos Brouwer.
Pela afronta, o governo holandês criaria uma revista rival, com Brouwer
em sua direção (Compositio Mathematica, 1934). Brouwer é, ainda, um dos
fundadores da moderna Topologia, sendo o formulador do “Teorema do
ponto fixo” (toda função contínua da bola fechada n-dimensional nela
mesma tem pelo menos um ponto fixo) e do Teorema da invariância
(a dimensionalidade de uma variedade numérica n-dimensional cartesiana
é um invariante topológico).
Os antecedentes mais recentes do intuicionismo se encontram na
obra de Leopold Krönecker (1823-1891) que, nos anos 80, já se opusera
à ideia de Richard Dedekind (1831-1916) de totalidade dos números,
defendendo a noção de os números não existirem como totalidade,
mas como coleção aberta, a que sempre podem ser acrescentados novos
elementos. Defendia, assim, o infinito potencial, em contraste com
o infinito real, na terminologia clássica. A construção do número no
processo de contagem, se não tem fim, não significa totalidade, em que
todos os números estariam numa só classe. Matemáticos do quilate de
Poincaré, Lebesque e outros, seriam críticos do logicismo e da Teoria
dos conjuntos de Cantor, defendendo apenas números nomeáveis,
desenvolvendo uma Teoria própria dos conjuntos e das funções
mensuráveis. Èmile Borel (1871-1956), mais restritivo, só consideraria o
que poderia ser “efetivamente calculado”. Poincaré, crítico dos trabalhos
de Peano sobre a axiomatização da Aritmética, sustentaria, ainda, que
não poderia a Matemática prescindir da intuição.
A tese central da corrente filosófico-matemática, denominada de
intuicionista, é a de que a Matemática deve ser “desenvolvida apenas por
métodos construtivos finitos sobre a sequência dos números naturais,
dada intuitivamente”12. Assim, a base da Matemática seria uma intuição
primitiva, aliada ao nosso “sentido temporal de antes e de depois”, o que
nos permite conceber um objeto, depois mais um, depois mais outro, e
assim por diante, indefinidamente. Das sequências infindáveis assim
12 EVES, Howard. Introdução à História da Matemática.
49
CARLOS AUGUSTO DE PROENÇA ROSA
obtidas, a mais conhecida seria a dos números naturais. A partir dessa
base intuitiva (sequência dos números naturais), a elaboração de qualquer
outro objeto matemático deveria ser feita, necessariamente, por processos
construtivos, mediante um número finito de operações.
Assim, para o intuicionismo a prova da existência de uma entidade
é que ela possa ser construída num número finito de passos ou operações.
Um conjunto não pode ser imaginado como uma coleção acabada, mas
sim por meio de uma lei pela qual os elementos do conjunto possam ser
construídos passo a passo, o que elimina a possibilidade de conjuntos
contraditórios, como o conjunto de todos os conjuntos. Como esclarece
Howard Eves, na tese intuicionista, o desenvolvimento genético da
Matemática seria levado aos seus últimos extremos.
Outra característica dessa corrente é a negação da aceitação universal
do princípio do terceiro excluído, ou, em outras palavras, a aceitação deste
princípio somente no domínio do finito, o que vale dizer que é aplicável
para conjuntos finitos, não para conjuntos infinitos, razão do surgimento de
paradoxos. Assim, só se poderia concluir se uma proposição é verdadeira
fazendo-se uma demonstração construtiva dela num número finito de
passos, como só se poderia concluir por sua falsidade por meio de uma
prova de falsidade num número finito de passos. Até que se estabeleça
uma ou outra dessas demonstrações, a proposição não seria nem falsa, nem
verdadeira, e o princípio do terceiro excluído inaplicável.
O apoio do matemático Hermann Weyl (1885-1955) traria prestígio,
visibilidade e respeitabilidade ao intuicionismo. Weyl escreveria, em 1921,
A Nova Crise dos Fundamentos da Matemática, mas, ainda na década dos anos
vinte, em vista de seu interesse pela Física e pela Teoria da relatividade
(Espaço, Tempo, Matéria, de 1919), assumiria uma posição menos rigorosa
quanto à Matemática não construtiva. Em 1949, Weyl publicaria Filosofia
da Matemática e Ciências Naturais.
Num simpósio realizado em Königsburgo, em setembro de
1930, estabeleceu-se famosa controvérsia entre Carnap (logicismo), von
Neumann (formalismo) e Arendt Heyting (intuicionismo), cada um
defendendo o ponto de vista da tendência a que se filiara. O holandês
Heyting (1898-1980), discípulo de Brouwer, apresentaria, na ocasião,
uma versão um pouco diferente da de Brouwer, mas mais aceitável,
da lógica intuitiva, em linha semelhante à defendida por Kolmogorov.
Em 1934, Heyting publicaria Intuicionismo e a Prova da Teoria, na qual
descreveu e contrastou, em forma de diálogo, as teses do intuicionismo
e do formalismo, desenvolvendo, assim, uma lógica intuicionista. Com
Heyting, a Matemática intuicionista criaria seu próprio tipo de Lógica.
50
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.2.2.3.3 Formalismo
A Escola conhecida como “formalista” foi criada por David
Hilbert (1862-1943), com o objetivo de enfrentar as teses defendidas
pelo intuicionismo. Nascido em Königsburgo (hoje Kaliningrado, na
Rússia), defendeu sua tese de PhD na Universidade dessa cidade, onde
exerceu o magistério, como professor titular (1893-1894), e professor na
Universidade de Göttingen, de 1895 a 1930, Hilbert é o mais importante
e influente matemático alemão do século XX, e reputado como o último
generalista no campo da Matemática. Dentre suas inúmeras e significativas
contribuições, em diversas áreas, caberia mencionar: Teoria algébrica dos
invariantes (1885-1892) e Teoria dos Números algébricos (1893-1899),
Fundamentos da Geometria (1898-1899), o Problema de Dirichlet e o
Cálculo das variações (1900-1905), Equações integrais, incluindo a Teoria
espectral e o conceito de Espaço (até 1912), Fundamentos da Matemática,
Lógica simbólica, e na Física matemática contribuições à Teoria cinética
dos gases e à Relatividade, e à Mecânica quântica.
Foi, ainda, editor (1902) da conceituada revista Matematische
Annalen; definiu, em 1900, grande parte (as famosas vinte e três propostas
de investigação) dos trabalhos atuais matemáticos e escreveu Tratado
dos Números (1897), Fundamentos da Geometria (1899) e Os Fundamentos da
Matemática (publicado o primeiro volume em 1934, e o segundo, em 1939),
além de um grande número de artigos e opúsculos.
As críticas de Brouwer e Weyl à Matemática clássica motivariam
Hilbert a tentar eliminar dúvidas sobre os Fundamentos da Matemática.
Seu projeto seria combinar a Axiomática com a nova lógica, sem esquecer
o valor do conteúdo conceitual das teorias matemáticas. Isto permitiria
uma formalização completa das teorias matemáticas, facilitaria a análise
da relação lógica entre os conceitos básicos e os axiomas, e promoveria
o desenvolvimento de uma “teoria da demonstração”, que considerava
as demonstrações como resultado de meras combinações de símbolos
segundo regras formais prescritas.
A proposta formalista consta do conhecido Programa de Hilbert,
formulado inicialmente em 1920, mas apenas formalizado no ano
seguinte, que evoluiria com as contribuições de Bernays, Ackermann e
von Neumann, e teria grande influência sobre a obra de Kurt Gödel, cujos
teoremas da incompletude foram motivados pelo Programa, apesar de ter
demonstrado não ser possível levar adiante o Programa de Hilbert.
Os antecedentes datam de seus trabalhos em Geometria, que
culminaram com a publicação, em 1899, dos Fundamentos da Geometria, seguida
51
CARLOS AUGUSTO DE PROENÇA ROSA
imediatamente com a formulação do segundo problema da lista dos “vinte e três
problemas da Matemática”, de 1900, ou seja, o relativo à consistência dos axiomas
da Aritmética: se esta consistência existe, então a dos axiomas geométricos
pode ser estabelecida13, tendo apresentado provas de tal consistência em 1905.
Nos Fundamentos da Geometria, Hilbert apresentou 20 axiomas, agrupados em
axiomas de incidência (8), de ordem (4), de congruência (5), das paralelas (1) e
de continuidade (2). Autores costumam mencionar os seguintes dois motivos
para o atraso na submissão de seu Programa: críticas de Poincaré às provas
apresentadas em 1905 e o próprio reconhecimento da necessidade, para uma
investigação axiomática, de estabelecer melhor um formalismo lógico.
A publicação, em 1910-1913, da Principia Mathematica, de Russell
e Whitehead, levaria Hilbert a retomar o tema dos Fundamentos da
Matemática, objeto de conferência, em 1918, na Sociedade Matemática
Suíça, com o título Pensamento Axiomático (Axiomatic Thought), na qual
enfatizaria a importância da consistência nos sistemas axiomáticos.
Paul Bernays (1888-1977), assistente de Hilbert em Göttingen,
colaboraria na preparação do curso de 1917, de Hilbert, sobre Princípios
da Matemática e da palestra, em 1923, sobre os Fundamentos lógicos da
Matemática. Bernays escreveria (1937-1954) uma série de artigos no Journal
of Symbolic Logic (fundado em 1935, publicado pela AMS), com o propósito
de estabelecer um conjunto de axiomas para base da Teoria dos conjuntos,
e colaboraria, ainda, com Hilbert, no preparo do livro Fundamentos da
Matemática (primeiro volume em 1934 e o segundo em 1939). Em seu esforço
por estabelecer bases sólidas e lógicas ao formalismo, Hilbert prepararia,
ainda, com Wilhelm Ackermann (1896-1962), em 1928, a obra Princípios de
Lógica Teórica (Principles of Theorethical Logic); Ackermann, em 1937 e 1956,
escreveria sobre provas da consistência da Teoria dos conjuntos.
O Programa de Hilbert envolvia duas etapas: a formalização
de toda a Matemática, isto é, dedução pelos axiomas da parte básica da
Matemática e constatação de que a aplicação de tais regras não acarretaria
contradições. A investigação seria feita por métodos matemáticos –
metateoria –, que Hilbert chamou de “metamatemática”, ou “teoria da
demonstração”, afastando procedimentos postos em dúvida pela corrente
intuicionista, e exigindo apenas argumentos “finitistas”, ou seja, tratar-se
sempre de um número finito e determinado de objetos e Funções.
Em alocução na Conferência Internacional de Matemáticos, em Bolonha
(1928), Hilbert manifestaria seu otimismo quanto à consistência da Teoria dos
Números (trabalhos de Ackermann e de von Neumann) e, por conseguinte,
sua confiança na axiomatização da Matemática e em seu Programa.
13 STRUIK, Dirk. História Concisa das Matemáticas.
52
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Em setembro de 1930, Kurt Gödel, em conferência em
Königsburgo anunciaria seu primeiro Teorema da incompletude, o qual
viria a ter imenso impacto sobre o programa formalista de Hilbert. Por
sua importante contribuição no campo da Axiomática e pela repercussão
de suas pesquisas sobre as teses do logicismo e do formalismo, o
trabalho de Kurt Gödel merece especial referência. Nascido em Brno
(atualmente na Eslováquia), na época cidade pertencente ao Império
Austro-Húngaro, de família de origem austríaca, Gödel formou-se
pela Universidade de Viena, interessando-se por Matemática e Lógica
matemática. Participou do Círculo de Viena (Schlick, Carnap, Hans
Hahn) e esteve presente na Conferência Internacional de Matemáticos,
em Bolonha (1928), onde Hilbert expressara sua confiança em seu
Programa formalista. Com a anexação da Áustria pela Alemanha,
Gödel emigraria para os EUA em 1940, tendo exercido a cátedra do
Instituto de Estudos Avançados de Princeton, de 1953 a 1976. Seus
principais trabalhos são Consistência do Axioma da Escolha e da Hipótese
do Contínuo com os Axiomas da Teoria dos Conjuntos (1931) e Universos
Rotativos na Teoria Geral da Relatividade (1950).
O opúsculo de 1931 revelaria o fracasso das tentativas para
demonstrar “metamatematicamente” a consistência da Aritmética, ou
de um sistema suficientemente amplo para abranger a Aritmética, o
que significava não ser possível axiomatizar, como pretendiam Russel
e Hilbert, a Matemática. Os dois Teoremas de Gödel demonstram que
em qualquer sistema matemático há proposições que não podem ser
demonstradas como falsas ou verdadeiras pelos axiomas do sistema,
no que redunda não se poder provar a consistência dos axiomas. Em
outras palavras, em qualquer conjunto de axiomas há proposições que
são indemonstráveis.
Ilustração clássica de “teorema que não pode ser demonstrado” foi
oferecido pelo matemático russo/alemão Christian Goldbach (1690-1764)
na conhecida “conjectura Goldbach” – todos os números pares maiores de
quatro se decompõem na soma de dois números primos (4 = 3+1; 6 = 3+3; 8
= 3+5; 10 = 3+7; 12 = 5+7; 14 = 3+11... 52=5+47... 100 = 3+97 = 11+89 = 17+83
= 29+71 = 41+59 = 47+53; etc. Não foi encontrado, até hoje, número par
que não pudesse ser decomposto dessa maneira, mas também não se achou
meio de demonstrar que o fato é aplicável a qualquer número par.
A Escola formalista, apesar das repercussões dos Teoremas de
Gödel, continuaria a ser a tendência preponderante no meio matemático,
em que pese o crescente reconhecimento do importante papel da Lógica
simbólica nos fundamentos matemáticos.
53
CARLOS AUGUSTO DE PROENÇA ROSA
A questão filosófica da fundamentação da Matemática segue,
assim, como tema central dos debates, delineando-se a tendência de
se evitar a confrontação de posições radicais e intransigentes e de se
estabelecer um clima que permita formulações que atendam ao interesse
geral de assentar a Matemática em alicerces seguros.
7.2.3 Desenvolvimento da Matemática
Sob o título geral de Desenvolvimento da Matemática, serão
examinados alguns dos mais relevantes tópicos da evolução da Álgebra,
da Geometria, e da Análise na atualidade, período fecundo de grandes
inovações e pesquisas aprofundadas nos diversos ramos. Nesse sentido,
os temas a serem examinados são Álgebra moderna, Teoria dos Números,
Geometria, Topologia, Equações diferenciais, Análise. Ainda que
formalmente não seja a Topologia um ramo específico da Matemática,
muitas vezes estudada uma de suas partes na Álgebra (Topologia
algébrica) e outra parte na Geometria (Topologia geral), o tema, por sua
crescente importância e repercussões em diversas áreas de investigação
matemática, será abordado num único tópico.
7.2.3.1 Álgebra Moderna
A Álgebra da atualidade é bastante distinta da Álgebra do período
anterior, não se limitando mais ao estudo das operações de números e à
resolução de equações. O emprego de letras para designar incógnitas e
coeficientes de equações pressupunha que as letras representavam números
(inteiros, racionais, naturais, etc.). A descoberta, pelo matemático irlandês
William Rowan Hamilton (1805-1865) dos números quaterniões, cuja
multiplicação não é comutativa, isto é, a “ordem dos fatores altera o produto”,
significaria uma verdadeira revolução na Matemática, o que determinaria
a procura de outras “álgebras não comutativas” (Arthur Cayley, James J.
Sylvester, Hermann Grassmann, Benjamin Peirce, George Boole). Ao mesmo
tempo, ocorriam progressos na Teoria das equações, com Lagrange, Ruffini,
Galois – com sua Teoria de grupo de permutações (1832), Abel, Cauchy e
Cayley (Grupo abstrato).
Dada essa evolução a uma maior abstração, passaria a Álgebra a se
ocupar, além da Teoria dos Números e da Teoria das equações em sentido
lato, de noções oriundas de outros ramos da Matemática, enriquecendo-se,
54
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
assim, com novos campos de pesquisa. As novas áreas de investigação,
que se convencionou chamar de “estruturas algébricas”, como Grupo,
Corpo, Ideais, Anéis, se transformariam no principal objeto de pesquisa
da Álgebra na atualidade, alterando significativamente suas tradicionais
características; em outras palavras, o objetivo da Álgebra passou, assim,
a ser, fundamentalmente, o estudo das estruturas básicas das operações
matemáticas. A Álgebra na atualidade lida, assim, com entes abstratos,
elementos dos conjuntos. Nesse processo evolutivo, as contribuições
de Hilbert, Emmy Noether, Emil Artin, van der Waerden e Steinitz
são fundamentais. Tal transformação radical explicaria alguns autores
adotarem a denominação de Álgebra moderna ou Álgebra abstrata14.
Anel foi um termo criado em Matemática por Hilbert, no final do
século XIX, para significar uma estrutura algébrica, com duas operações
binárias (adição e multiplicação) e com propriedades similares às dos
inteiros. Este conceito remonta a Richard Dedekind, e se originou da Teoria
dos anéis de polinômios e da Teoria de inteiros algébricos, por Dedekind,
Krönecker e Kummer. Pouco depois, Joseph Wedderburn (1882-1948)
contribuiria, em 1905, com A Theorem on Finite Algebras, com a introdução
do uso de números hipercomplexos e a criação de álgebras finitas.
Adolf Fraenkel (1891-1965), mais conhecido por sua contribuição
ao sistema axiomático de Zermelo, da Teoria dos conjuntos (axiomas
Zermelo-Fraenkel), em artigo publicado em 1914 apresentaria uma
definição axiomática para Anéis.
A Teoria algébrica dos Corpos foi criada por Ernst Steinitz (1871-1928),
em 1910, motivado pelo trabalho de Kurt Hensel (1861-1941) sobre “Corpos
p-ádicos”15. Em seu trabalho Teoria Algébrica dos Corpos daria Steinitz a primeira
definição abstrata de Campo, sistema de elementos que tem duas operações
(adição e multiplicação), satisfazendo a “propriedades de tipo associativo,
comutativo e distributivo”.
O desenvolvimento da nova Álgebra prosseguiria no Pós-Guerra, com a importante contribuição de Emmy Noether (1882-1935)
no campo dos Anéis abstratos e teoria dos Ideais16. Filha do matemático
Max Noether (1844-1921), estudioso de Geometria algébrica e professor
em Erlangen, onde nasceria a mais importante e conhecida algebrista da
atualidade, Emmy cursou Erlangen onde concluiu seu doutorado (1907) em
Matemática, permanecendo aí até 1916, como supervisora de estudantes de
doutorado e como conferencista (sem salário). Convidada, deslocou-se para
TATON, René. La Science Contemporaine.
BOYER, Carl. História da Matemática.
16 EVES, Howard. Introdução à História da Matemática.
14 15 55
CARLOS AUGUSTO DE PROENÇA ROSA
Göttingen, onde trabalharia na equipe de Hilbert (1917-1933), inicialmente
como conferencista sem salário, e a partir de 1922, como professora-adjunta.
Em 1921, publicaria Teoria Ideal em Anéis, no campo de Anéis comutativos,
trabalho cujo valor seria constatado, anos mais tarde, no meio matemático.
Apesar da resistência inicial do círculo acadêmico (Universidade de
Göttingen) em autorizar posição de ensino a uma mulher, sua competência
era reconhecida, no entanto, por ilustres matemáticos alemães, como
Hilbert, Klein, Planck, Einstein e Weyl. A resistência para sua designação
como assistente de Hilbert só seria parcialmente vencida com a intervenção
de seu protetor, que criticaria a discriminação na base do sexo com a
conhecida declaração de acreditar ser a Universidade de Göttingen uma
casa de ensino, não de banhos; perseguida pelo regime nazista foi lecionar
(1933) no Bryn Mawr College, nos EUA (Pensilvânia), onde faleceria de
infecção após uma intervenção cirúrgica. Emmy é autora de um teorema,
conhecido por seu nome, no campo da Física, ao estabelecer a conexão entre
as leis da Simetria e da Conservação.
Bartel van der Waerden (1903-1996) foi professor nas Universidades
de Leipzig, Amsterdã e Zurique, e pesquisou em diversas áreas, como Álgebra
moderna, Geometria algébrica, Topologia, Teoria das probabilidades, Teoria
dos Números, Geometria, Estatística, Mecânica quântica, além de ter-se
dedicado e escrito sobre a História da Matemática, da Física, da Astronomia e
da Ciência antiga. Sua contribuição à Álgebra moderna, no campo da Teoria
dos anéis, foi na obra intitulada Álgebra Moderna, publicada em 1930, em dois
volumes, cujo segundo volume se baseou no trabalho de Emmy Noether, o
que daria notoriedade à algebrista alemã.
Emil Artin (1898-1962) é autor de Teoria de Galois (1942), Anéis
com Condição Mínima (1948), Álgebra Geométrica (1957) e Teoria dos Corpos
de Classes (1961); foi professor na Universidade de Indiana e Princeton
durante sua permanência nos EUA, e de regresso à Alemanha (1956),
voltaria a lecionar na Universidade de Hamburgo (1958-1962); em 1927,
notabilizou-se por resolver o problema n° 17 (a representação de Funções
definidas, por meio de quocientes de somas de quadrados de Funções) da
famosa lista de problemas de Hilbert. Pesquisou na Teoria dos Números,
mas sua maior contribuição foi nas teorias de Anéis, Grupos e Campos,
e no desenvolvimento da chamada Função-L. Em 1944 descobriu Anéis
de condições mínimas para-Ideais, hoje chamados de Anéis de Artin.
Sua principal área de pesquisa seria a dos Corpos de classe, da qual fora
pioneiro o matemático japonês Teiji Takagi (1875-1960) num trabalho
publicado em 1920, generalizando trabalho de Hilbert sobre Corpos de
classe. Em 1923, Artin desenvolveria uma Equação funcional para uma
56
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
nova Série-L, da qual resultaria sua obra mais importante, escrita em
1927; sua “lei da reciprocidade”, que engloba leis anteriores, constitui
um avanço significativo na Álgebra abstrata. Artin é também conhecido
por sua Teoria das Tranças (1925), importante contribuição no campo da
Topologia algébrica.
Em relação à Teoria de Corpos de Classe, caberia mencionar a
contribuição de Claude Chevalley (1909-1984), integrante do Grupo
Bourbaki, em seus trabalhos de 1936 e 1941 (Teoria de Corpos de Classe),
ao introduzir métodos algébricos em substituição ao uso de Funções-L.
7.2.3.1.1 Teoria dos Números
A importância dos números primos na formação dos números
inteiros consta do Teorema fundamental da Aritmética, o que explica o
continuado interesse em seu estudo. Em prosseguimento aos trabalhos,
no final do século anterior, de Jacques Hadamard (1865-1963) e Charles
de La Vallée-Poussin (1866-1962) sobre o Teorema dos números primos
de Gauss, nova demonstração, mais curta, seria apresentada pelo alemão
Edmund Landau (1877-1938).
Dentre as contribuições nas pesquisas sobre diferentes aspectos
dos números primos devem ser mencionadas as de Waclaw Sierpinski,
Godfrey Hardy e Eliakim H. Wright.
Em 1742, em carta a Euler, o matemático russo-alemão Goldbach
apresentou a conjectura de que todo o número inteiro superior a cinco (5)
é a soma de três números primos. Este teorema ainda não foi estabelecido,
apesar das várias tentativas desde sua formulação. Em 1922, Hardy e John
Littlewood (1885-1977) demonstrariam, parcialmente, que todos os números
ímpares maiores que seis (6) são a soma de três números primos, e, depois,
Ivan Vinogradov (1891-1983), em 1937, demonstraria esta proposição.
No que se refere aos números transcendentes ou algébricos, Alexander
Gelfond (1906-1968) demonstraria a proposição de Euler, constante como
problema n° 7 na Lista de Hilbert, sobre a irracionalidade de certos números:
se no número ab, o a é um número algébrico diferente de 0 e 1 e o b um número
algébrico e irracional, a resposta é afirmativa – o número ab é transcendente.
Hilbert, em 1910, provaria o teorema do algebrista inglês Edward
Waring (1734-1798), de que todo inteiro positivo pode ser representado
como soma de no máximo “m” potências “n-enésimas”, sendo m uma
função de n17.
17 BOYER, Carl. História da Matemática.
57
CARLOS AUGUSTO DE PROENÇA ROSA
A questão da aritmética das curvas algébricas foi estudada por
André Weil, Carl Siegel e Thoralf Skolem entre outros.
Mais recentemente, Enrico Bombieri seria premiado com a
Medalha Fields de 1974 por seus trabalhos, entre outros temas, sobre
Teoria dos Números, como The large sieve in the analytic theory of numbers
(1973), Simultaneous Approximations of Algebraic Numbers (1973), On large
sieve inequalities and their Applications (1973), Le grand crible dans la théorie
analytique des nombres (1974), Nuovi metodi e nuovi risultati nella teoria dei
numeri (1968) e Small Differences between Prime Numbers (1966).
7.2.3.1.2 Teoria dos Conjuntos
Criada por Georg Cantor, na segunda metade do século XIX, a
Teoria dos conjuntos se transformaria, em pouco tempo, em influente
teoria com repercussões nas diversas disciplinas matemáticas. Dado que
antinomias (paradoxos) descobertas por Burali-Forti, Cantor e Russell
poriam em dúvida a validade da teoria e a viabilidade de se estabelecer
base axiomática para os Fundamentos da Matemática, o assunto se
constituiria num dos grandes debates científicos do início deste período.
A evolução da Teoria na atualidade foi, em consequência, examinada
no tópico anterior sob a rubrica geral de Fundamentos e Filosofia da
Matemática.
7.2.3.2 Geometria
No vasto campo da Geometria, quatro disciplinas são examinadas
a seguir.
7.2.3.2.1 Geometria Algébrica
A Escola italiana de Geometria, principalmente por meio de Luigi
Cremona (1830-1903), Giuseppe Veronese (1854-1917), Guido Castelnuovo
(1865-1952), Federigo Enriques (1871-1946) e Francesco Severi (1879-1961),
avançaria nas pesquisas no campo da Geometria algébrica, no final do
século XIX, tendo, inclusive, Castelnuovo e seu discípulo Enriques,
produzido, nos primeiros anos do século XX, trabalho conjunto sobre
superfícies algébricas.
58
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Após as pesquisas de Poincaré sobre curvas numa superfície, o
assunto avançaria, com os trabalhos pioneiros de Solomon Lefschetz
(1884-1972), autor de tese de doutorado em 1911 On the existence of loci
with given singularities, seguido, em 1921, de On certain numerical invariants
of algebraic varieties with application to Abelian varieties, e em 1924, com a
monografia Análise Situ e Geometria Algébrica. Nesses trabalhos, seria
desenvolvido o chamado “principio Lefschetz”, que justifica o emprego
de técnica topológica em Geometria algébrica.
De acordo com a tendência prevalecente de maior abstração, a
partir da década de 30 a Geometria algébrica entraria em outra fase, na
qual seria exigido mais rigor e menos intuição no tratamento do assunto.
Tendo estudado em Roma, influenciado pelos italianos, Oscar
Zariski (1899-1986), nascido na Bielorrússia (na época, parte da Rússia),
emigrou para os EUA em 1927, onde seria professor em John Hopkins
University (1937) e Harvard (1947); publicaria, em 1935, Superfícies
Algébricas, em que aplicaria Álgebra comutativa com vistas a obter rigor
em seus estudos. Na mesma direção pesquisariam André Weil (1906-1998),
autor de Fundamentos da Geometria Algébrica (1946), Friedrich Hirzebruch,
nascido em 1927, autor de Novo Método Topológico em Geometria Algébrica
(1956) e Claude Chevalley (1909-1984), autor, igualmente, de Fundamentos
da Geometria Algébrica, de 1958. Wolfgang Krull (1899-1971), mais dedicado
à Teoria dos anéis, sob influência de Emmy Noether, pesquisaria,
igualmente, no campo da Geometria algébrica, com o emprego de Anéis
no estudo de propriedades locais de variedades algébricas.
Nova fase se iniciaria com os trabalhos de unificação da Geometria
algébrica do controvertido Alexander Grothendieck, nascido em 1928, na
Alemanha, mas naturalizado francês; integrante do Grupo Bourbaki, é
considerado um dos mais importantes matemáticos da segunda metade
do século. Agraciado com a Medalha Fields de 1966, por sua concepção
de “teoria K” e seu Documento Tohoku, que revolucionaria a Álgebra
homológica, Grothendieck é autor de Elementos de Geometria Algébrica (sete
volumes, de um total previsto de 12), publicados na década de 60 pelo
Instituto de Altos Estudos Científicos (IHES) de Paris, e de sete seminários
de Geometria algébrica. Sua obra influenciaria trabalhos dos demais
matemáticos pesquisadores nesta área.
Uma série de brilhantes matemáticos daria valiosas contribuições
ao desenvolvimento da Geometria algébrica, como Kunihiko Kodaira
(1915-1997) que recebeu, em 1954, a Medalha Fields por suas investigações
em Geometria algébrica; o francês Pierre Samuel, nascido em 1921, autor
de Métodos de Álgebra Abstrata em Geometria Algébrica (1955); Abraham
59
CARLOS AUGUSTO DE PROENÇA ROSA
Seidenberg (1916-1988) que escreveu The Hyperplane sections of normal varieties
(1950) e o livro Elementos da Teoria das Curvas Algébricas (1968); Jean Pierre
Serre, já citado no tema da Topologia, foi atuante em Geometria algébrica,
autor de Faisceaux Algébriques Cohérents (1955), Géométrie Algébrique et
Géométrie Analytique (GAGA), Grupos de Classes e Campos de Classe (1959);
Michael Atiyah, com a tese de doutorado em Cambridge (Reino Unido) em
1955 Some Applications of Topological Methods in Algebraic Geometry, Heisuke
Hironaka, nascido em 1931, laureado com a Medalha Fields em 1970 por
seus trabalhos sobre singularidades de variedades algébricas; o belga Pierre
Deligne, nascido em 1944, pesquisador em generalização da teoria do
esquema, agraciado com a Medalha Fields em 1974; o alemão Gerd Faltings,
nascido em 1954, pela comprovação, em 1983, do Teorema de Bordell por
meio da Geometria algébrica, o que lhe valeria em 1986 a Medalha Fields;
Shing-Tung Yau, nascido em 1949, Medalha Fields de 1988 por suas pesquisas
em Geometria algébrica tridimensional; Shigefumi Mori, nascido em 1921,
Medalha Fields de 1990 por seu trabalhos sobre classificação de superfícies
algébricas; o ucraniano Vladimir Drinfeld, nascido em 1954, Medalha
Fields de 1990 por suas pesquisas em Teoria dos Números e Geometria
algébrica; o russo Vladimir Voevodsky, nascido em 1966, agraciado com
a Medalha Fields de 2002 por sua contribuição à teoria dos esquemas e ao
desenvolvimento da cohomologia e das variedades algébricas, coautor, com
André Suslin e Eric Friedlander, de Cycles, Transfers, and Motivic Homology
Theories; David Munford, nascido em 1937, na Inglaterra, mas radicado nos
EUA, laureado da Medalha Fields (1974), e atualmente na Universidade
Brown, é autor de Curves on an Algebraic Surface e The Red Book of Varieties
and Scheme 0073z.
7.2.3.2.2 Geometria Projetiva
Dentre as diversas contribuições, na atualidade, no campo da
Geometria projetiva, devem ser mencionadas as do estadunidense Oswald
Veblen (1880-1960), em seus trabalhos Finite Projective Geometries (1906),
com William H Bussey, Collineations in a Finite Projective Geometry, NonDesarguesian and non-Pascalian Geometries (1908) sobre os axiomas da
Geometria projetiva, e Geometria Projetiva (1910/18, em dois volumes), com
John W. Young; as de Reinhold Baer (1902-1979) em Álgebra Linear e Geometria
Projetiva de 1952; as de Harold Coxeter (1907-2003), em The Real Projective
Plane (1955), Introduction to Geometry (1961) e Geometry Revisited (1967); e
Abraham Seidenberg (1916-1988), em Lectures on Projective Geometry.
60
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.2.3.2.3 Geometria Diferencial
A Geometria diferencial, interface da Geometria e Análise,
tem esse nome por se utilizar do Cálculo diferencial. Desenvolvida em
épocas anteriores, principalmente com as contribuições básicas de Euler,
Monge e Gauss, como estudo das propriedades das curvas e superfícies,
e suas generalizações, avançaria, no início do período atual, com os
trabalhos de Gregorio Ricci (1853-1925) e Tullio Levi-Civita (1873-1941),
particularmente quanto ao Cálculo diferencial. O tema ganharia maior
visibilidade com o anúncio, em 1915, de Einstein, da descoberta de
suas equações gravitacionais, que constituíam “um verdadeiro triunfo
dos métodos do Cálculo diferencial geral fundado por Gauss, Riemann
Christoffel, Ricci...”18.
A partir dessa data, se intensificariam as pesquisas. Ricci, em 1917,
introduziria seu conceito de paralelismo, e na década seguinte, daria
curso na Universidade de Roma; Jan Schouten (1883-1971) se dedicaria
a trabalhos diversos sobre Análise tensorial e sobre os Cálculos de Ricci;
Oswald Veblen escreveria The Invariants of quadratic differential forms,
publicado em 1927, e The Foundations of Differential Geometry, de 1932,
ambos sobre a Geometria de Riemann, e o holandês Dirk Struik (1894-2000)
é autor de conferências e artigos reunidos em Lectures on Classical
Differential Geometry. O francês Élie Cartan, autor, em 1945, de Les
Systèmes Différentiels Extérieurs et leurs Applications Géométriques, aplicaria
o cálculo das formas diferenciais exteriores à Geometria diferencial, e por
suas contribuições (definição de conexão e noção de Espaço de Riemann
simétrico) é reconhecido como inovador na matéria19.
Pesquisadores mais recentes são o francês Alain Connes, premiado
com a Medalha Fields de 1982 por suas pesquisas em Geometria diferencial
em geral; Michael Freedman, nascido em 1951, nos EUA, laureado pela
solução da conjectura Poincaré para dimensão 4, com a Medalha Fields
e o Prêmio Veblen, ambos em 1986; Mikhail Gromov, laureado em 1999
com o Prêmio Balzan de Matemática, por suas pesquisas em Geometria
diferencial e formulador da teoria sobre curvas pseudo-holomórficas; e Jeff
Cheeger, nascido em Nova York, em 1943, professor do Departamento de
Matemática da Universidade de Nova York, ganhador do Prêmio Veblen,
de 2001, pelo conjunto de sua contribuição em Geometria diferencial, em
especial Geometria de Riemann; escreveu com Mikhail Gromov alguns
artigos em Topologia.
18 19 BOYER, Carl. História da Matemática.
BOYER, Carl. História da Matemática.
61
CARLOS AUGUSTO DE PROENÇA ROSA
7.2.3.2.4 Geometria Fractal
Formas naturais complexas, (árvore, folhagem, frutas, legumes,
rios, nuvens, montanhas, veios de cristais, etc.), encontradas em objetos
e fenômenos da Natureza são, muitas vezes, de difícil definição pela
Geometria tradicional. Algumas figuras matemáticas, como as Curvas de
Hilbert e de Koch, e o conjunto de Cantor, encontravam iguais dificuldades
de adequada definição. Weierstrass, Poincaré, Gaston Julia (1893-1978) e
Pierre Fatou (1878-1929) procederiam a alguns estudos e pesquisas, mas
o tema nunca chegou a despertar maior interesse e preocupação no meio
matemático, tanto mais que não se dispunha, então, de instrumental
capaz de oferecer uma solução geométrica para essas formas naturais e
matemáticas.
Ramo da Geometria que estuda as propriedades e comportamento
dos fractais, a Geometria fractal foi criada e desenvolvida por Benoit
Mandelbrot, na obra Les objets fractals, forme, hasard et dimension, de
1977, complementada e ampliada pelo livro The Fractal Geometry of
Nature, de 1982. O termo “fractal”, derivado da palavra latina fractus
para “quebrado”, “fraturado”, foi utilizado por Mandelbrot em 1975
para designar um objeto geométrico que pode ser dividido em partes,
das quais cada uma semelhante ao objeto original. Nascido em 1924, na
Polônia, mas emigrante na França, em 1936, onde estudou, se formou
(Escola Politécnica) e trabalhou (Centro Nacional de Pesquisa Científica);
pesquisou Mandelbrot também no Instituto de Estudos Avançados de
Princeton, trabalhando, posteriormente, no Centro de Pesquisa Watson,
da IBM, e lecionando na Universidade de Yale.
Na ausência de uma definição geral, todos os fractais têm algo
em comum, pois são resultado de um processo de iteração (repetitivo,
recorrente), ou seja, de um processo geométrico elementar do qual resulta
uma estrutura final de aparência extraordinariamente complicada; assim,
estuda a Geometria fractal as formas geométricas que não variam com a
mudança de escala, ou seja, que mantêm a propriedade de similaridade.
Alguns conjuntos e curvas eram conhecidos com anterioridade
(chamadas de “curva monstro”), como o conjunto de Cantor e as Curvas
de Hilbert e de Koch, porém o estudo sistemático desses objetos seria
devido a Mandelbrot, que, com a ajuda de gráficos por computador,
criaria famoso conjunto.
62
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.2.3.3 Topologia
A Topologia trata das propriedades que permanecem inalteradas
após deformações elásticas das figuras geométricas, ou seja, propriedades
topológicas que não mudam, mesmo quando o objeto seja esticado ou
entortado, mas não rasgado. A Topologia estuda os Espaços topológicos,
noção mais ampla e abrangente que a da configuração geométrica. Ramo
bastante novo da Matemática, a Topologia teve como pioneiros Leibniz
(que usou o termo analysis situ para designar geometria de posição),
Euler (famoso estudo das pontes de Königsberg), Gauss, Riemann
(Espaço), Listing (cunhou o nome “Topologia”), Cantor (conjunto de
pontos), Möbius (banda de Möbius), Enrico Betti (conexidade) e Poincaré
(homologia, autor de Analysis Situ, de 1895, Conjectura). Inicialmente
vinculado à Geometria, o crescente interesse e volume de pesquisas
transformariam a Topologia, na atualidade, num ramo independente e
tão importante e extenso quanto a Álgebra, a Geometria e a Análise. Suas
áreas são estudadas na Topologia geral (continuidade em Espaços gerais),
Topologia algébrica (ligação da Topologia com a Álgebra, associando
estruturas algébricas a um Espaço topológico com o objetivo de obter
informações sobre o Espaço; exemplos são Grupos de homologia e Grupos
de homotopia) e Teoria das variedades (estudo das variedades ou da
generalização da ideia de superfície).
Uma série importante de estudos e análises daria, no início do
atual período, um grande impulso ao desenvolvimento e estruturação da
Topologia. Poincaré, prosseguindo em seus trabalhos sobre Topologia,
formularia, em 1904, sua famosa conjectura relativa às propriedades de
superfícies em duas, três ou mais dimensões, ou, em outras palavras,
sob certas condições algébricas uma superfície e uma esfera, ambas de
dimensão 3, do ponto de vista topológico são iguais. Em 1960, Stephen
Smale (1930) conseguiu demonstrá-la para superfícies esféricas de
dimensão 5, ou superiores, e Michael Freedman (1951), em 1981, para
dimensão 4; falta, até hoje, a demonstração da conjectura original de que
qualquer variedade tridimensional fechada é uma esfera tridimensional.
Não tendo sido resolvido, até o momento, esse problema, a conjectura
foi incluída como um dos sete problemas do Milênio pelo Instituto de
Matemática Clay. A solução apresentada por Grigori Perelman, do
Instituto de Matemática de Steklov (São Petersburgo) para comprovar a
conjectura de Poincaré ainda está sob exame (2008).
O americano Oswald Veblen (1880-1960) escreveria, em 1905 Theory
on plane curves in non-metrical analysis “situ” e publicaria Analysis Situ, em
63
CARLOS AUGUSTO DE PROENÇA ROSA
1922, e Maurice Frechet (1878-1973), em 1906, definiria Espaço métrico,
sendo autor, em 1926, de Os Espaços Abstratos. O húngaro Frigyes Riesz
(1880-1956) avançaria na Conferência Internacional de Matemáticos, em
Roma (1909), a ideia de abandono da métrica e um novo enfoque axiomático
de definição de pontos-limites, sem o conceito de distância. O holandês
Luitzen Brouwer, cujas contribuições o colocam como um dos principais
estudiosos da Topologia estabeleceria, em 1911, o Teorema da invariância
topológica, anunciaria vários teoremas de pontos fixos, definiria Espaço
topológico, generalizaria o Teorema de Jordan e desenvolveria método de
exame por meio de aproximações, e Hermann Weyl (1885-1955), em 1913,
sugeriria o uso de “vizinhança” para definir Espaço topológico. Esta fase
pode ser considerada concluída com o trabalho do matemático alemão
Félix Hausdorff (1868-1942), considerado, por muitos, como o fundador
da Topologia; sua obra Aspectos Básicos da Teoria dos Conjuntos, de 1914,
criou o chamado Espaço topológico, a partir de quatro axiomas, cuja
generalização da noção de Espaço métrico é marco na evolução do tema20.
O amplo interesse despertado pela Topologia, por sua abrangência
e relação com demais ramos da Ciência, no meio matemático, determinaria
um grande avanço nas pesquisas. O polonês Kazimier Kuratowski (18961980), baseando-se na obra de Brouwer, daria, em 1922, os contornos
atuais do conceito de Espaço topológico, e o americano James W.
Alexander (1888-1971) escreveria, em 1926, Combinatorial Analysis “situ”,
e elaboraria a teoria hoje conhecida como Tteoria Alexander-Spanner.
O russo-americano Solomon Lefschetz (1884-1972) contribuiria para o
desenvolvimento da Topologia com sua teoria do hiperplano, o Teorema
do ponto fixo, com as obras Analysis “Situ” e a Geometria Algébrica (1924) e
Topologia Algébrica, de 1942.
Nos anos trinta, caberia mencionar as pesquisas do russo Andrei
Kolmogorov (1903-1987), que introduziria a noção de Grupo cohomológico
(1936), independente de Alexander, e definiria o Anel cohomológico,
apresentado na Conferência Internacional de Topologia, em Moscou
(1935). O alemão Heinz Hopf (1894-1971) escreveria, com o russo Pavel
Aleksandrov (1896-1982), em 1935, Topologia, tendo preparado trabalhos
sobre Topologia algébrica e Grupos homológicos, e definido as chamadas
invariantes Hopf (1931). O russo Ivan Petrovsky (1901-1973) efetuou
estudos sobre Topologia de curvas e superfícies algébricas.
Nos anos 20/30 se desenvolveria a Teoria dos Espaços vetoriais
topológicos, na base dos trabalhos de Frigyes Riesz, Hans Hahn e Stefan
20 BOYER, Carl. História da Matemática.
64
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Banach21, que se distinguiu, igualmente, no estudo de Integração, Teoria
da medida e Séries ortogonais.
Os trabalhos do russo Lev Pontryagin (1908-1988) seriam
apresentados numa coletânea intitulada Grupos Topológicos, e o francês Jean
Dieudonné (1906-1992) contribuiria, igualmente, com seus estudos para o
avanço na pesquisa em Topologia geral e Espaços vetoriais topológicos.
O Grupo Bourbaki reconheceria a importância da Topologia,
dedicando-lhe o terceiro volume da obra Elementos de Matemática. Os capítulos
I e II seriam publicados em 1940, e os III e IV, em 1942; após a Guerra, o
Grupo retomaria o projeto com Samuel Eilenberg (1913-1998) e Laurent
Schwartz (1915-2002) como os principais redatores dos capítulos seguintes:
V, VI e VII, publicados em 1947, o VIII e o IX em 1948 e o capítulo X em 1950.
A aplicação do chamado método estruturalista, pelo Grupo, determinaria
uma hierarquização das estruturas matemáticas pela combinação de três
estruturas elementares: algébrica, de ordem e topológica (na base das noções
de vizinhança, continuidade e limite). A noção de estrutura topológica
adquire, assim, especial importância na Matemática moderna.
O grande interesse atual pela Topologia explica o aparecimento de
revistas especializadas e a farta literatura, a criação de entidades dedicadas
à pesquisa topológica e a celebração de reuniões regionais e internacionais
específicas. Em número crescente, jovens matemáticos têm se empenhado no
estudo deste assunto, o que significa forte indício de continuar a Topologia,
no futuro próximo, como ramo importante da Matemática.
Michael Atiyah, nascido em Londres, em 1929, professor em
Oxford, Princeton e Cambridge (Grã-Bretanha), laureado pela Medalha
Fields (1966) por seus trabalhos em Topologia e Geometria algébrica,
desenvolveu a teoria K, em colaboração com Friedrich Hirzebruch; é autor
do livro Teoria K (1967) e recebeu o Prêmio Abel (2004) com o matemático
americano Isadore Singer (1924), pela formulação do Teorema índice, que
inter-relaciona Geometria, Álgebra, Topologia e Cálculo.
O francês René Thom (1923-2002), mais conhecido por sua Teoria da
Catástrofe (Estabilidade Estrutural e Morfogênese), de 1972, receberia, em
1958, a Medalha Fields por suas pesquisas em Topologia, em particular
sobre “classes características” e seu Teorema de transversalidade.
Nos anos sessenta e posteriores, foram ativos em pesquisas
topológicas o americano Stephen Smale (1930), ganhador da Medalha Fields
em 1966 por seu trabalho acerca da Conjectura Poincaré, e pesquisador
na área de sistemas dinâmicos; John Willard Milnor, nascido nos EUA,
em 1931, laureado em 1962 com a Medalha Fields por sua prova de que
21 TATON, René. La Science Contemporaine.
65
CARLOS AUGUSTO DE PROENÇA ROSA
uma esfera de dimensão 7 pode ter diversas (28) estruturas diferenciais;
é autor de Topology from the Differentiable Viewpoint, Morse Theory, The
h-Cobordism Theorem, Dynamics in One Complex Variable e Singular Points
of Complex Hypersurfaces; o francês Jean Pierre Serre, nascido em 1926,
professor de Álgebra e Geometria no Collège de France (1956-1994),
premiado com a Medalha Fields em 1954 e o primeiro Prêmio Abel (2003)
por seus trabalhos em Geometria algébrica, Topologia algébrica e Teoria
dos Números, devendo-se assinalar seus estudos Homologie singulère des
espaces fibrés (1951), Faisceaux Algébriques Cohérents (1955), Cohomologie
Galoisienne (1964), Cours d’Arithmétique (1970), Cohomologie des Groupes
Discrets (1971), Topics in Galois Theory (1992); e René Thom (1923-2002),
conhecido por sua Teoria da catástrofe, recebeu a Medalha Fields, em 1958,
por seu trabalho de criação e desenvolvimento da Teoria de cobordismo
em Topologia algébrica.
Quanto aos anos mais recentes, caberia citar as contribuições de
Sergei Novikov, nascido em 1938, na Rússia, Chefe do Departamento
de Geometria e Topologia do Instituto de Matemática da Academia de
Ciências da URSS (1984), Presidente da Sociedade Matemática de Moscou
(1985) e Chefe do Departamento de Geometria e Topologia do Instituto de
Matemática Steklov (2004), que receberia, em 1970, a Medalha Fields; em
1965 provou o Teorema sobre invariância de Pontryagin e criou a chamada
conjectura Novikov sobre invariância homotópica de certos polinômios
de classes 4-dimensões; o russo Mikhail Gromov, nascido em 1943, com
diversos estudos e teoremas importantes em Geometria e Topologia,
inclusive em relacionar propriedades topológicas e geométricas em
Geometria Riemann; o inglês Simon Donaldson, nascido em 1957, professor
de Matemática de Oxford desde 1985, receberia a Medalha Fields, em 1986,
por suas investigações em área também estudada por Michael Freedman,
assunto já objeto de seus trabalhos (1982) intitulados An application of
gauge theory to four-dimensional topology e Self-dual connections and the
topology of smooth 4-manifolds; em 1990 Donaldson escreveria The Geometry
of 4-manifolds; e Vladimir Voevodsky, Medalha Fields por sua obra em
Geometria algébrica, por suas investigações para estabelecer relações da
Topologia com as construções algébricas; o americano David Gabai, da
Universidade de Princeton, com artigos no Journal da AMS, ganhador do
Prêmio Veblen de 2004 por seus trabalhos em Topologia geométrica, em
particular Topologia tridimensional.
66
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.2.3.4 Análise
A seguir, será examinado o desenvolvimento das Equações
diferenciais, da Análise funcional e da Integração e Medida.
7.2.3.4.1 Equações Diferenciais
Dada sua ampla utilização na Matemática pura e aplicada, na
Física e Astronomia (Mecânica Celeste), as equações diferenciais (parcial
e ordinária) seriam objeto de grande número de trabalhos, devendo
mencionar as contribuições de Vito Volterra (1860-1940) no período
1890/94, e, em particular, os do início do século XX; de Poincaré, que
desenvolveu o conceito de Funções automórficas para resolver questões
de Equações diferenciais; e de Paul Painlevé (1863-1933), cujo primeiro
interesse em Matemática seria em equações diferenciais de segunda
ordem, em particular relacionadas com a transformação de curvas e
superfícies algébricas.
Contribuições significativas seriam dadas por Henri Cartan, Erik
Fredholm, Salomon Lefschetz, Alfred Haar e Lev Pontryagin, com Equações
Diferenciais Ordinárias (1962); Ivan Petrovsky (1901-1973) pesquisou,
igualmente, Topologia de curvas e superfícies algébricas.
Dentre os vários pesquisadores dos últimos anos, caberia
mencionar Lars Hörmander, matemático sueco nascido em 1931,
laureado com a Medalha Fields em 1962, autor de Linear Partial Differential
Operator (1963), General Pseudo-Differential Operators (1977), e em quatro
volumes The Analysis of Linear Partial Differential Operators (1983/90);
principal conquista de Hörmander seria a formulação de uma Teoria de
distribuições usando Análise de Fourier; o americano Einar Carl Hille
(1894-1980), autor de Lectures on Ordinary Differential Equations (1969);
Shing-Tung Yau por seus trabalhos em equações diferenciais parciais não
lineares ganhou o Prêmio Veblen de Geometria em 1981; Enrico Bombieri,
ganhador da Medalha Fields (1974) por sua contribuição em Teoria dos
Números, Teoria de funções de diversas variáveis complexas, Conjectura
Bieberbach, Geometria algébrica e Teoria de equações diferenciais parciais;
Jean Bourgain, nascido na Bélgica, em 1954, Medalha Fields de 1994 por
suas relevantes contribuições em Geometria de espaços de Banach, Análise
harmônica, Teoria ergódiga e em Equações diferenciais parciais não
lineares; e Peter Lax, nascido na Hungria, em 1926; emigrou para os EUA
em 1941, recebeu seu doutorado da Universidade de Nova York em 1949,
67
CARLOS AUGUSTO DE PROENÇA ROSA
escreveu vários livros sobre Análise funcional, Álgebra linear e Cálculo,
e receberia, em 2005, o Prêmio Abel por suas relevantes contribuições “à
teoria e aplicação de equações diferenciais parciais e à computação de
suas soluções, estabelecendo os fundamentos para a moderna teoria de
sistemas não lineares hiperbólicos”; Peter Lax é autor de Recent Advances
in Partial Differential Equations e Nonlinear Partial Differential Equations in
Applied Sciences.
7.2.3.4.2 Análise Funcional
Trabalhos pioneiros de Volterra ao introduzir a noção de função de
linha (1889), de Hadamard, com o termo funcional, tomando como ponto
de partida suas pesquisas em Cálculo das variações, e de Hilbert sobre
equações integrais, de 1912, ao desenvolver o conceito de continuidade
de uma função de infinitas variáveis, prosseguiriam com a contribuição
decisiva de Maurice Fréchet à Análise funcional, com a publicação, em
1906, de Sur quelques points de calcul fonctionnel.
Em 1922, o polonês Stefan Banach (1892-1945) criaria, em sua tese
sobre a Teoria da medida, a noção de Espaço abstrato, que viria a ser o
objeto principal de estudo da moderna Análise funcional; esta data é
considerada, por muitos, como início da Análise funcional, porquanto
desenvolveu uma teoria sistemática e generalizou as contribuições de
Volterra, Hilbert e Fredholm em equações integrais. Em 1928, Banach,
com Hugo Steinhaus, fundaria, na cidade polonesa de Lvov, a revista
Studia Mathematica (hoje em dia editada em Varsóvia), a qual se tornaria
a mais importante publicação periódica sobre Análise funcional. Nessa
mesma época, Fréchet, discípulo de Hadamard e pesquisador em
Cálculo diferencial e integral, Cálculo das probabilidades e Topologia,
seria creditado como criador do conceito de Espaço métrico (expressão
criada por Hausdorff) aos Espaços métricos abstratos, título de sua
obra (Espaços Abstratos) de 1928. Paul Levy (1886-1971) escrevera Leçons
d’analyse fonctionelle (1922).
Desenvolvimento mais recente da Análise funcional se deve ao
húngaro Frigyes Riesz, autor, em 1952, de Lições de Análise Funcional, e ao
austríaco Ernst Fischer, autores independentes do hoje chamado Teorema
Riesz-Fischer, de 1907, da maior importância na Análise Fourier de Espaço;
Hilbert; John von Neumann; Erhard Schmidt (1876-1959), pesquisador em
Espaço Hilbert, autor de diversos trabalhos (1905/07 e 08) e criador do
processo de ortogonalização, pelo qual criou um Espaço ortogonal a partir
68
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
de uma base de um Espaço; Kosaku Yoshida (1909-1997), autor de Análise
Funcional, de 1948; Einar Carl Hille, inicialmente pesquisador de equações
diferenciais e integrais, de Séries Fourier e Dirichlet, se interessaria por
Análise funcional, escrevendo Análise Funcional e Semigrupos (1948), Teoria
de Função Analítica (1959/64), Análise (1964-1966), e Methods in Classic and
Functional Analysis (1972), formulador do Teorema Hille-Yosida, sobre
Semigrupos em Espaço Banach.
7.2.3.4.3 Integração e Medida
Ao mesmo tempo em que se desenvolvia a Análise funcional,
novos conceitos teriam impacto renovador no estudo da Integração,
então dominado pela Integral de Riemann, e na Teoria da medida. Émile
Borel (1881-1956), autor, em 1901, de Leçons sur les séries divergentes e
responsável pela Collection de monographies sur la théorie des fonctions, da
qual redigiu dez dos cinquenta volumes, criaria a primeira Teoria da
medida de conjunto de pontos, início da moderna Teoria das funções de
uma variável real, e formularia o Teorema Heine-Borel sobre a aplicação
da Teoria dos conjuntos à Teoria das funções. René Baire (1874-1932) seria
autor de tese, em 1899, sobre os limites de uma sequência de funções
contínua, caracterizando quais são as funções que são limites de funções
contínuas. Henri Lebesgue (1875-1941) em 1902 pronunciaria conferência
na qual, baseando-se nas pesquisas de Borel e Baire, refaria a teoria de
integração, generalizando a noção de Riemann de Integral, ao estender
o conceito de uma curva para incluir funções descontínuas. Deste modo,
o novo conceito de Integral (hoje Integral de Lebesgue) sobre uma classe
mais ampla de Funções que o de Riemann, e a relação sobre diferenciação
e Integração estão sujeitas às mesmas exceções. Suas ideias estão refletidas
nos livros Intégrale, longueur, aire (1902), Leçons sur séries trignométriques
(1903) e Leçons sur l’integration et la recherche des fonctions primitives (1904),
que seriam inspiradores para os trabalhos de Banach e Steinhaus sobre
Espaço abstratos22.
A reformulação de Integral por Lebesgue marca, de algum modo,
um novo período, caracterizado por novas generalizações, como a Integral
de Armand Denjoy (1884-1974), autor de Sur les produits canoniques d’ordre
infini, de 1909, e Leçons sur le calcul des coefficients d’une série trigonométrique, em
quatro volumes (1934), que contém sua Integral, e a do húngaro Alfred Haar
(1885-1933) , em seu trabalho de 1932. O russo Nikolai N. Luzin (1883-1950),
22 BOYER, Carl. História da Matemática.
69
CARLOS AUGUSTO DE PROENÇA ROSA
professor da Universidade de Moscou, influenciado pelas pesquisas de Borel,
Lebesgue e Denjoy, foi dos primeiros a aplicar a Teoria da medida a Funções
reais; escreveu sua tese Integral e Série Trigonométrica (1915) e monografias sobre
o tema nos anos 20 e 30, além de ter formado gerações de jovens (Aleksandrov,
Suslin, Menshov, Kolmogorov, Pontryagin, Novikov) em muitos campos da
Análise.
7.2.3.5 Probabilidade Matemática
Embora se possa considerar que os estudos sistemáticos sobre
probabilidade matemática tenham se iniciado no século XVII, com Fermat
e Pascal, seu progresso foi bastante menor que o de outras áreas da
Matemática, e despertou interesse em número reduzido de pesquisadores;
no século XIX, podem ser citados, com contribuições importantes para o
tema, Laplace (Théorie Analithique des Probabilités, 1812), Poisson (Sobre a
Probabilidade dos Resultados Médios de Observações, 1832), Gauss (Método dos
Mínimos Quadrados), Adolphe Quetelet (Sobre o Homem e o Desenvolvimento
de Suas Faculdades, 1835), Pafnuty Chebyshev (Sobre o Valor Médio,
1867 e Sobre Dois Teoremas acerca de Probabilidade, 1887) e Alexandr
Lyapunov (Teoria de Limite Central).
No início do século XX, Émile Borel, em 1909, considerava importante
a Teoria da medida para a fundamentação da Teoria das Probabilidades,
o que, igualmente, sustentava Francesco Cantelli (1875-1966), professor de
Cálculo das probabilidades e de Matemática financeira na Universidade
de Roma; o matemático e estatístico finlandês Jarl Lindeberg (1876-1932)
que, em trabalho de 1922, demonstrou o Teorema de limite central; e
Richard von Mises (1883-1953), autor de Teoria Matemática de Probabilidade
e Estatística e Probabilidade, Estatística e Verdade (1928), que formulou, em
1909, dois axiomas para fundamentar Probabilidade: o da convergência
(à medida que se estende a sequência de tentativas, a proporção de um
resultado favorável tende a um limite matemático definido) e o do aleatório
(os resultados devem ser distribuídos aleatoriamente entre as tentativas),
e em 1939 apresentou o famoso “problema do aniversário” (quantas pessoas
devem estar numa sala para que a probabilidade de alguém compartilhar o
mesmo dia do aniversário atinja 50%).
De grande importância, ainda nessa fase, seriam as contribuições
de três matemáticos russos: Andrei Markov (1856-1922), que provou o
Teorema do limite central, é mais conhecido por seus estudos sobre as
chamadas Cadeias Markov, sequência de variáveis aleatórias nas quais a
70
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
variável futura é determinada pela preexistente, mas independentemente
da maneira em que esta foi gerada; com este trabalho, Markov lançou a
base da Teoria do processo estocástico (que depende ou resulta de uma
variável aleatória); Sergei Bernstei (1880-1968), que tentou a axiomatização
das Probabilidades, em 1917; generalizou as condições de Lyapunov
no Teorema do limite central, trabalhou na Lei dos grandes números e
explorou a aplicação da Probabilidade em Genética; e Evgeny Slutsky
(1880-1948), dedicado à estatística no campo da Meteorologia; estudou e
escreveu sobre Fundamentos da Teoria das Probabilidades, tendo escrito, em
1912, artigo sobre a Teoria da Correlação.
A maior contribuição para o desenvolvimento da Teoria das
Probabilidades na atualidade partiu da Escola russa, que desde Chebyshev
e Lyapunov se dedicaria a seu estudo, com a participação de uma série
notável de matemáticos, que culminaria com a obra de Kolmogorov.
A definição de Poisson de variável aleatória era demasiadamente
intuitiva e baseada em experiências práticas, o que não servia para
estruturar, com rigor analítico, uma Teoria das Probabilidades. Com o
desenvolvimento da Teoria dos conjuntos, de Cantor e da Teoria da medida,
de Lebesgue, e dados os requerimentos modernos pela axiomatização da
Matemática, esforços de pesquisadores se concentrariam na formulação
de uma base axiomática para a Teoria.
Uma nova fase no estudo e na concepção da Teoria das
probabilidades se iniciaria com os trabalhos de Andrei Nikolaievitch
Kolmogorov (1903-1987), autor, de 1925 a 1928, de uma série de estudos
que seriam desenvolvidos em 1933, em sua famosa obra Fundamentos da
Teoria das Probabilidades, na qual apresentaria uma construção axiomática
e a equivalência entre os conceitos das Teorias da medida e das
probabilidades.
Os conceitos básicos da moderna Teoria das Probabilidades são:
i) do experimento aleatório (um experimento, ao menos hipoteticamente,
pode ser repetido sob condições essencialmente idênticas com resultados
diferentes em diferentes tentativas, ou seja, causas iguais podem gerar
efeitos diferentes); ii) do Espaço amostral (conjunto, normalmente
designado pela letra grega ômega (Ω), de todos os possíveis resultados
de um experimento aleatório); iii) do evento (subconjunto do Espaço
amostral); e iv) da álgebra (conjunto de eventos de um Espaço amostral).
Kolmogorov formularia um conjunto de cinco axiomas que
caracterizam a noção de Probabilidade e constituem o modelo matemático
dos fenômenos aleatórios. Em linguagem corrente, tais axiomas
estabelecem: primeiro, associados aos possíveis resultados de um
71
CARLOS AUGUSTO DE PROENÇA ROSA
experimento aleatório, existem sempre um Espaço amostral e uma álgebra
de eventos; segundo, para todo o evento da Álgebra, existe um número
não negativo (maior do que ou igual a zero), chamado de probabilidade,
que se atribui a tal evento; terceiro, a probabilidade do Espaço amostral
é igual a 1 (um); quarto, para quaisquer dois eventos disjuntos (que não
compartilham nenhum resultado) a probabilidade da união deles é igual
à soma das suas probabilidades; e quinto, o anterior é verdadeiro para
infinitas uniões, desde que todos os pares de eventos sejam disjuntos.
Com base nesses axiomas de Kolmogorov, são estabelecidas as
quatro propriedades fundamentais da Probabilidade: 1) a probabilidade
de qualquer evento é um número sempre maior ou igual a zero ou menor
do que ou igual a 1 (um); 2) a probabilidade de um evento impossível é zero;
3) se a ocorrência de um evento implica na ocorrência de um segundo, então
a probabilidade do primeiro é menor do que a probabilidade do segundo;
e 4) a probabilidade da união de dois eventos é igual à probabilidade do
primeiro mais a probabilidade do segundo menos a probabilidade da
ocorrência simultânea dos dois.
A obra de Kolmogorov influenciaria as pesquisas desta nova fase da
Probabilidade moderna, na qual ressaltam as contribuições de Aleksandr
Khinchin (1894-1959), que, além de trabalhos em Análise, Estatística e Teoria
dos Números, escreveu, em 1927, Leis Básicas da Teoria da Probabilidade e um
artigo sobre o conceito de entropia na Teoria das Probabilidades (1957); de Ivan
Petrovisky (1901-1973), estudioso de Equações diferenciais e Topologia,
que se dedicou, igualmente, à Teoria das Probabilidades, sendo autor de
vários artigos; e de Boris Gnedenko (1912-1995); influenciado por Khinchin
e Kolmogorov, interessou-se pela Teoria abstrata das probabilidades, tendo
escrito, em 1949, Limit Distributions for Sums of Independent Random Variables
e em 1950, Curso da Teoria das Probabilidades.
Além das já mencionadas contribuições, caberia citar os
trabalhos de William Feller (1906-1970), croata naturalizado americano,
com importantes contribuições para o desenvolvimento do estudo da
Probabilidade; estudou a relação entre a Cadeia Markov e equações
diferenciais, escreveu dois tratados, e vários tópicos receberam seu nome,
como Processo Feller, Movimento Feller-Brown, propriedade Feller
e Teorema Lindberg-Feller; seu mais importante livro é Introduction
to Probability Theory and its Applications (1950-1961), em dois volumes;
e dos franceses Paul Levy (1886-1971), autor de Calcul des Probabilités
(1925), Théorie de l’addition des variables aléatoires (1937-1954) e Processus
stochastiques et mouvement brownien (1948) e Laurent Schwartz (1915-2002)
que generalizaria, em 1950-1951, o conceito de diferenciação através
72
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
da Teoria das distribuições (Medalha Fields), trabalharia em equações
diferenciais parciais e Cálculo diferencial estocástico.
No desenvolvimento da Probabilidade Matemática e de sua
aplicação em diversos domínios, há que registrar, como de particular
importância, o avanço teórico ocorrido no campo da Estatística, o que
viria a permitir sua crescente utilização no estudo dos fenômenos. Nesse
sentido, vale mencionar as contribuições do britânico Karl Pearson
(1857-1936), autor de Biométrica (1901); do americano Josiah Willard Gibbs
(1839-1903), autor de Elementary Principles in Statistical Mechanics; de George
Udny Yule (1871-1951), autor de Introduction to the Theory of Statistics (1911, cuja
última edição revista foi de 1950); do australiano Ronald Aylmer Fisher (1890-1962) autor de Statistical Methods and Scientific Inference (1956); do húngaro
Abraham Wald (1902-1950), com diversos artigos (Sequential Tests of Statistical
Hypotheses, 1945); e Sequential Analysis (1947) e Statistical Decision Functions
(1950), de Frank Yates (1902-1994), autor de Sstatistical Tables for Biological,
Agricultural and Medical Reseach (1938) e Samplings methods for censuses and
surveys (1949), do sueco Hermann Wold (1904-1992) autor de Statistical
Estimation of Economic Relationships (1949) e Causality and Econometrics (1954),
de John Tukey (1915-2000) com Exploratory Data Analysis (1977), de Walter
Shewhart (1891-1967) autor de Economic Control of Quality of Manufactured
Products (1931) e Statistical Method from the viewpoit of Quality Control (1939), e
de Leonard Savage (1917-1971) com Foundations of Statistics (1954).
7.3 Astronomia
A História da Astronomia mostra o contínuo avanço no
conhecimento dos fenômenos, principalmente desde os estudos e
pesquisas da Época do Renascimento Científico. A curiosidade humana
sempre foi um fator decisivo na busca da compreensão do funcionamento
do Universo, o que determinaria uma paulatina evolução das pesquisas
astronômicas, apoiadas pelo desenvolvimento na Matemática, na Mecânica
e na Óptica. As contribuições revolucionárias de Copérnico, Tycho Brahe,
Galileu, Kepler, Descartes, Huygens, Newton, Herschel, Laplace, Bessel,
Le Verrier e Kirchhoff, entre outros, criariam uma Astronomia científica,
sustentada por observações, teorias, leis e cálculos e expandida pelo
crescente conhecimento dos objetos celestes. A Via Láctea, conjunto das
estrelas e demais corpos celestes observados, correspondia aos limites
do Universo conhecido. A ampliação desse limite dependeria de novos
conhecimentos, técnicas e métodos, e de recurso a outros ramos científicos.
73
CARLOS AUGUSTO DE PROENÇA ROSA
7.3.1 Características Atuais
As novas características do impressionante desenvolvimento
da Astronomia na atualidade devem ser interpretadas como
marcas do início de uma nova fase da História desta Ciência,
uma vez que não se trata de simples avanço decorrente de mera
aplicação de conhecimentos passados. O desenvolvimento de novos
conceitos e noções, o surgimento de uma nova Física estruturada
na Teoria da relatividade e na Teoria quântica, e a renovação
da Matemática e da Química em diversos domínios seriam
determinantes fundamentais no avanço da pesquisa astronômica.
Por outro lado, a ampliação da área espacial investigada, o
aproveitamento de faixas do espectro eletromagnético (raios-Gama,
raios-X, ultravioleta e infravermelho) para a observação de “invisíveis”
corpos celestes, a utilização de novos instrumentos, técnicas e métodos
na investigação, a disseminação geográfica de centros de investigação
e a crescente incorporação de tecnologia permitiriam uma mudança
radical do quadro tradicional da Astronomia. Dessa forma, o Universo,
limitado até então à Via Láctea, adquiriria novas dimensões, com
a incorporação de imensas galáxias e gigantescos aglomerados e
superaglomerados de galáxias; as distâncias conhecidas passariam
à “escala cósmica”; objetos celestes, até então inimaginados, seriam
descobertos ou inferidos, como o buraco negro, a Matéria escura, a
energia escura, pulsares e quasares; mais de quatrocentos planetas
fora do Sistema Solar seriam encontrados; espaço e tempo seriam
relativizados; a Lei da gravidade já não teria validade universal; novas
teorias cosmológicas seriam formuladas; evidências da expansão do
Universo seriam detectadas.
A Astronomia clássica, vigente para um Mundo restrito, não se
aplicaria para o novo Cosmos, não mais criado, fechado, hierarquizado,
harmonioso e estático, mas eterno, aberto e dinâmico. Embora tenha
ocorrido um extraordinário progresso no conhecimento astronômico
desde os tempos da Grécia (Aristóteles, Hiparco, Ptolomeu) até o início
do século XX (Copérnico, Kepler, Galileu, Descartes, Newton, Herschel,
Huygens, Halley, Cassini, Messier, Bradley, Bode, Laplace, Bessel,
Argelander, Le Verrier, Parsons), as seculares bases e pressupostos
metafísicos e teológicos sempre prevaleceram e nortearam esse
desenvolvimento; os avanços havidos (Sistema heliocêntrico, Mecânica
Celeste, descobertas observacionais) não alterariam, nem contestariam,
tais pressupostos.
74
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Uma verdadeira revolução conceitual, estruturada em bases
estritamente científicas, ocorreria a partir de 1920 (Einstein, Friedmann,
Hubble, Lemaître, Gamow), dando início, assim, a um novo período da
evolução da Astronomia, cujos fundamentos, exclusivamente científicos,
passariam a ser os únicos a orientar as pesquisas. Dessa forma, após vinte
e cinco séculos, considerações de ordem teológica e metafísica seriam
excluídas do âmbito da Ciência e da cogitação do investigador, o que
corresponde, em outras palavras, ao triunfo decisivo do espírito científico
sobre considerações estranhas à Ciência no campo da Astronomia.
Na medida em que progrediram as investigações, surgiria
uma série de novas descobertas que ampliariam a área de pesquisa no
Sistema Solar, na Via Láctea e nas demais galáxias. Um grande número
de perguntas e dúvidas continua, no entanto, sem adequada resposta,
o que significa, certamente, vir a ser a Astronomia, particularmente a
Astrofísica e a Cosmologia, um dos ramos científicos de maior interesse
no futuro. Diante de tão rápido desenvolvimento do conhecimento
astronômico23, surgiriam novos campos (Astronomia dos raios cósmicos,
Astronomia espacial) e técnicas de investigação (radar, interferômetro),
outros manteriam importância (Astrometria), enquanto outros ramos
readquiririam relevância (Cosmologia), o que, por sua vez, propiciariam
descobertas e novos avanços nas pesquisas.
O progresso na Astrometria e na Espectroscopia, o desenvolvimento
inovador da Radioastronomia, as novas teorias da formação do Universo
(Big Bang) e os diversos programas de exploração do Espaço dariam
um formidável impulso para a recolocação da Cosmologia como área
proeminente de estudos e investigação24.
A inovadora e revolucionária Astronomia espacial, surgida
em 1957, com o lançamento do Sputnik, iniciaria a chamada “corrida
espacial”, fundamental para o desenvolvimento científico (Matemática,
Física, Química, Biologia) e determinante para o notável avanço, num
curto período de tempo, no conhecimento dos fenômenos astronômicos e
dos objetos celestes25.
A nova Astronomia receberia incentivo público e privado,
movimentaria vultosos recursos financeiros, requereria a formação de
equipes de pesquisa formadas de astrônomos, astrofísicos, matemáticos,
químicos, físicos, biólogos e técnicos, demandaria a cooperação da
universidade e de outros centros de pesquisa, e incentivaria a cooperação
TATON, René. La Science Contemporaine.
MASON, Stephen F. Historia de las Ciencias.
25 COTARDIÈRE, Philippe de la. Histoire des Sciences.
23 24 75
CARLOS AUGUSTO DE PROENÇA ROSA
internacional. Suas conquistas causariam admiração pública generalizada,
que se converteria em apoio ostensivo aos diversos programas, ainda que
extremamente dispendiosos, e em confiança na atividade científica para
benefício da Humanidade.
O extraordinário desenvolvimento científico e tecnológico na
Astronomia do século XX deve ser explicado, assim, pela aplicação de novos
conhecimentos, principalmente, da Matemática, da Física e da Química nas
investigações, o que acentuaria a estreita vinculação entre essas três áreas
científicas. Se favorecida pelos avanços teóricos e experimentais dessas
Ciências, a Astronomia, por sua vez, para a execução de seus programas
de investigação seria um fator preponderante na promoção de pesquisas
em diversas áreas (Óptica, Termodinâmica, Mecânica, Eletromagnetismo,
Física das partículas, Resistência de material, Computação, Química,
Biologia), com benefícios mútuos. A coparticipação de vários ramos
científicos para a viabilização dos diversos projetos de conquista do
Espaço dos sistemas solar e galácticos colocaria em evidência a interação
e a interdependência no campo científico.
O desenvolvimento da Astrofísica, como Física do Universo,
ressaltaria sua estreita vinculação com a Física, a ponto de muitos autores
a considerarem como ramo dessa Ciência, uma vez que sua pesquisa
está, na realidade, no domínio de físicos, chamados de astrofísicos
(físicos pesquisadores dos fenômenos físicos em escala do Universo). A
título exemplificativo podem ser citados os físicos Einstein, Eddington,
De Sitter, Friedmann, Zwicky, Gamow, Bethe, Novikov, Hawking, Ryle,
Alfven, Sunyaev, Zel’dovich, Hewish, Schenberg, Weinberg, Hulse. A
Astronomia atual, por esse critério, estaria restrita à chamada Astronomia
observacional dos corpos celestes, investigada pelos astrônomos.
7.3.1.1 Astronomia de Âmbito Mundial
O grande centro de pesquisa astronômica, ao final do século
XIX, continuava localizado na Europa ocidental, com a liderança,
indiscutível, da Alemanha, França e Grã-Bretanha. Sobressaíram,
então, as contribuições de vários cientistas (Gauss, Arago, Doppler,
Kirchhoff, Bessell, Argelander, Le Verrier, Huggins, Lockyer, Poincaré),
universidades (Berlim, Göttingen, Cambridge, Paris) e observatórios
(Greenwich, Cambridge, Potsdam, Berlim, Hamburgo, Paris) de renome.
Outros centros importantes de investigação da região foram Holanda,
Itália, Áustria e Suíça. Na Escandinávia, a Suécia, e no Leste europeu, a
76
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Rússia (Dorpat, São Petersburgo) e a Polônia (Pulkovo, Varsóvia) fizeram
significativos investimentos na pesquisa teórica e observacional. Fora da
Europa, apenas os EUA fez um esforço sério e consciente (Hale, Draper,
Langley, Pickering, Universidades de Harvard e Chicago, Observatórios
de Yerkes e Lick) para se situar entre os países na vanguarda da pesquisa.
Esse quadro se manteria, basicamente, até o final dos anos 1910,
quando as novas condições decorrentes da Primeira Guerra Mundial
afetariam, negativamente, o ambiente intelectual, industrial e financeiro
dos países do continente europeu, cuja prioridade passaria a ser a
da reconstrução econômica e social. A consequência imediata dessa
lamentável situação seria a perda qualitativa e quantitativa da pesquisa
astronômica nesses países (Alemanha, França, Inglaterra, Áustria, Rússia,
Holanda) e a migração de cientistas para outros centros, principalmente
os EUA, que se firmaria, no período entreguerras (anos 20 e 30), como
importante referência em estudos e investigação (Observatórios de Monte
Wilson e Palomar).
Ainda que os tradicionais centros de pesquisa na Europa tenham
voltado a prestar significativas contribuições, EUA e URSS (Rússia no final
do século) assumiriam, depois da Segunda Guerra Mundial, a liderança
incontestável no domínio da Astronomia. A competição ideológica, política
e econômica entre essas duas superpotências contribuiriam para o avanço
da pesquisa teórica e para o desenvolvimento de novos campos, como a
chamada Astronomia espacial ou Astronáutica e a Radioastronomia. A
NASA (1958) e o Instituto Russo de Pesquisa Espacial e a Agência Espacial
Russa assegurariam a liderança, a continuidade e o pioneirismo dos
programas americanos e russos.
Na impossibilidade de os países europeus competirem,
individualmente, na corrida da Conquista do Espaço, haveria um esforço
de conjugação de esforços que se efetivaria (Agência Espacial Europeia) a
partir dos anos 1970 (Alemanha, França, Itália, Países Baixos, Grã-Bretanha,
Suécia, Espanha), com resultados bastante positivos na área de satélites
meteorológicos, de comunicações, de pesquisa astronômica. Austrália,
Canadá, África do Sul e Nova Zelândia ingressariam, também, na lista de
países bastante ativos e interessados na investigação astronômica. No final
do século, surgiria a China com potencial de se tornar, em curto prazo,
importante centro astronômico, inclusive com o lançamento de sondas e
espaçonaves para exploração do Sistema Solar e da Via Láctea; em outubro
de 2008 a China enviaria espaçonave tripulada com um programa de
pesquisas, tornando-se o terceiro país a conseguir tal feito, o que a coloca
em posição de liderança na Ásia. Ainda na Ásia, Japão e Índia, com vultosos
77
CARLOS AUGUSTO DE PROENÇA ROSA
investimentos em observatórios e pesquisa espacial se tornariam muito
ativos, com importantes contribuições; em 2008 a Índia lançaria um satélite
em missão lunar. Na América Latina, o Brasil se encontraria na dianteira
da pesquisa astronômica, pelo número e qualidade de seus observatórios
e pelo trabalho desenvolvido no Instituto Nacional de Pesquisa Espacial
(1971), no Centro de Lançamento de Alcântara (1988) e na Agência Espacial
Brasileira (1994).
7.3.1.2 Instrumentos e Tecnologia
O papel do aperfeiçoamento dos instrumentos e técnicas de
observação no avanço do conhecimento do Universo deve ser realçado,
tanto mais sendo a Astronomia uma Ciência baseada na observação
sistemática. Dado que apenas cerca de seis mil estrelas são visíveis a
olho nu, o acelerado progresso, nos últimos séculos, desde a invenção
da luneta, foi devido, em boa parte, ao crescente aumento na capacidade
e na qualidade de observação dos corpos celestes, permitindo conhecer
distância, propriedade, brilho e posição de grande número de objetos
celestes. Na segunda metade do século XIX, a melhoria dos instrumentos,
como o aperfeiçoamento das lentes e dos espelhos dos telescópios
refratores e refletores e a inovação do círculo meridiano, do heliômetro,
do bolômetro, do fotoheliógrafo, do fotômetro e do micrômetro
impessoal permitiriam avanço significativo nas pesquisas. A preferência
pelos grandes telescópios refratores se evidenciaria por sua utilização
nos observatórios, entre outros, de Dorpat, Cambridge, Estrasburgo,
Washington, Viena, Paris, Potsdam, Lick e Flagstaff, na Califórnia (EUA),
Göttingen, Côte d’Azur, Yerkes, Florença e Cracóvia. Ao mesmo tempo,
novas técnicas, como a espectroscopia, a fotometria e a radiação térmica
dariam origem à Astrofísica, de contribuição decisiva para o extraordinário
desenvolvimento da Astronomia na atualidade26.
Na busca de melhores locais para a instalação de potentes
telescópios com o propósito de obter a melhor visibilidade possível,
desenvolver-se-ia ampla cooperação internacional, que permitiria
a construção de observatórios astronômicos, com diversos países
patrocinadores, na África do Sul, no Chile, no Havaí, nas ilhas Canárias e
no Canadá, em localizações apropriadas para a pesquisa. O Observatório
no Cerro Pachón (Chile), construído em 2002, com telescópio refletor de
4,2 m de diâmetro, é patrocinado pelo Brasil e EUA.
26 ASIMOV, Isaac. New Guide to Science.
78
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A Astronomia do século XX não se limitaria a aperfeiçoar os meios
e as técnicas de observação, mas inovaria em vários campos, ampliando,
significativamente, seu escopo, e aprofundando, expressivamente, o
conhecimento do Universo. Para tanto, foram postos em funcionamento
enormes telescópios refletores (África do Sul, ilhas Canárias, Chile, Havaí,
EUA continental, Cáucaso), e construídos e melhorados telescópios
refratores (EUA, França, Grã-Bretanha, Alemanha, Rússia); em 2007, foi
inaugurado, nas ilhas Canárias, o GTC (Grande Telescópio Canárias), no
alto de uma montanha, na ilha de Palma, que é, na atualidade, o maior
telescópio do mundo, com lente de 10,4 metros de diâmetro e 36 espelhos.
Além do aperfeiçoamento da fotografia, da análise espectral e da radiação
térmica, caberia salientar, como aspectos fundamentais e característicos,
a partir da segunda metade do século, a Radioastronomia, com a ajuda
dos radiotelescópios e a observação telescópica fora da atmosfera terrestre
(Astronomia espacial), o que permitiria, pelo acesso a novas faixas do
espectro eletromagnético, investigar objetos celestes invisíveis desde
a Terra. Nesse desenvolvimento da pesquisa do Espaço, teriam papel
preponderante as sondas e os satélites artificiais, como postos avançados
de observação.
Vale mencionar, ainda, a grande contribuição dos aceleradores
de partículas, desde os anos de 1930, para um melhor entendimento do
mundo subatômico. O maior acelerador da atualidade é o LHC, da CERN
(para mais informações vide subcapítulo Bóson de Higgs), que entrou em
funcionamento em setembro de 2008, com o propósito de comprovar a
existência da partícula chamada de Bóson de Higgs, o que será da maior
importância para o estudo da Cosmologia.
7.3.1.3 Instituições internacionais. Premiação
O crescente interesse pelo reconhecido valor científico e
estratégico da Astronomia, além de sua importante contribuição
para o desenvolvimento da pesquisa industrial e em outras Ciências,
explica a criação de centros de pesquisa, institutos ou departamentos
especializados em universidades, com o apoio governamental ou privado.
Tais instituições têm contribuído com excelentes estudos para um melhor
entendimento dos fenômenos astronômicos e dos objetos celestes. Como
exemplos são citadas, a seguir, algumas dessas entidades de pesquisa:
Universidades de Berkeley, Chicago, Harvard, Princeton, Cornell,
Moscou, São Petersburgo, Berna, Amsterdã, Leiden, Oxford, Cambridge,
79
CARLOS AUGUSTO DE PROENÇA ROSA
Swinburne (Melbourne), Instituto Tecnológico da Califórnia, Instituto de
Astronomia de Zurique, Institutos de Astrofísica de Paris, de Potsdam, de
Roma, Instituto Max-Planck para Astrofísica, Instituto Max-Planck para
Radioastronomia, Instituto Canadense de Astrofísica Teórica, Instituto
Kaptein de Astronomia, Centro Harvard-Smithsonian para Astrofísica,
NASA, Observatório Naval de Washington, Laboratório Nacional de
Astrofísica (Brasil), Organização Indiana de Pesquisa Espacial, Agência
Japonesa de Exploração Aeroespacial, Administração Chinesa Nacional
do Espaço.
Ao longo do século, aumentaria significativamente o número de
sociedades e associações privadas, criadas com o objetivo precípuo de
contribuir para o desenvolvimento e divulgação da Astronomia através
do patrocínio ou execução de estudos, debates, seminários, cursos e
publicações. Hoje em dia, muitos países contam com um crescente número
dessas sociedades e associações em várias de suas principais cidades,
que se somam às criadas em épocas anteriores. Caberia citar, como
exemplos, a Sociedade Astronômica Polonesa (1923), a Sociedade Italiana
de Astronomia (1928), a Sociedade Francesa de Astronomia e Astrofísica
(1978), a Sociedade Astronômica Helênica (1993), a Sociedade Portuguesa
de Astronomia (1999) e a Sociedade Astronômica Europeia (1990).
Especial menção deve ser feita à União Astronômica Internacional
(UAI), criada em 1919, com o objetivo de promover a Astronomia, em
todos os seus aspectos, através da cooperação internacional. A UAI
contava (agosto de 2007) com 9.606 membros individuais (astrônomos) e
62 membros nacionais, como as entidades científicas – centros de pesquisas
(CNPq do Brasil), Academias de Ciência (da França) e observatórios
(Greenwich); o Instituto de Astrofísica de Paris serve como secretaria
da União. A UAI é membro do Conselho Internacional para a Ciência
(ICSU), criado em 1931. A última (27ª) Assembleia da UAI se realizou
no Rio de Janeiro, em agosto de 2009 (Ano Internacional da Astronomia,
pela UNESCO, em comemoração aos 400 anos da utilização para fins
astronômicos da luneta, por Galileu).
Com esse mesmo espírito de divulgação e popularização da
Astronomia, deve ser mencionada a contribuição dos Planetários,
disseminados em várias cidades de grande número de países, que, com
seus cursos, palestras e filmes, prestam excelente contribuição cultural
às comunidades locais, particularmente aos jovens estudantes e leigos. A
Sociedade Internacional de Planetários (SIP) foi fundada em 1970, e se
reúne, a cada dois anos, em Conferência (a última (XVIII) em julho de
2006, em Melbourne).
80
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Há um interesse generalizado no reconhecimento público, por
parte de diversas instituições nacionais e internacionais, pelo trabalho
efetuado por cientistas. No caso da Astronomia, várias são as entidades
que concedem premiações, algumas das quais estão mencionadas abaixo.
Um dos mais prestigiosos prêmios é o Prêmio Henry Norris Russell,
por contribuições relevantes à Astronomia, concedido, anualmente, desde
1946, pela Sociedade Americana de Astronomia (AAS); dentre seus
agraciados, devem ser mencionados Harlow Shapley, Jan Oort, Enrico
Fermi, Walther Baade, Martin Schwartzschild, Grote Reber, John Bolton,
Allan Sandage, Maarten Schmidt, Riccardo Giacconi, Vera Rubin e Charles
Townes. A AAS outorga, anualmente, desde 1998, a Medalha Carl Sagan a
trabalhos de divulgação ao público da Ciência planetária.
A Sociedade Astronômica do Pacífico (ASP), fundada em 1889,
e com sede em São Francisco, outorga, anualmente, a Medalha de Ouro
Catherine Wolfe Bruce, tendo sido agraciados, entre outros, Robert Aitken,
Hans Bethe, Edward Barnard, Willen de Sitter, Einar Hertzsprung, Fred
Hoyle, Edwin Hubble, William Huggins, Jacobus Kapteyn, Robert Kraft,
Bernard Lyot, Edward Pickering, Henri Poincaré, Vera Rubin, Martin
Ryle, Edwin Salpeter, van de Hulst, Vesto Slipher, Rashid Suryav, Max
Wolf, Yakov Zel’dovich e Martin Harwitz.
Medalha de Ouro é igualmente concedida, desde o século XIX,
pela Real Sociedade de Astronomia (RAS) da Grã-Bretanha, sendo que,
anualmente, a partir dos anos 1970. Dentre os últimos agraciados podem
ser listados Maarten Schmidt, Yakov Zel’dovich, Stephen Hawking,
Rashid Sunyav, Vera Rubin, Bohdan Paczynski, James Peebles, Margaret
e Geoffrey Burbidge.
A Academia de Ciências dos EUA (NAS) concede, a cada quatro
anos, a Medalha Henry Draper para relevantes contribuições à Astrofísica.
Dentre os premiados, podem ser citados Annie Cannon, van de Hulst,
Vesto Slipher, Otto Struve, Martin Ryle, Arno Penzias, Chandrasekhar,
Joseph Taylor, Ralph Alpher, Bohdan Paczynski, Geoffrey Marcy, Paul
Butler e Charles Bennett.
Não há Prêmio Nobel específico para Astronomia; vários físicos,
contudo, foram agraciados por seus trabalhos de grande contribuição
para as pesquisas na área da Astrofísica, como Johannes Stark (1919)
sobre o efeito Doppler, Victor Hess (1936) pela descoberta do pósitron,
Edward Appleton (1947) pelos trabalhos em Física atmosférica, Patrick
Maynard Blackett (1948) por suas descobertas em Física nuclear e radiação
cósmica, Hans Bethe (1967) pelas pesquisas em reações nucleares, Martin
Ryle, por trabalhos em radioastronomia, e Anthony Hewish (1974),
81
CARLOS AUGUSTO DE PROENÇA ROSA
pela descoberta de pulsares; Arno Penzias e Robert Wilson (1978),
pela descoberta da radiação cósmica de fundo; Nicolas Bloembergen,
Arthur Leonard Schawlow e Kai Siegbahn (1981), por trabalhos em
espectroscopia do laser; Subramanyan Chandrasekhar, pelos estudos
sobre a evolução das estrelas; e William Fowler (1983), sobre a formação
dos elementos químicos no Universo; Russel Hulse e Joseph Taylor (1993),
pela descoberta de novos tipos de pulsares, Raymond Davis e Masatoshi
Koshiba, pela detecção de neutrinos cósmicos, e Riccardo Giacconi (2002),
pesquisas em Astrofísica que levariam à descoberta de fontes de raios-X
cósmicos; John Hall e Theodor Hansch (2005), no campo da Óptica
Quântica. O PNF de 2006 foi concedido a John C. Mather, astrofísico do
Laboratório Observacional do Centro Goddard, da NASA, e a George F.
Smoot, astrofísico e cosmólogo do Laboratório Lawrence, e professor de
Física em Berkeley, por suas contribuições no esclarecimento da natureza
e das anisotropias das radiações cósmicas de fundo; em abril de 1992
anunciaram terem detectado os mais antigos vestígios do calor residual
do Big Bang. O PNF de 2008 foi concedido a três cientistas japoneses, por
suas descobertas sobre princípios fundamentais da formação da Matéria;
Yoichiro Nambu (1921), professor emérito da Universidade de Chicago foi
premiado por seu trabalho sobre o mecanismo da quebra espontânea da
simetria, em Física das partículas; e Toshihide Maskawa (1940), professor
da Universidade de Kyoto, e Makoto Kobayashi (1944), professor da
Organização de Pesquisa do Acelerador de Altas Energias de Tsukuba, por
terem descoberto a origem da quebra da simetria que prevê a existência
de pelo menos três famílias de “quarks”.
7.3.1.4 Publicações
Um grande número de revistas especializadas, de responsabilidade
e patrocínio de sociedades, universidades e observatórios, é publicado
regularmente em âmbito mundial, o que evidencia o grande interesse
dessas entidades pela divulgação de seus estudos, bem como em fazer
circular artigos de pesquisadores. Algumas dessas publicações são
citadas a seguir: Icarus, da American Astronomical Society (AAS), The
Astronomical Journal e o The Astrophysical Journal, patrocinados pela AAS,
o Monthly Notices da Real Sociedade Astronômica (britânica) e Mercury
(bimestral) e Publications of the ASP, ambas da Astronomical Society of
the Pacific. Dentre as revistas independentes e especializadas podem ser
mencionadas a Astronomy & Astrophysics, atualmente editada na França, a
82
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
New Astronomy, a Astrophysics and Space Science, a Astronomische Nachriten
(fundada em 1821), a Space Science Reviews e a Celestial Mechanics and
Dynamical Astronomy.
Além dessas publicações especializadas, várias revistas científicas
divulgam material importante sobre as investigações recentes, descobertas
e conquistas em Astronomia, como, por exemplo, a Nature, Science, New
Scientist e Scientific American.
7.3.1.5 Temas
A exposição da evolução da Astronomia neste início de um
novo período requer uma correspondente adequação dos principais e
novos temas, o que significa uma divisão de assuntos bastante distinta
da utilizada para épocas pretéritas. O primeiro item trata da Astronomia
do espectro eletromagnético, inclusive da instrumentação e técnicas
utilizadas pelos diferentes tipos de Astronomia. O segundo é relativo
à Astronomia planetária, incluídas as diversas missões dos chamados
programas de conquista espacial; a exposição foi dividida em duas fases,
para salientar a nítida diferença entre ambas. O terceiro versa a respeito
da Astronomia estelar, tema que mereceria tratamento prioritário da parte
dos atuais astrônomos e astrofísicos. A chamada Astronomia galáctica,
objeto do quarto item, corresponde à ampliação do conhecimento do
Universo com a descoberta, na década de 1920, de um grande número
de galáxias, além da Via Láctea. O seguinte se refere ao abrangente tema
da Cosmologia que, em função de importantes descobertas, avanços
tecnológicos e reformulação conceitual, ingressaria numa nova era, a da
Cosmologia moderna.
7.3.2
Astronomia do Espectro Eletromagnético.
Astronômicos e Novas Técnicas de Pesquisas
Instrumentos
O grande avanço, na segunda metade do século XIX, na observação
óptica dos corpos celestes foi devido ao aperfeiçoamento e inovação
da instrumentação para fins astronômicos (telescópios, bolômetros,
micrômetros, círculo meridiano) e a novas técnicas de pesquisa
(espectroscopia, fotometria, radiação térmica e fotografia). A crescente
demanda das pesquisas astronômicas seria um fator determinante para
novos e melhores aparelhos e para o desenvolvimento e a criação de
83
CARLOS AUGUSTO DE PROENÇA ROSA
técnicas investigativas, que, por sua vez, ampliariam o campo e a qualidade
do trabalho dos astrônomos e astrofísicos. O impacto desse instrumental e
dessas técnicas não pode ser minimizado nem desconhecido, pois foi graças
ao emprego da instrumentação e técnicas surgidas ao longo dos últimos
decênios que a área de observação ultrapassou regiões visíveis desde a
Terra, característica de um novo período da história da Astronomia.
O acesso a diferentes faixas de comprimento de ondas do espectro
eletromagnético teria especial significado para o surgimento da atual
Astronomia, porque ampliou largamente a capacidade de observação dos
corpos celestes e fenômenos astronômicos através da utilização de vários raios
(Gama, X, ultravioleta e infravermelho). A observação, limitada até então a
telescópios ópticos, se beneficiaria com os novos instrumentos preparados para
detectar essas faixas mais longas do espectro. Em consequência, em função do
tipo de telescópio usado, podem ser estabelecidos, atualmente, diferentes tipos
de Astronomia: Óptica, Rádio, Raios Infravermelho, Ultravioleta, X e Gama.
Dado que várias dessas faixas do espectro não são observáveis da
Terra, pois são absorvidas pela atmosfera terrestre, a observação de distantes
corpos celestes e longínquas regiões deixaria de ser feita diretamente
pelo pesquisador de observatório na superfície do planeta. A análise de
imagens seria da alçada do centro espacial, por satélites artificiais, sondas
e espaçonaves, que dispõem de sofisticada instrumentação, inclusive
de telescópios e radares. Esse material é colocado, então, à disposição
dos astrônomos, físicos, químicos, biólogos e outros especialistas para
estudo. Assim, a coleta de dados por uma instrumentação colocada além
da atmosfera da Terra passaria a ser fonte da maior importância para
o desbravamento de regiões espaciais até então desconhecidas e para a
descoberta de corpos celestes.
O estudo da ampliação do Universo para uma dimensão cósmica
requer, portanto, um exame detido dos meios que possibilitaram tão
extraordinária e revolucionária evolução do conhecimento humano, o qual
deverá ainda se ampliar bastante no futuro imediato, na medida em que
importantes pesquisas estão em curso e novas pesquisas estão programadas.
Em vista do exposto, serão abordados neste capítulo os
vários “tipos” de Astronomia do espectro eletromagnético (Óptica,
Radioastronomia, do Infravermelho, do Ultravioleta, dos Raios-X e do
Raio-Gama), segundo as faixas do espectro utilizadas e os telescópios
empregados que, desde a superfície da Terra ou do Espaço, permitiriam a
investigação astronômica. Os avanços na Astronomia se devem, portanto,
ao desenvolvimento da Ciência pura e teórica (pesquisa científica) e da
Ciência aplicada (Tecnologia).
84
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Num curto período de tempo seriam desenvolvidos telescópios
apropriados para captar diferentes faixas de raias do espectro, permitindo
a utilização dos raios infravermelho, ultravioleta, raios-X e Gama na
pesquisa astronômica. O novo instrumental, resultante da demanda
requerida pelos programas, abriria um enorme campo de pesquisa,
proporcionaria a descoberta de novos corpos celestes, como quasares
e pulsares, e fenômenos cósmicos, como a radiação cósmica de fundo,
e viabilizaria o extraordinário e rápido progresso de uma ampliada
Astronomia, de âmbito cósmico.
Além dos telescópios, contribuiria igualmente para o avanço
da Astronomia atual o emprego crescente de técnicas desenvolvidas
anteriormente, como a fotografia e a espectroscopia, mas, especialmente,
desde os anos de 1960, das novas técnicas do radar e da interferometria,
temas que serão abordados neste capítulo logo após os diversos tipos de
Astronomia.
7.3.2.1 Astronomia Óptica – Telescópios e Observatórios
Desde o século XVII que os telescópios (refrator e refletor) são
os mais importantes instrumentos de observação óptica utilizados
pelos astrônomos. Seu aperfeiçoamento, ao longo do tempo, permitiria
significativo avanço na pesquisa. Apesar de alguns inconvenientes
(aberração cromática), grandes telescópios refratores, como os de
Dorpat, Estrasburgo, Paris, Washington, Yerkes, Lick, Flagstaff, Viena,
Nice, Greenwich, Cambridge, Potsdam, Göttingen, foram construídos
no século XIX, sendo que alguns aperfeiçoamentos no telescópio refletor
(espelho de vidro em vez de metálico, maior luminosidade, rigoroso
acromatismo) explicam a preferência por este tipo de instrumento na
atualidade.
Na pesquisa óptica, limitada, portanto, à faixa de luz visível
do espectro eletromagnético, a questão importante de como melhorar
a qualidade da observação se colocaria diante da comunidade
astronômica, para a qual foi necessário decidir sobre a melhor
localização para os observatórios e sobre as inovações adequadas para
o aperfeiçoamento dos telescópios. Quanto à localização, a conclusão
seria a de que os observatórios deveriam estar longe das luzes das
grandes cidades, em área em que o céu esteja normalmente descoberto,
onde a atmosfera seja bastante estável, para que a turbulência não
deteriore as imagens e seja mais pura para permitir melhor visibilidade.
85
CARLOS AUGUSTO DE PROENÇA ROSA
Tal localização se encontraria nas montanhas, em altitudes que
satisfizessem tais exigências27, razão principal da construção de vários
observatórios, no final do século, nos Andes, no Cáucaso e no Havaí,
acima das densas camadas da atmosfera. Deve-se notar que o primeiro
observatório construído em altitude elevada (1.283 metros) foi o de
Lick, no topo da Montanha Hamilton, em San José, na Califórnia,
que entrou em operação em 1887; o observatório possui hoje cinco
telescópios refletores (o maior com espelho de 3 m) e um refrator (lente
de 0,508 m).
No que se refere aos telescópios, em 1931, Bernhard Schmidt (1879-1935),
engenheiro óptico do Observatório de Hamburgo, inventou uma combinação
de telescópio refletor-refrator que, além de permitir observar e fotografar
grandes áreas do céu, corrigia a aberração da esfericidade do espelho. A
inovação consistia da colocação de uma lente fina numa ponta e de um espelho
côncavo com uma lente corretiva (chamada de lente Schmidt) na outra ponta
do instrumento. Tal aperfeiçoamento teve grande aceitação por parte dos
astrônomos, tendo sido adotado na fabricação da grande maioria dos novos
telescópios. O maior telescópio de sua fabricação (lente de 1,34 m e espelho de
2 m) foi o do Observatório Karl Scharzschild, em Tautenberg, na Alemanha.
A preferência dos astrônomos, no século XX, foi pelo telescópio
refletor, se bem que alguns novos, do tipo refrator, tenham sido
construídos, e outros tenham sido substituídos por outros maiores
e tecnicamente mais aperfeiçoados. Localizados, normalmente, em
observatórios (públicos e particulares) de grandes cidades, continuam,
no entanto, a ser amplamente utilizados principalmente para as
pesquisas dos corpos celestes visíveis desde a Terra.
Dentre os telescópios refratores mais conhecidos, em operação,
caberia citar o do Observatório Roque de los Muchachos, em Las
Palmas, nas Canárias, patrocinado pela Suécia, em operação desde 2002,
cujo telescópio dispõe de lente com 1 metro de diâmetro. É o segundo
maior telescópio deste tipo, sendo o primeiro o do Observatório Yerkes,
construído em 1897, em Williams Bay, Wisconsin, por George Ellery
Hale (1868-1938), para pesquisar o Sol, com lente de diâmetro de 1,02
m. Em 1914, foi construído o Observatório Allegheny, em Pittsburgo,
Pensilvânia, cujo telescópio tem lente de 0,76 m de diâmetro; e o telescópio
do Observatório de Berlim, transferido para o de Potsdam, com lente de
0,65 m de diâmetro. O Observatório do Monte Stromlo, na Austrália,
construído em 1925, e que dispunha de telescópio com lente de 0,66 m, foi
destruído pelo fogo em 2003.
27 TATON, René. La Science Contemporaine.
86
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A título de exemplo, é importante citar três observatórios com
telescópios refratores: o de Nice (lente de 0,50 m), o da Universidade de
Viena (lente de 0,68 m) e o do Centro Espacial Chabot (lente de 1,72 m),
em Oakland, Califórnia.
Ao longo da primeira metade do século XX, foram construídos vários
telescópios refletores, cujas dimensões do espelho não ultrapassavam três
metros, dadas as dificuldades técnicas (qualidade da imagem) e operacionais
(mobilidade) do instrumento, que, no entanto, foram fundamentais no
avanço das pesquisas desse período. Alguns desses observatórios e seus
telescópios devem ser mencionados: em 1908, o Observatório do Monte
Wilson, com espelho de 1,52 m, e em 1917, com espelho de 2,54 m, ambos
construídos por George E. Hale; o de Ann Arbor, em Michigan, de 1917,
com espelho de 2,11 m; o de Toronto, de 1933, com espelho de 1,88 m; e os
de Bolonha (1,80 m) e de Greenwich (1,83 m) construídos em 193928.
Após o término da Segunda Guerra Mundial, haveria interesse por
telescópios refletores de maior dimensão, que permitissem observações
de melhor qualidade em regiões mais distantes. O primeiro a entrar em
funcionamento seria o do Monte Palomar, a 1.713 m de altitude (Telescópio
Hale com espelho de 5,08 m), sob a direção do Instituto de Tecnologia
da Califórnia. O Observatório possui ainda outros telescópios refletores
menores (de espelhos de 1,52, e de 1,22 m), além de um interferômetro.
Em 1976, o Telescópio Hale seria superado pelo do Observatório Espacial
de Astrofísica Zelenchukskaya, pertencente à Academia de Ciências de
São Petersburgo, e localizado no Cáucaso a uma altitude de 2.070 metros.
O Observatório dispõe de uma cúpula de 48 metros de diâmetro e telescópio
BTA (iniciais de Grande Telescópio Altazimute, em russo) com espelho
de 6 metros de diâmetro, capaz de detectar objetos até a magnitude 26. O
Observatório dispõe, igualmente, de radiotelescópio. Em 1993, o Telescópio
BTA seria superado pelo Keck I, com espelho de 9,8 metros, no Monte
Mauna Kea, no Havaí, a uma altitude de 4.145 metros.
Atualmente, muitos observatórios com enormes telescópios
localizados em sítios altamente favoráveis para boa qualidade de observação
são frutos de patrocínio e cooperação entre vários países ou organizações,
como no caso da maioria dos observatórios relacionados abaixo. Para viabilizar
a participação de vários países europeus na operação de observatórios no
Chile, foi criada, em 1962, com sede em Garching, na Alemanha, a ESO
(European Southern Observatory), organização intergovernamental que
reúne onze países (Alemanha, Bélgica, Dinamarca, Finlândia, França, Grã-Bretanha, Itália, Países Baixos, Portugal, Suécia e Suíça).
28 COTARDIÈRE, Philippe de la. Histoire des Sciences.
87
CARLOS AUGUSTO DE PROENÇA ROSA
O maior telescópio refletor óptico em operação atualmente é
o Southern African Large Telescope (SALT), localizado no deserto de
Karoo, África do Sul, e em operação desde 2005. São parceiros do SALT
a Alemanha, a Polônia, os EUA, a Nova Zelândia e a Grã-Bretanha.
Montado sobre uma estrutura de aço de 45 toneladas, o telescópio tem
espelho de 11 metros de diâmetro, composto de 91 segmentos hexagonais.
O SALT possui uma cúpula esférica de 25 metros de diâmetro. Nesse
mesmo local funcionam, ainda, cinco telescópios ópticos menores da
África do Sul, um do Japão, um da Coreia e um da Universidade de
Birmingham.
Os maiores telescópios refletores (com espelhos de mais de oito
metros de diâmetro) em atividade são os seguintes:
i)
ii) iii) iv) v) vi) vii) viii) ix) x) xi) xii) 88
SALT – 11 metros – África do Sul – 2005 – África do Sul,
EUA, Reino Unido da Grã-Bretanha, Polônia, Alemanha e
Nova Zelândia;
GTC (Grande Telescópio Canárias) – 10,4 metros –
- Observatório Roque de los Muchachos, Las Palmas, lhas
Canárias – 2005 – Espanha, Suécia;
Keck – 9,8 metros – Observatório Mauna Kea, Havaí – 1993
– EUA;
Keck II – 9,8 metros – Mauna Kea, Havaí – 1996 – EUA;
HET (Hobby-Eberly Telescope) – 9,2 metros – Observatório
MacDonald, Texas – 1997 – EUA e Alemanha;
BT (Large Binocular Telescope) – 2x8,4 metros –
Observatório Monte Graham, Arizona 2004 – EUA, Itália e
Alemanha;
NLT (Subaru) – 8,3 metros – Observatório Mauna Kea, Havaí
– 1999 – Japão;
VLT –Very Large Telescope – 8,2 metros – Paranal, Chile –
- 1998 – Chile e ESO;
VLT 2 (Kuceyen) – 8,2 metros – Paranal, Chile – 1999 – Chile
e ESO;
VLT (Melipal) – 8,2 metros – Paranal, Chile – 2000 – Chile e
ESO;
VLT 4 (Yepun) – 8,2 metros – Paranal, Chile – 2000 – Chile e
ESO;
Gemini North – 8,1 metros – Mauna Kea, Havaí – 1999 –
Chile, Argentina, Austrália, Brasil, Canadá, EUA e Grã-Bretanha;
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
xiii) Gemini South – 8,1 metros – Observatório Cerro Tololo,
Chile – 2001 – Chile, Argentina, Austrália, Brasil, Canadá,
EUA, Grã-Bretanha e ESO.
Outros importantes e grandes telescópios ópticos, do tipo refletor,
foram recentemente postos em funcionamento, como:
i) MMT (Multiple Mirror Telescope) – 6,5 metros – Observatório
Fred Lawrence Whipple, Arizona – 1999 – EUA;
ii) Magellan I – 6,5 metros – Observatório Las Campanas, Chile
– 2000 – EUA;
iii) Magellan II – 6,5 metros – Las Campanas, Chile – 2002 – EUA;
iv) LZT (Large Zenith Telescope) – 6 m – Maple Ridge, B.C.,
Canadá – 2003 – Canadá e França;
v) William Herschel Telescope – 4,2 m – Roque de los Muchachos,
Chile – 1987 – Espanha, Países Baixos e Grã-Bretanha;
vi) SOAR – 4,2 m – Cerro Pachón, Chile – 2002 – Brasil e EUA.
Quanto à observação por telescópio óptico por satélite, cabe
mencionar a Missão Espacial de Astrometria Hiparcos, enviada pela
Agência Espacial da Europa (ESA), em 1989, para medir a posição e
os movimentos de 120 mil estrelas e registrar, para o projeto Tycho, as
propriedades de centenas de milhares de estrelas. A Missão terminou em
1993, da qual seriam elaborados catálogos, em 1997, com mais de 1 milhão
de estrelas.
Pouco depois, em 1990, a NASA lançou o Telescópio Espacial
Hubble (TEH), o primeiro de uma série de observatórios espaciais,
que, além de observar corpos celestes à luz visível, capta, igualmente,
raios infravermelhos e ultravioletas. O TEH continua a funcionar
até o presente, enviando para NASA excelente material sobre vários
corpos celestes visíveis e invisíveis desde a Terra, (planetas, nebulosas,
estrelas, galáxias) em extraordinária contribuição para o conhecimento
do Cosmos.
7.3.2.2 Radioastronomia
O termo genérico “radioastronomia” é utilizado para englobar as
pesquisas, com telescópios especiais e diferentes dos ópticos, em faixas de
comprimento (de 300 mícrons a vários centímetros) de ondas de energia
89
CARLOS AUGUSTO DE PROENÇA ROSA
do espectro eletromagnético diferentes da onda da luz visível. Esse novo
ramo da Astronomia atual trata e se ocupa, assim, da investigação dos
corpos celestes pelo uso das ondas (longa, média, curta e micro) de rádio
e dos raios infravermelho, ultravioleta, raios-X e Gama.
Em 1888, o físico alemão Heinrich Rudolph Hertz (1857-1894)
produziu em laboratório e investigou ondas que seriam conhecidas
inicialmente como hertzianas, mais longas que as do infravermelho;
pesquisas permitiriam, desde o início do século XX, o desenvolvimento
do rádio (Marconi), tendo falhado, contudo, as tentativas de captar ondas
provenientes do Sol.
A descoberta acidental, mas pioneira, em 1931, da emissão de
radiação extraterrestre (do interior de Sagitário), pelo engenheiro Karl
Jansky (1905-1950), foi seguida pela verificação, em 1937-1938, por
Grote Reber (1911-2002), ao captar radiação proveniente além da Terra
(Cassiopeia e Cygnus)29. Essas pesquisas não despertaram, contudo, na
época, muito interesse na comunidade científica. O desenvolvimento
da radioastronomia, a partir dos anos 1960, é dos mais celebrados feitos
ocorridos na história da Astronomia. O acesso com radiotelescópios
apropriados (interferômetros) para análise da onda de rádio, com
resolução cinquenta ou mais vezes menor que a da luz, permitiria
separar objetos e observar detalhes invisíveis aos telescópios ópticos30. A
captação da radiação cósmica de fundo seria a célebre conquista (1964)
que comprovaria o extraordinário valor da utilização da radioastronomia
no futuro das pesquisas astronômicas.
Para a captação e medição da faixa de onda de rádio seriam
construídos os chamados radiotelescópios, que, dependendo dos objetivos
das pesquisas a serem efetuadas, são de variado formato e de diversos tipos,
como os de um “prato”, os destinados a ondas de diferentes comprimentos
(milímetro, centímetro e metro), os paraboloides cilíndricos. Por se tratar
de uma atividade bastante recente, mas importante, na Astronomia, já que
é capaz de detectar objetos e fenômenos invisíveis à observação óptica,
tem sido acelerada a construção, em muitos países, dos radiotelescópios.
O primeiro, de antena parabólica de 9 metros, foi construído em 1937, por
Grote Reber, seguido, em 1957, pelo de Jodrell Bank (Inglaterra), de 76
metros, e de Arecibo (Porto Rico), em 1963.
Com uma antena circular de 576 metros de diâmetro e 895 painéis
refletores, para comprimento de onda de 1,50 cm, o radiotelescópio russo
Ratam 6000 é o maior radiotelescópio individual.
29 30 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos.
RONAN, Colin. História Ilustrada da Ciência.
90
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O radiotelescópio alemão, do Instituto Max Planck de
Radioastronomia, Effelsberg, inaugurado em Bonn em 1973, com antena
de 100 metros de diâmetro para comprimento de onda de 7 mm a 90
cm, seria superado, em termos de dimensão, em 2000, pelo Green Bank
Telescope, em Virgínia Ocidental (EUA), com antena de 100x110m. Dos
mais antigos é o radiotelescópio de Arecibo, em Porto Rico, de 1963, do
tipo refletor esférico, operado pela Universidade de Cornell.
Segundo o comprimento da onda para a qual estão preparados,
podem ser mencionados os seguintes radiotelescópios:
i) para
ondas
submilimétricas:
AST/RO
(Antarctic
Submillimeter Telescope and Remote Observatory), com
antena-disco (diâmetro de 1,7 m), em operação desde 1995,
na Estação Amundsen-Scott, no Polo Sul; o CSO (Caltech
Submillimeter Observatory), com antena-disco de 10,4 m de
diâmetro, em funcionamento regular desde 1988, em Mauna
Kea, Havaí; o JCMT (James Clerk Maxwell Telescope), com
antena-disco de 15 m de diâmetro, em Mauna Kea, Havaí; e
o SEST (Swedish ESO Submillimeter Telescope), com 16 m
de diâmetro, desde 1987, localizado em La Silla, nos Andes
chilenos;
ii) para ondas milimétricas: o FCRAO (Five College Radio
Astronomy Observatory), de 1976, com antena de 14
m; o Onsala (Observatório Espacial Sueco), com dois
radiotelescópios, perto de Gotemburgo, com diâmetro de
20 m, desde 1992; o IRAM (Instituto de Radioastronomia
Milimétrica), fundado em 1979, pela França, Alemanha
e Espanha, tem um radiotelescópio de 30 m de diâmetro
em Pico Veleta (Espanha) e outro no planalto de Bure, no
Dauphiné; o NRO (Nobeyama Radio Observatory), com
radiotelescópio de 45 m de diâmetro, inaugurado em 1982,
em Nagano;
iii) para ondas centimétricas e métricas: o Observatório australiano
Mopra, com radiotelescópio de 22 m de diâmetro, a noroeste
de Sidney; o Observatório Parkes, inaugurado em 1961, antena
com 64 m de diâmetro, também australiano; o Radiotelescópio
Nançay, conjunto de duas armações de espelhos, na cidade
francesa desse nome, ao sul de Paris, um dos maiores do
mundo, inaugurado em 1965; o DRAO (Dominium Radio
Astrophysical Observatory), do Canadá, com antena de 26
91
CARLOS AUGUSTO DE PROENÇA ROSA
m de diâmetro; nesta categoria estão os já citados telescópios
de Jodrell Bank, Effelsberg e Arecibo. Em 1995, entraria em
operação o Giant Metrewave Radio Telescope (GMRT), do
Instituto Tata de Pesquisa Fundamental, em Bombaim. O
GMRT está localizado em Pune, na Índia, e consiste de um
conjunto de 30 refletores parabólicos, cada um de 45 m de
diâmetro. O objetivo da pesquisa é estudar fenômenos além do
Sistema Solar e buscar maiores informações sobre nebulosas,
pulsares, sistemas estelares e distúrbios interplanetários.
7.3.2.3 Astronomia do Infravermelho
A faixa do infravermelho foi descoberta pelo astrônomo Wilhelm
Herschel, que criou o termo para designar a luz vermelha invisível, de
alta temperatura, com um comprimento entre 60 mícrons e 7 mil Å, abaixo
no espectro do vermelho da faixa de luz visível. Algumas tentativas,
em 1856, pelo astrônomo escocês Charles Piazzi Smyth, e em 1870, pelo
irlandês William Parsons (Lorde Rosse), para calcular a temperatura da
Lua, levou-os a detectar radiação de infravermelho do satélite da Terra.
O desenvolvimento do bolômetro, detector elétrico de irradiação de calor,
por Samuel Langley, em 1878, contribuiria para captar a larga faixa de
ondas de comprimento do infravermelho. No início dos anos de 1900,
seriam detectadas radiações do infravermelho proveniente de Júpiter,
Saturno e algumas estrelas (Vega e Arcturus), e, em 1915, William Coblentz
(1873-1962) desenvolveria um bolômetro com o qual mediria no vácuo a
radiação do infravermelho de cerca de cem estrelas31.
As primeiras observações sistemáticas ocorreriam nos anos 1920,
com os astrônomos americanos Seth Barnes Nicholson (1891-1963), que
pesquisaria manchas solares, calcularia órbitas de cometas e de Plutão,
descobriria asteroides e três satélites de Júpiter, e Edison Pettit (1899-1962), que pesquisaria por telescópio óptico o Sol, Marte e Júpiter, e
seria conhecido como fabricante de instrumentos astronômicos, como
o espectrógrafo. Nicholson e Petit mediram, com sensor especial, as
temperaturas de planetas, da Lua e de estrelas.
As pesquisas sobre tais raios no Espaço só avançariam a partir dos
anos de 1940, quando Philo Fansworth (1906-1981), inventor do tubo de
raio cátodo para TV, desenvolveria um telescópio especial para pesquisas
astronômicas, que seria aperfeiçoado mais ainda a partir de 1955.
31 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos.
92
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Vários telescópios ópticos, localizados em elevadas altitudes
(Mauna Kea, Andes, Monte Wilson) estão preparados para detectar
ondas infravermelhas, porém vários outros são específicos (Laramie em
Wyoming, UKIRT, CFHT, SPIREX). Como os raios infravermelhos são
afetados pela atmosfera terrestre, sua melhor captação deve ser acima dos
vapores atmosféricos, o que determinaria o envio, desde os anos de 1980,
por sondas espaciais, de telescópios apropriados (SIRTF).
Dos telescópios de infravermelho, instalados em terra, caberia citar:
i) os SPIREX (South Pole Infrared Explorer) GRIM (1993-97) e
ABU (1997-99), do Centro de Pesquisa da Antártica (CARA),
cujo objetivo era investigar as origens da estrutura do
Universo. As condições estáveis e de baixas temperaturas e
umidade tornam a Antártica excelente posto de observação
de ondas de infravermelho (e submilimétricas). Várias
instituições participaram do programa: Universidades de
Chicago, Boston e Northwestern e Centro Smithsonian de
Astrofísica;
ii) o Observatório Gemini, com dois telescópios gêmeos óptico/
infravermelho de 8 metros, localizados um em Cerro Pachón,
nos Andes chilenos, e outro em Mauna Kea, no Havaí; o
Gemini-Sul, nos Andes, trabalha em conjunção com os
adjacentes telescópios SOAR e Cerro Tololo. Participam do
Observatório centros de pesquisa astronômica da Argentina,
Austrália, Brasil, Canadá, Chile, EUA e Grã-Bretanha;
iii) o CFHT – Telescópio Canadá-França-Havaí – localizado no
Mauna Kea, a 4.200 metros de altitude; o telescópio óptico/
infravermelho de 3,2 metros está operativo desde 1979;
iv) o UKIRT (United Kingdom Infrared Telescope) – localizado
em Mauna Kea, a 4.914 metros de altitude, é o maior
telescópio infravermelho da atualidade;
v) o IFTF (Infrared Telescope Facility) – de 3 metros, localizado
em Mauna Kea, é operado pela Universidade do Havaí para
a NASA;
vi) o WIRO (Wyoming Infrared Observatory) , localizado em
Laramie, a 2.943 metros de altitude; o telescópio, de 2,3
metros é da Universidade de Wyoming.
O Observatório do Monte Wilson possui um Interferômetro
Espacial Infravermelho (ISI), operado pela Universidade de Berkeley que,
93
CARLOS AUGUSTO DE PROENÇA ROSA
em 1968, realizou o primeiro levantamento do infravermelho do céu pela
captação da radiação na faixa de 2,2 mícrons; o levantamento, por Robert
Leighton e Gerry Neugebauer, cobria cerca de 75% da abóbada, e foi capaz
de identificar cerca de 20 mil fontes de radiação.
Em 2001, foi inaugurado o Interferômetro Keck para pesquisa
em busca de novos planetas e eventual vida fora do Sistema Solar. Ao
combinar as luzes dos telescópios gêmeos Keck, o Interferômetro mede
a emissão de poeira orbitando as estrelas, pesquisa objetos celestes de
interesse astronômico e efetua o levantamento de centenas de estrelas
para descobrir planetas do tamanho de Urano.
Em 25 de agosto de 2003, foi lançado do Cabo Canaveral
(Flórida) o Telescópio Espacial Spitzer, antes conhecido como SIRTF –
- Spitzer Infrared Telescope Facility –, em homenagem a Lyman Spitzer
(1914-1997), que, desde 1947, propusera a colocação em órbita de telescópio
para contornar as dificuldades observacionais criadas pela atmosfera
terrestre. Spitzer contribuiu, ainda, para os programas dos telescópios
Copérnico e Hubble, da NASA. O Telescópio Espacial Spitzer tem o objetivo
de observar, com detectores de infravermelho, as densas nuvens de gases
e poeira que encobrem e dificultam o acesso a muitos objetos celestes. O
Telescópio dispõe de um espelho principal (de berilo) de 85 cm de diâmetro
e de três instrumentos de fotometria de microondas de 3 a 180 mícrons,
espectroscopia de 5 a 40 mícrons e espectrofotometria de 6 a 100 mícrons.
O SST é o último de uma série de telescópios espaciais
infravermelhos, sendo anteriores: o IRAS (Infrared Astronomy Satellite),
lançado em janeiro de 1983 e operacional por dez meses; rastreou 96%
do céu por quatro vezes, detectou cerca de 500 mil fontes de radiação
infravermelha, foi o primeiro a captar a luz diretamente de dois planetas
extrassolares, descobriu nebulosas e quasares, e forneceu o primeiro
mapa de ondas das faixas de 12, 25, 60 e 100 mícrons; o COBE (Cosmic
Background Explorer), em novembro de 1989, com o objetivo de estudar
a radiação cósmica de fundo, descobrindo nela muito pequenas variações
de temperatura; o HST (Hubble Space Telescope), em abril de 1990; o IRTS
(Infrared Telescope in Space), primeira missão japonesa, lançado em março
de 1995 para uma duração de 28 dias; o ISO (Infrared Space Observatory),
da Agência Espacial Europeia, lançado em novembro de 1995, operou na
faixa entre 2,5 e 240 mícrons, por três anos32; o MSX (Midcourse Space
Experiment), em abril de 1996, e operacional por dez meses, pesquisou
na faixa de 4,2-26 mícrons a radiação infravermelho da poeira e gás no
Espaço; e o WIRE (Wide-Field Infrared Explorer), em março de 1999.
32 COTARDIERE, Philippe de la. Histoire des Sciences.
94
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Cabe mencionar, ainda, o KAO (Kuiper Airborne Observatory), que
consistia de um telescópio refletor de 0,915m, aerotransportado num jato
Lockheed C 141 A, capaz de voar a 13,7 km de altitude; de 1975 a 1995, realizou
várias observações, descobrindo, inclusive, o sistema de Anéis de Urano.
7.3.2.4 Astronomia do Ultravioleta
A luz invisível ultravioleta, descoberta por Johann Wilhelm
Ritter, em 1801, recebeu este nome de seu descobridor por se situar além
do violeta no espectro da luz visível (entre as faixas da luz visível e dos
raios-X). O exame do espectro ultravioleta permite estudar a composição
química, a densidade e as temperaturas do meio estelar e das estrelas
jovens, bem como a evolução das galáxias. Como a maioria dos corpos
celestes tem temperaturas relativamente baixas, emitindo sua radiação
eletromagnética na parte visível do espectro, a radiação UV provém de
corpos mais quentes, em seus estágios inicial e final de sua evolução.
Estando a maior parte da luz ultravioleta bloqueada ou absorvida pela
poeira estelar e pela atmosfera terrestre (camada de ozônio), a pesquisa
com base nessa radiação deve ser efetuada a partir de telescópios espaciais.
O desenvolvimento dessa pesquisa é devido à invenção (patenteada
em 1969) de uma câmera ou espectrógrafo por George Carruthers (1939).
Nos anos de 1960, a NASA iniciaria as pesquisas com o envio de uma série
de quatro (o primeiro e o terceiro falharam) observatórios, chamados OAO
(Orbiting Astronomical Observatory). O segundo observatório, lançado
em dezembro de 1968, com onze telescópios UV, realizou observações até
1973, descobrindo que os cometas estão envoltos num halo de hidrogênio,
enquanto o quarto (conhecido como Copérnico), lançado em agosto de
1972 para pesquisa em UV e raios-X, esteve operacional até 1983, tendo
descoberto vários pulsares.
Dentre as diversas missões enviadas ao Espaço, nos últimos anos,
para pesquisa em UV caberia mencionar:
i) o International Ultraviolet Explorer (IUV), resultante da
colaboração entre a NASA, a Agência Espacial Europeia
(ESA) e o Conselho Britânico de Pesquisa Científica, foi
lançado em janeiro de 1979, e esteve operacional até final
de 1996, tendo realizado mais de 100 mil observações
de planetas, auroras planetárias, cometas, estrelas, gás
interestelar, supernovas, galáxias e quasares;
95
CARLOS AUGUSTO DE PROENÇA ROSA
ii) a espaçonave russa Astron foi lançada em março de 1983,
permanecendo operacional por seis anos, numa órbita de
apogeu de 185 mil km. Levava a bordo um telescópio UV de
80 cm e um espectroscópio de raios-X para estudar quasares,
pulsares, galáxias, buracos negros;
iii) o telescópio Hubble, lançado em 1990, inicialmente com
um instrumento HSP (High Speed Photometer), disporia,
a partir de 1994, de um COSTAR (Corrective Optics Space
Telescope Axial Replacement), que lhe permitiria observar
sem aberrações. Em pleno funcionamento até esta data
(2009), o Hubble tem contribuído, de maneira decisiva, para
uma melhor compreensão do Universo através das imagens
coletadas dos vários corpos celestes;
iv) o Far Ultraviolet Spectroscopic Explorer (FUSE), da Universidade
Johns Hopkins, foi lançado pela NASA, em junho de 1999, como
parte de seu Programa Origins. O FUSE, que estuda faixas do
espectro de 90 a 120 nm, que estão fora dos outros telescópios,
tem o objetivo de estudar o deuterium (hidrogênio pesado) de
forma a conhecer o remanescente do Big Bang;
v) o Galaxy Evolution Explorer (GALEX), lançado em maio
de 2003, em órbita circular de 697 km de altitude, teve a
missão, durante 28 meses, de estudar galáxias e estrelas com
história cósmica de 13 bilhões de anos, devendo, para tanto,
determinar a distância das galáxias da Terra e o tempo de
formação de estrelas nas galáxias; e
vi) a espaçonave Swift foi lançada em novembro de 2004 com o
propósito de colocar em órbita, por dois anos, a Gamma-Ray
Burst Mission, cujo objetivo é descobrir, observar e estudar
a explosão (GRB) dos raios-Gama, por meio de telescópios
apropriados para raios-Gama, raios-X, raios ultravioleta e
raios ópticos; o Swift está equipado com um telescópio UV,
com capacidade fotométrica, apropriado para faixas de 170
a 650 nm de comprimento.
7.3.2.5 Astronomia dos Raios-X
A descoberta dos raios-X pelo físico alemão Wilhelm Roentgen
(1845-1923) data de 1895, mas, em 1912, Theodor Von Laue (1879-1960)
mostrou que os raios-X eram uma radiação mais curta e mais energética
96
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
que o ultravioleta. Como a radiação natural dos raios-X, oriunda do
Espaço, é bloqueada pela atmosfera terrestre, os telescópios especiais
para detectar a emissão de tais raios por distantes objetos celestes devem
estar posicionados acima da atmosfera, o que significa ter sido necessário
aguardar o desenvolvimento da Astronomia espacial para o surgimento
de tal tipo de pesquisa astronômica33.
Herbert Friedman (1916-2000) é considerado pioneiro nessas
pesquisas, por ter detectado, em 1949, num pequeno contador geiger
enviado ao Espaço por um foguete (capturado) alemão V-2, fracas
emissões de raios-X pela coroa solar. Um detector aperfeiçoado por
Riccardo Giacconi (1931) e sua equipe, e lançado ao Espaço por um
foguete Aerobee, descobriria, em 1962, na constelação de Escorpião,
a Scorpius X-1, a primeira fonte de raios-X fora do Sistema Solar. Em
1970, seria lançado, do Quênia, com a responsabilidade de Giacconi e
sua equipe, o Observatório UHURU (liberdade, em suahíli), primeiro
telescópio de raios-X da NASA, com a missão exclusiva de pesquisar
a emissão de raios-X. O UHURU funcionou até 1973, seguido, em
1977, do HEAO I (Observatório Astronômico de Alta Energia) que, até
1979, vasculhou os raios-X no céu. Em outubro de 1974, foi lançado, do
Oceano Índico, o satélite Ariel V, que permaneceria em funcionamento
até março de 1980; a missão britânico-americana pesquisaria fontes de
raios-X, galáxias e pulsares. Em 1978, a NASA enviaria o HEAO II, depois
chamado de Observatório Einstein, que permaneceria em órbita até 1981,
prosseguindo as pesquisas do HEAO I, descobrindo milhares de fontes
de raios-X, e obteve imagens de raios-X de pulsares e aglomerados de
estrelas. O Japão enviaria, em 1979, o satélite Hakucho, que permaneceu
ativo até 1985, tendo descoberto fontes de raios-X e pesquisado pulsares.
Uma série de missões (NASA, ESA, Japão, Rússia) seria enviada ao
Espaço desde o início dos anos de 1980, tendo sido detectadas mais de 100
mil fontes de raios-X, e o objeto celeste mais distante, visto pelo telescópio
especial para raios-X, se encontra cerca de 13 bilhões de anos-luz da Terra.
No campo da Astronomia dos raios-X, dos últimos anos, devem
ser mencionadas as seguintes missões espaciais:
i) ii) 33 TENMA (Pégaso, em japonês), satélite japonês, lançado em
fevereiro de 1983, permanecendo operacional até novembro
de 1985, pesquisaria na região galáctica;
o EXOSAT teve vida útil de maio de 1983 a abril de
1986; realizou 1.780 observações, que incluem núcleos
CAPOZZOLI, Ulisses. No Reino da Radiastronomia.
97
CARLOS AUGUSTO DE PROENÇA ROSA
iii) iv) v) vi) vii) viii) ix) 98
galácticos, coroas estelares, estrelas variáveis, quasares,
pulsares, estrelas anãs brancas, aglomerados de estrelas e
remanescentes de supernovas;
GINGA (galáxia, em japonês): de fevereiro de 1987 a
novembro de 1991 estudou as galáxias;
GRANAT, satélite russo, em colaboração com países
europeus, esteve operacional de dezembro de 1989 a
novembro de 1998, pesquisou eventuais buracos negros e
colheu dados de regiões centrais de galáxias;
ROSAT, observatório alemão/americano/inglês, cujo nome
foi dado em homenagem ao físico Roentgen, foi lançado em
junho de 1990 e esteve operacional até fevereiro de 1999. O
ROSAT foi colocado em órbita circular a 550 km de altitude e
catalogou mais de 150 mil objetos celestes; descobriu emissão
de raios-X por cometas; detectou estrelas de nêutrons;
observou supernovas e aglomerados de galáxias;
YOHKOH, satélite japonês, lançado em agosto de 1991
para estudar raios-X e raios-Gama provenientes do Sol.
Estava equipado com dois telescópios (SXT e HXT) e dois
espectrômetros, e esteve operacional até 2001;
Observatório ROSSI X-Ray Timing Explorer (RXTE), lançado
pela NASA, em 1995, com o objetivo de estudar buracos
negros, estrelas de nêutrons e pulsares;
Observatório de Raios-X Chandra, lançado em julho de 1999,
é o terceiro dos quatro grandes observatórios programados
pela NASA. A altitude da órbita em seu apogeu chega a 149 mil
km, e está equipado com três espectrômetros e uma câmera.
O Chandra, que continua operacional, efetuou importantes
pesquisas, como a primeira imagem óptica de um buraco
negro ou estrela de nêutron no centro da Cassiopeia, anel em
torno de pulsar na nebulosa do Caranguejo, ondas sonoras
em volta de buraco negro no aglomerado Perseu, descoberta
de estrela de nêutron em remanescentes de supernova, e o
processo de “canibalização” de uma pequena galáxia; e
XMM (X-Ray Multimirror Mission), lançado pela Agência
Espacial Europeia, em 1999, com três câmeras CDD para
raios-X, além de telescópio para observação óptica/UV, o
que permite a observação simultânea em duas regiões do
espectro. Sua vida útil está prevista para durar dez anos.
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.3.2.6 Astronomia dos Raios-Gama
Os raios-Gama foram descobertos em 1900, pelo químico e
físico francês Paul Villard (1860-1934), permanecendo por muitos anos
como uma das mais desconhecidas radiações, cujas ondas são as mais
curtas do espectro eletromagnético e as que emitem mais energia (cerca
de 10 mil vezes mais que a luz visível). As pesquisas sobre os objetos
celestes com base na emissão de raios-Gama teriam de esperar, como
no caso do infravermelho, ultravioleta e raios-X, avanços na tecnologia
de instrumentos apropriados, uma vez que investigações científicas,
do período 1948-1958, levavam astrofísicos a crer na emissão de raios-Gama por diversos objetos espalhados no Universo, como explosões de
supernovas e interação de raios cósmicos com gases interestelares. Como
em outras faixas do espectro eletromagnético, dado que são absorvidos
pela atmosfera terrestre, os raios-Gama têm de ser detectados fora da
atmosfera do Planeta, o que significa a utilização de detectores a bordo
de balões ou de satélites artificiais. Apesar das importantes informações
coletadas sobre explosões de estrelas da Via Láctea, estrelas binárias,
buracos negros e pulsares, dentre muitos dados obtidos das missões
enviadas ao Espaço, não foram ainda detectadas suas fontes de energia
nas regiões mais distantes do Cosmos.
As diversas missões na área da Astronomia dos raios-Gama têm
como objetivo a compreensão de como a Matéria e a radiação interagem
em extremas condições de temperatura (centenas de milhões de graus),
de alta densidade da Matéria e da força do campo magnético; para tanto,
a principal meta tem sido a observação e estudo pela emissão de raios-Gama de supernovas, estrelas de nêutron, buracos negros, pulsares e
quasares34.
O satélite Explorer XI seria equipado com o primeiro telescópio
para detectar raios-Gama; lançado em abril de 1961, o Explorer XI
permaneceria em órbita apenas por quatro meses (até setembro); a curta
missão foi capaz, contudo, de detectar 22 “eventos” de raios-Gama. Em
novembro de 1972, foi lançado o Small Astronomy Satellite, conhecido
como SAS-2, que efetuou detalhada observação de raios-Gama. Por
motivo de falhas técnicas, deixaria o SAS-2 de ser operacional em junho
de 1973. A Agência Espacial Europeia (ESA) lançaria, em agosto de 1975,
o Cosmos-B (COS-B), que forneceu o primeiro mapa completo da Galáxia
em raios-Gama; a missão terminaria após seis anos e oito meses (abril de
1982) de operação.
34 ASIMOV, Isaac. New Guide to Science.
99
CARLOS AUGUSTO DE PROENÇA ROSA
Em abril de 1991, foi lançado em órbita de 450 km de altitude o
Compton Gamma Ray Observatory – CGRO (homenagem a Arthur Compton),
o segundo (Hubble é o primeiro) da série de grandes observatórios da NASA,
que permaneceria operacional até junho de 2000. O CGRO dispunha de quatro
instrumentos: um monitor para detectar explosões de raios-Gama de curta
duração, um detector de raios-Gama e dois telescópios.
Após o fracasso do lançamento do HETE-1, a NASA, em outubro
de 2000, enviou o High Energy Transient Explorer-2 (HETE-2), pequeno
satélite científico para detectar a explosão de raios-Gama. A missão,
resultante de colaboração internacional sob a direção do Centro de
Pesquisa do Espaço do MIT, conta com a participação, entre outros, das
Universidades americanas de Chicago, Berkeley e da Califórnia, INPE
(Brasil), CNR (Itália), TIFR (Índia) e CESR (França).
A Agência Espacial Europeia (ESA) lançaria, em outubro de 2002,
em órbita de período de 72 horas e de 153 mil km de altitude (apogeu),
o International Gamma-Ray Astrophysics Laboratory, conhecido como
INTEGRAL, ainda em perfeito funcionamento.
Em novembro de 2004, a NASA lançou o observatório Swift numa
órbita de 600 km de altitude para estudar a explosão de raios-Gama
(Gamma-Ray Burst – GRB), e seus clarões em ultravioleta, raios-X e
raios-Gama, com o objetivo de determinar a origem do GRB, o qual deve
ocorrer a “distâncias cosmológicas”. Com esse intento, o estudo poderá
verificar tais distâncias do Universo, ou seja, de um Cosmos jovem.
A duração prevista da missão é de 16 anos. No final de 2005, o Swift já
havia detectado 90 GRB e 70 clarões em raios-X.
7.3.2.7 Novas Técnicas de Pesquisa
Técnicas desenvolvidas anteriormente, como a espectroscopia
e a fotografia, aperfeiçoadas e inovadas com a introdução de diversos
melhoramentos, continuam a ser largamente utilizadas nas pesquisas
astronômicas pelo importante apoio para o estudo do espectro
eletromagnético. No caso da fotografia, grande avanço foi obtido com a
invenção da câmera eletrônica, pelo astrônomo francês André Lallemand,
e o desenvolvimento da técnica dos fotomultiplicadores. Em seguida,
seria inventada a nova técnica do Dispositivo de Carga Acoplada – CCD
(charge-coupled device), sensor especial de luz, que reúne as vantagens da
câmera eletrônica e do fotomultiplicador35. Com a crescente demanda da
35 VERDET, Jean-Pierre. Uma História da Astronomia.
100
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
comunidade astronômica por instrumentação que lhe permitisse executar
investigações pioneiras, novas técnicas e aparelhos seriam desenvolvidos
ao longo dos últimos decênios.
O telescópio, fundamental instrumento de pesquisa astronômica,
seria aperfeiçoado quanto à qualidade e ao alcance, e sua utilização em
satélites e naves espaciais ampliaria seu horizonte observacional para
incluir as diversas faixas de ondas do espectro eletromagnético.
Para os propósitos deste capítulo, basta examinar a interferometria
e o radar, como técnicas inovadoras de pesquisa astronômica.
7.3.2.7.1 Interferometria
O interferômetro é um aparelho destinado a medir a interferência
eletromagnética quando as ondas eletromagnéticas interagem. A técnica foi
utilizada e desenvolvida pelo físico americano Albert Abraham Michelson
(1852-1931), para dividir em dois o raio de luz, enviá-los em direções
diferentes, e, depois, os reúne outra vez; se os raios “viajassem” a velocidades
distintas, haveria “interferência”, que seria detectada pelo aparelho.
Michelson conseguiria, com essa técnica, um cálculo bastante aproximado da
velocidade da luz, o que lhe valeria o Prêmio Nobel de Física em 1907.
Com o objetivo de aprimorar as pesquisas astronômicas através dos
radiotelescópios, os astrônomos e astrofísicos passariam a se utilizar de
interferômetros de síntese de abertura, equivalente aos telescópios ópticos
de “prato” de 1,6 km ou mais de diâmetro. Os pioneiros no desenvolvimento
dessa técnica seriam os australianos Joseph Pawsey (1908-1962) e Bernard
Mills (1848/53), construtor do Mills Cross Telescope e do Molongolo Cross
Telescope, e Martin Ryle (1918-1988, PNF-1974), que, em 1959, listou a
posição e energia de mais de 500 fontes de radiação em seu Terceiro Catálogo de
Cambridge; Ryle e sua equipe de Cambridge operariam dois radiotelescópios
(radiointerferômetros): o Uma Milha e o Cinco Quilômetros.
A conjugação, ou o posicionamento, em linha, de uma série
de interferômetros, permitiria misturar sinais de vários telescópios,
produzindo imagens com a mesma resolução angular de um instrumento
do tamanho do conjunto dos telescópios; em outras palavras, medindo,
com bastante precisão, distâncias angulares, estudando as distribuições
da intensidade radiante e detectando pequenos detalhes de corpos
celestes até então desconhecidos, o que aumentaria consideravelmente o
conhecimento do Cosmos36.
36 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos.
101
CARLOS AUGUSTO DE PROENÇA ROSA
Estão relacionados abaixo, a título exemplificativo, alguns
importantes projetos de pesquisa astronômica com interferômetros:
i) o Very Long Baseline Array – VLBA é composto de antenas
de 10 radiotelescópios, cada, com “prato” de 25 m de
diâmetro e 240 toneladas. Projeto da entidade governamental
americana Observatório Nacional de Radioastronomia,
o VLBA, completado em 1993, se estende de Mauna Kea,
no Havaí, até Saint-Croix, nas ilhas Virgens (EUA), o que
corresponde a uma linha de cerca de 8 mil km;
ii) o consórcio europeu EVN, conjunto interferométrico
de radiotelescópios, formado em 1980, com o Instituto
Max Planck de Radioastronomia (Bonn), o Instituto de
Radioastronomia (Bolonha), a Fundação Holandesa para
Pesquisa em Astronomia (ASTROM), o Observatório
Espacial Onsala (OSO), da Suécia, e o Observatório Jodrell
Bank, na Inglaterra, conta hoje com um total de 14 entidades.
A iniciativa é conhecida como European VLBA Net;
iii) o Mauritius Radio Telescope, projeto conjunto da
Universidade de Maurício, do Instituto de Astrofísica da
Índia e do Instituto de Pesquisa Raman, é um “síntese de
abertura”, em forma de “T”, de 2 km x 1 km, a parte mais
extensa com 1.024 antenas fixas helicoidais de 2 metros, e
a parte menor (1 km), com 64 antenas sobre 16 estruturas
móveis. O principal objetivo é a pesquisa do céu do
Hemisfério Sul;
iv) dentre os interferômetros para ondas de centímetros e metros,
podem ser citados: o inglês Telescópio Ryle, de 8 antenas
de 13 metros – pesquisa aglomerados de galáxias; o Síntese
de abertura, canadense, do Dominium Radio Astrophysical
Observatory (DRAO), de 7 antenas de 9 metros de diâmetro,
em forma paraboloide, pesquisa principalmente regiões
formadoras de estrelas e nebulosas; o Australian Telescope
Compact Array (ATCA), de 6 antenas de 22m; o holandês
Westerbork Radio Synthesis Telescope (WRST), de 14
antenas de 25m; o americano Very Large Array (VLA), de 27
antenas parabólicas de 25m; e o indiano Giant Meterwave
Radio Telescope (GMRT), de 30 antenas de 45m de diâmetro,
espalhadas numa área de 25 km², próximo da cidade de
Pune.
102
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.3.2.7.2 Radar
O radar (do inglês radio detection and ranging), aparelho destinado
a medir a distância a partir do lapso de tempo que o pulso de energia
emitido demora a retornar, ao ser refletido pelo alvo, foi bastante utilizado
e desenvolvido durante a Segunda Guerra Mundial, e viria a ser de
grande utilidade para as investigações do Sistema Solar, a partir dos
anos 60. Sistemas de radar, instalados na superfície da Terra, têm sido
usados para um grande número de estudos astronômicos, geodésicos e
meteorológicos.
Na Astronomia, a técnica do radar para a coleta de dados se
restringe ao âmbito do Sistema Solar, incluindo vários tipos de corpos
celestes (planetas, luas, asteroides e cometas), por meio de aparelhos
instalados na superfície da Terra ou da Lua, e em veículos espaciais.
O procedimento é simples: emissão de extremamente fortes impulsos de
ondas de rádio de espectro de micro-ondas, pelo radar, em direção do
objeto sob estudo, e a captação do retorno do sinal, por grandes conjuntos
de discos (pratos) do mesmo radar emissor. Como a velocidade da onda
de rádio é próxima da luz, é fácil calcular a distância de ida e volta da
Terra percorrida pela radiação.
Numa primeira etapa (1960/1975), a pesquisa esteve restrita à
computação da distância Terra-Lua, para se estender, depois, a outros
corpos do Sistema Solar, principalmente os asteroides. O envio ao
Espaço de sondas e satélites artificiais equipados com radares cresceu
significativamente a importância dessa técnica para o conhecimento do
Sistema Solar. Nos últimos anos aumentaram, em número de milhões, os
detritos espaciais, objetos de dimensões e massas variadas, que, em algum
momento, entrarão na atmosfera terrestre. Como muitos desses objetos
(lixo) cairão na superfície do Planeta, o que é um problema que tende a ser
crítico com a expansão dos programas de exploração espacial, a técnica de
radar tem sido utilizada por diversas estações com o propósito de rastreá-los
e controlá-los.
A técnica do radar (o cientista estabelece a polarização e a estrutura
tempo/frequência da emissão da fonte refletora), por ser diferente da
empregada para a captação da luz e da emissão natural da onda de
rádio (na qual o objeto refletor é passivo, isto é, sem a participação ou
ingerência externa), permite a coleta de dados indisponíveis por outras
técnicas, como a determinação da distância de objetos celeste e a obtenção
de informações sobre a topografia e o período de rotação dos corpos
sólidos. Graças ao radar, foi possível o refinamento do cálculo da unidade
103
CARLOS AUGUSTO DE PROENÇA ROSA
astronômica (UA – unidade de distância equivalente a 149.597.870.691
metros), que corresponde à distância da Terra ao Sol.
Para evitar interferência, a localização ideal para as estações de
radar é em áreas afastadas de centros populacionais e distantes de centros
de telecomunicações e de aviação civil, o que explica os locais especialmente
escolhidos pelas entidades responsáveis pelos observatórios.
O grande avanço nas pesquisas com a técnica do radar é devido aos
programas desenvolvidos principalmente pelos EUA. Os dois principais
centros de pesquisa planetária com o radar são o Centro de Arecibo, em
Porto Rico, do Observatório Nacional de Radioastronomia, e o Sistema de
Radar Solar Goldstone, da NASA, na Califórnia.
O radar de Arecibo, o mais poderoso e sensível sistema, desde 1996,
com antena para ondas de comprimento de 12,6 cm, tem coletado dados da
Lua, de Mercúrio, Vênus, satélites de Júpiter e de anéis de Saturno, além de
informações de numerosos asteroides e cometas. O sistema de Goldstone,
que dispõe de antena de 70 metros de diâmetro para ondas de comprimento
de 3,5 cm, tem realizado observações científicas em asteroides, superfícies
de Vênus e Marte, e satélites de Júpiter. Com programação prevista até
2015, ambas as estações trabalham em colaboração com outros centros de
pesquisas de diversos países.
A estação de Evpatoria, na Crimeia, originalmente da URSS, mas hoje
em dia administrada pela Agência Espacial da Ucrânia, funciona, desde 1998, em
estreita colaboração com a Agência Espacial Russa. Evpatoria dispõe de radar
com antena de 70 metros (RT-70), utilizada especialmente para a localização e
medição de detritos (lixo) espaciais. Em razão de seus problemas técnicos para
rastrear objetos muito próximos da Terra, participa a Evpatoria da chamada
Rede de Baixa Frequência VLBI, integrada pelos seguintes radares: Noto RT-32
(Itália), Torum RT-32 (Polônia), Xangai RT-25 (China), Urunqi Rt-25 (China)
e Lago Urso RT-64 (Rússia).
7.3.2.7.3 Maser/Laser
Duas técnicas seriam utilizadas para aumentar a eficiência dos
radiotelescópios. O processo desenvolvido por Charles Hard Townes
(1915 – PNF-1964), que produz ondas eletromagnéticas através da
amplificação de emissão amplificada, é conhecido como maser (do inglês
microwave amplificaton by stimulated emission of radiation); sua aplicação na
Astronomia permitiria amplificar sinais fracos vindos do Espaço. A outra
técnica, desenvolvida em 1960, por Theodore Maiman (1927), tem o nome
104
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
de laser (do inglês light amplification by stimulated emission of radiation), por
amplificar a luz pela emissão de radiação; o laser é usado em Astronomia
principalmente para medir distâncias de objetos celestes37.
7.3.3 Astronomia Planetária
As pesquisas sobre o sistema planetário continuariam, ao
longo do século XX, e até os dias de hoje, a despertar o interesse dos
astrônomos, se bem que o sistema estelar possa ser considerado,
talvez, como a principal atividade atual das investigações. No caso da
Astronomia planetária, o desenvolvimento de novas técnicas, como
a fotografia, e a utilização de telescópios ópticos de maior alcance e
de melhor qualidade visual seriam fatores para o avanço obtido, na
primeira metade do século XX, no conhecimento do Sistema Solar.
Sondas, satélites e naves espaciais tripuladas permitiriam, a partir dos
anos de 1960, o acesso a informações até então indisponíveis, das quais
resultaria um extraordinário progresso no conhecimento dos planetas e
de outros corpos celestes do Sistema Solar. O crescente interesse atual
pela Astronomia planetária está demonstrado pelo número de missões
enviadas e programadas para diversos planetas com o objetivo de colher
mais e melhores dados sobre suas propriedades físicas e químicas, como
temperatura, densidade, massa e atmosfera.
O conhecimento atual mostra ser o Sol a fonte mais rica de energia
eletromagnética do Sistema Solar, com 99,85% de toda a matéria do
Sistema; aos planetas correspondem 0,135% da massa do Sistema, sendo
que Júpiter contém mais do dobro da massa de todos os demais planetas.
Os satélites dos planetas, os cometas, os asteroides, os meteoros e a matéria
interplanetária (energia, gás e poeira) constituem apenas 0,015% do total
da massa do Sistema. A recente descoberta de um novo corpo celeste mais
distante que Plutão tem sido objeto de celeuma no meio astronômico,
a fim de decidir se se trata de um novo planeta ou de um planetoide,
questão que, se não é importante para entendimento da estrutura do
sistema planetário, ao menos indica haver campo para novas descobertas.
Dadas essas características da evolução da Astronomia planetária
na atualidade, o tema, para efeitos expositivos, será apresentado em duas
fases, em que a primeira cobre o período até o início das missões espaciais.
37 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos.
105
CARLOS AUGUSTO DE PROENÇA ROSA
7.3.3.1 Primeira Fase
Uma descoberta no sistema planetário de grande impacto na
comunidade astronômica e na opinião pública em geral, seria a do
“planeta” Plutão, efetuado por Clyde William Tombaugh (1906-1997),
do Observatório Lowell (Arizona), em 1930, pelo exame de chapas
fotográficas38; Tombaugh descobriria, ainda, quatorze asteroides. O
aumento para nove do número de planetas do Sistema Solar seria, talvez,
um dos mais significativos acontecimentos desta fase, tanto mais que
indicava faltar muita coisa a ser descoberta no campo da Astronomia
planetária.
Em 1905, Percival Lowell (1995-1916), do Observatório Flagstaff
(Arizona), iniciara a busca de um planeta além de Netuno, tarefa
que continuaria, após sua morte, pelos integrantes de sua equipe do
Observatório. Em 1909, William Pickering apresentaria observações no
sentido da provável existência de um planeta mais distante que Netuno.
Outros astrônomos, espalhados pelo mundo, se dedicariam, igualmente,
a essa tarefa, uma vez que as discrepâncias entre as posições previstas e
observadas de Netuno e de Urano eram fortes indícios de serem causadas
pela ação gravitacional de um planeta desconhecido.
Na realidade, a causa real dessas discrepâncias era o valor
equivocado atribuído às massas de Netuno e de Urano, conforme seria
constatado, posteriormente, ao se proceder à correção dos valores. Além
do mais, a massa do pequeno (2/3 da Lua) recém-descoberto “planeta”
seria bastante insuficiente para exercer qualquer influência gravitacional
relevante em outros planetas, principalmente das dimensões de Urano e
de Netuno.
Ao longo desta fase, as inúmeras pesquisas para esclarecer
uma série de dados importantes sobre as propriedades e condições
prevalecentes nos planetas e na Lua, como dimensão, massa, densidade,
movimentos, gravidade, temperatura, relevo e atmosfera, coligiriam,
na realidade, insuficientes e imprecisos dados, que significaram pouco
avanço no conhecimento desses corpos celestes do Sistema Solar; o mesmo
comentário se aplica às investigações sobre os cometas. A Lua e Marte
talvez tenham sido os mais pesquisados, enquanto as dificuldades para
observação telescópica ou das chapas fotográficas de Vênus impediriam
real progresso no conhecimento desse planeta. Quanto aos grandes e
distantes planetas, as mesmas dificuldades impediriam maiores e exatas
informações sobre Júpiter, Saturno, Urano e Netuno. Importante ressaltar,
38 PANNEKOEK, Anton. A History of Astronomy.
106
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
desde já, a relevância das observações da Astronomia planetária, na
medida em que proporcionaria, além dos dados sobre os planetas,
pioneiras informações sobre os satélites naturais e asteroides.
De um grande número de pesquisas, algumas de maior interesse,
seriam: i) Percival Lowell (1855-1916), famoso por sua dedicada pesquisa,
desde o Observatório Flagstaff (Arizona), a respeito dos “canais” de
Marte, desenhados por Giovanni Schiaparelli (1835-1910), diretor do
Observatório de Milão; sobre o tema escreveria três livros: Marte (1895),
Marte e Seus Canais (1906) e Marte como Moradia de Vida (1908); ii) Bernard
Lyot (1897-1952), Medalha Bruce (1947), pesquisou superfícies da Lua e
de Marte e investigou a atmosfera de planetas (Vênus, Marte); fotografou
a coroa solar e seu espectro; iii) Henri Alexandre Deslandres (1853-1948),
Medalha Bruce (1921), mediu a velocidade radial de planetas e estrelas,
determinou a taxa de rotação de Urano, Júpiter e Saturno, estudou a
cromosfera solar e atividades solares; iv) Eugene Antoniadi (1870-1944),
famoso por sua afirmação da existência dos canais de Marte, escreveu
La Planète Mars (1930), pesquisou Mercúrio e Vênus, tendo escrito ainda
La Planète Mercure et la Rotation des Satellites (1934), no qual sustentou
que o período de rotação de Mercúrio era igual ao período de translação,
o que significava que um lado do planeta estaria sempre virado para
o Sol e o outro no escuro39; v) Edward Barnard (1857-1923), Medalha
Bruce (1917), descobriu vários cometas e fez diversos estudos sobre
aspectos físicos de planetas, cometas, nebulosas e novas, e contribuiu
para a melhoria de métodos fotográficos; vi) Robert Aitken (1864-1951),
Medalha Bruce (1926), mais conhecido por suas pesquisas a respeito
das estrelas binárias, sobre as quais preparou um catálogo; procedeu à
medição das posições de cometas e satélites planetários e de suas órbitas;
vii) em 1926, os astrônomos americanos William Weber Coblentz e Carl
Otto Lampland conseguiram medir a temperatura de Marte; viii) dentre
suas inúmeras e importantes contribuições, Vesto Slipher (1875-1969),
Medalha Bruce (1935), calcularia o período de rotação de Vênus, Marte,
Júpiter, Saturno e Urano; ix) Jan Hendrik Oort (1900-1992), Medalha
Bruce (1942), confirmou, em 1927, a hipótese de Bertil Lindblad sobre
a rotação das galáxias, e propôs a atual teoria da origem dos cometas,
inclusive a chamada Nuvem de Cometas (1950) e x) Gerard Kuiper (1905-1973) sugeriria a existência de um cinturão de objetos celestes além de
Netuno (o que seria confirmado em 1992).
Em 1859, Le Verrier constatara anomalias no comportamento de
Mercúrio, cujo periélio se deslocava 570 segundos de arco por século. A
39 MOURÃO, Ronaldo Rogério. O Universo.
107
CARLOS AUGUSTO DE PROENÇA ROSA
explicação para essa anomalia seria dada por Einstein, em artigo de 1916,
por meio de sua Teoria geral da relatividade, segundo a qual, a deformação
da estrutura do Espaço-Tempo pelo Sol perturba a trajetória dos planetas
e avança seu periélio. A solução encontrada por Einstein é citada como
uma das comprovações de sua Teoria.
Adicionalmente, deve ser acrescentado que investigações nessa
primeira fase conduziriam à descoberta de satélites planetários ou luas,
através do detido exame de fotografias, porquanto se encontravam fora
do alcance dos telescópios da época.
Em 1903, William Henry Pickering (1858-1938), astrônomo
americano que estabeleceu Estações de Observação de Harvard em
Arequipa (Peru) e Mandeville (Jamaica), e pesquisou a Lua e meteoros,
descobriria o nono satélite de Saturno, que recebeu o nome de Themis. Seis
satélites de Júpiter foram descobertos: dois, (Himalia, em 1904, e Elara,
em 1905), por Charles Dillon Perrine (1867-1951), astrônomo americano-argentino (Diretor do Observatório Astronômico de Córdoba, de 1909 a
1936 e promotor do estudo de Astrofísica no país); o Pasiphaë, em 1908,
pelo astrônomo inglês Philibert Jacques Melotte; e em 1914, o astrônomo
americano Seth Nicholson (1891-1963), do Observatório Lick, descobriria
o satélite Sinope; em 1938, Lysithea e Carme; e em 1951, Ananke. O satélite
Miranda, o quinto de Urano, seria descoberto em 1948, pelo astrônomo
holandês-americano Gerard Peter Kuiper (1905-1973), que descobriria,
igualmente, o satélite Nereida, de Netuno, em 1949.
Devido às mais recentes descobertas, o quadro atual de satélites
naturais é o seguinte: Mercúrio e Vênus – sem satélites; Marte continua
apenas com os dois descobertos em 1877 – Fobos e Deimos; Júpiter – com
um total de 63 satélites; Saturno, 46; Urano, 27; e Netuno, 13. Além desses
satélites, há os chamados satélites pequenos e irregulares que não são
computados com os demais40.
Asteroides são pequenos objetos celestes ou planetas de pequenas
dimensões, descobertos a partir de 1801, tendo sido Ceres o primeiro,
pelo italiano Giuseppe Piazzi (1746-1826); vários outros asteroides seriam
descobertos no século XIX. Maximilian Wolf (1863-1932), fundador de
Observatório em Heidelberg, professor de Astrofísica, medalha Bruce
(1930), pesquisador da Via Láctea e descobridor de centenas de galáxias e
nebulosas, descobriria, utilizando-se da técnica da fotografia, o asteroide
Aquiles, o primeiro dos chamados “asteroides troianos” (grupo de corpos
celestes que gravitam na mesma órbita de Júpiter), além de uma centena
de outros asteroides.
40 COTARDIÈRE, Philippe de la. Histoire des Sciences.
108
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O maior interesse da Astronomia planetária em asteroides é quanto
aos chamados “asteroides rasantes”, isto é, aqueles que, pela possibilidade
de colisão com a Terra, de alguma forma representam um perigo para o
Planeta. Famoso é o Hermes, que teria chegado a cerca de 750 mil km da
Terra, quando descoberto, em outubro de 1937, pelo astrônomo alemão
Karl Reinmuth (1892-1979); um total de 395 asteroides (entre troianos e
rasantes) e dois cometas foram descobertos por Reinmuth.
Os cometas seriam, igualmente, objetos de estudos, além dos de
Aitken, Oort e Reinmuth, já mencionados. Caberia, agora, citar o trabalho
de Gerard Kuiper, que em 1951, propôs a existência do chamado Cinturão
Kuiper de Cometas, situado além da órbita de Júpiter para os cometas
com período inferior a 200 anos.
7.3.3.2 Segunda Fase
As pesquisas astronômicas nesta segunda fase seriam muito
mais numerosas e mais produtivas, beneficiadas pelos avanços técnicos
na qualidade da fotografia e pela utilização de observatórios espaciais
(sondas, satélites, módulos, robôs), tripulados e não, o que permitiria um
extraordinário progresso no conhecimento dos outros planetas e suas luas.
A observação óptica por telescópios localizados na superfície
terrestre continuaria a fornecer importante material de pesquisa, mas,
evidentemente, a obtenção de imagens pelos satélites artificiais e a coleta
de amostras por astronautas e robôs seriam extremamente valiosas e
decisivas para a expansão do entendimento do Sistema Solar e de seus
principais componentes planetários e lunares.
Seguem, abaixo, algumas informações sobre as pesquisas espaciais
nos diversos planetas, por missões especificamente designadas:
Mercúrio – A sonda interplanetária Mariner 10, enviada ao Espaço
em novembro de 1973, passaria, a partir de março de 1974, a mandar
informações e imagens (cerca de 10 mil), cobrindo 57% do planeta; em março
de 1976, a sonda sobrevoou novamente as mesmas regiões de Mercúrio. A
superfície crateriforme, a tênue atmosfera, a fraca densidade e a duração
da rotação, em 58,7 dias do planeta foram conhecidas e comprovadas pelas
informações obtidas pela Mariner 10. Em agosto de 2004, a NASA lançou o
Messenger, previsto para chegar ao planeta em março de 2011.
Vênus – O fracasso de várias tentativas dos EUA e da URSS, nos
anos de 1960, de enviar sondas a Vênus, atrasaria para os anos seguintes a
109
CARLOS AUGUSTO DE PROENÇA ROSA
obtenção, in loco, de dados sobre as condições e propriedades do planeta.
As Missões Mariner 10 (1973), Pioneer-Venus 1 e 2 (1978) e Magellan
(1990), dos EUA, e Venera (7 a 16) de 1970 a 1983 e Vega (1985), da URSS,
enviariam importantes e excelentes informações e imagens, permitindo
um grande avanço no conhecimento desse planeta. As sondas Venera, que
aterrissaram em Vênus, transmitiram informações sobre uma pressão de
90 atmosferas (composta de gás carbônico a 97% e outros componentes,
como água, nitrogênio, óxido de carbono e oxigênio), e uma temperatura
de 750 K na superfície, além das primeiras fotos preto e branco, e coloridas,
da superfície, e análise de solo; os soviéticos enviaram, no final de 1984,
as sondas Vega 1 e 2, que estudariam o solo de Vênus. O Mariner 10, em
fevereiro de 1974, de passagem por Vênus, enviou 4 mil fotos, tiradas
a 4.700 km de distância; a missão constatou uma atmosfera composta
fundamentalmente de dióxido de carbono e um campo magnético de
apenas 0,05% do da Terra. O Pioneer-Vênus 1, em órbita desde dezembro
de 1984 até agosto de 1992, permitiria identificar as características da
superfície, cujo relevo inclui imensos planaltos, terras baixas e uma
enorme planície ondulada (60% da superfície total). A nave Magellan
entrou na órbita de Vênus em agosto de 1990, permanecendo operacional
por 4 anos, durante os quais mapeou (37,2 minutos de cada órbita) a
superfície (98%) do planeta, no mais completo e preciso levantamento em
dimensões inferiores a 1 km, e alturas com exatidão de 50m41. A Agência
Espacial Europeia (AEE) colocou em órbita (abril de 2006) a nave-robô
Vênus Express que estudou, por quinhentos dias, a atmosfera do planeta,
composta, principalmente, de dióxido de carbono, e temperatura média
de 465 graus Celsius.
Marte – As sondas americanas Mariner (4, 6, 7 e 9), nos anos de
1960, e soviéticas Marte (2, 3, 4, 5 e 6), entre 1971 e 1973, enviariam fotos do
planeta e de suas duas luas, e informações sobre a atmosfera, a superfície,
gravidade, magnetosfera e temperatura. As sondas Viking 1 e 2, com
robôs que desceram ao solo em 1976, descobririam que a atmosfera de
Marte é constituída por 95% de gás carbônico, 3,5% de nitrogênio e 1,5%
de argônio, com ausência total de oxigênio. Nenhuma pesquisa relevante
ocorreria nos anos seguintes até julho de 1997, quando aterrissou em
Marte a sonda Mars Pathfinder, com a missão de analisar a geologia, o
clima e a temperatura do planeta; durante oito meses, enviou mais de
17 mil imagens e efetuou mais de 8,5 milhões de medições de pressão
atmosférica, temperatura e velocidade do vento. O Global Surveyor, em
órbita desde 1997, só esteve operacional em março de 1999, tendo remetido
41 MOURÃO, Ronaldo Rogério. O Universo.
110
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
preciosas informações sobre a atmosfera e a superfície de Marte. A nave
espacial Odyssey entraria em órbita em outubro de 2001, com a missão de
pesquisar a composição química e mineral da superfície, detectar água e
radiação ambiental. A Agência Espacial Europeia, em colaboração com a
NASA e a Agência Espacial Italiana, iniciaria a Missão Express, cuja nave
se encontra em órbita desde dezembro de 2003, e sua missão terminou
em outubro de 2007; seu principal objetivo era explorar a superfície e a
atmosfera do planeta. Lançados em junho/julho de 2003, e em órbita desde
janeiro de 2004, dois Explorers Rovers coletam dados e enviam imagens
sobre a superfície e o solo de Marte, atualmente em exame pelos cientistas.
Em busca de indícios de vida e de eventual local de pouso, entrou
em órbita de Marte, em março de 2006, a nave da NASA Reconaissance, que
deverá enviar dez vezes mais informações que todas as demais missões
anteriores reunidas.
Júpiter – A nave Pioneer 11 (lançada em abril de 1973, e em órbita
em setembro de 1979), Voyager I (lançada em setembro de 1977, e em
órbita em novembro de 1980) e a Voyager 2 (lançada em agosto de 1977, e
em órbita em agosto de 1981) são parte do projeto de coleta de informações
sobre o planeta. As luas Metis, Adrastea e Thebes foram descobertas
pela Voyager I, e Amalthea, por Edward Barnard, por observação visual
direta (Observatório Lick). Fotos de Júpiter e suas luas (Io teria atividade
vulcânica) e da Grande Mancha Vermelha (vértice de uma enorme
tempestade na atmosfera) indicam uma cobertura gasosa composta de
82% de hidrogênio, 17% de hélio e 1% de outros elementos; a temperatura
na superfície é de 130 K. Em outubro de 1989, a Agência Espacial Europeia,
em colaboração com a NASA, lançou a nave Galileu (em órbita em fevereiro
de 1990), cuja missão de pesquisar Júpiter e seus satélites terminaria em
setembro de 2003. A nave transmitiu fotos das quatro maiores luas (Io,
Europa, Ganímedes e Calisto) e enviou, de paraquedas, um módulo para
pesquisar e medir pressão, densidade e composição atmosférica.
Saturno – As naves Pioneer 11, Voyager 1 e Voyager 2, que já haviam
sobrevoado Júpiter, enviariam, igualmente, imagens e informações sobre
Saturno; Pioneer 11 descobriria anéis adicionais e luas; Voyager 1 (1980)
pesquisaria os anéis e esclareceria a atmosfera de Titã, e Voyager 2, por
algumas falhas técnicas, se limitaria a fotografar os satélites de Saturno42.
A Agência Espacial Europeia, a Agência Espacial Italiana e a NASA
lançariam, em outubro de 1992, a nave Cassini, em órbita em julho de 2004,
com a missão de pesquisar as luas, os anéis, a atmosfera e a magnetosfera
de Saturno. Um pequeno módulo, Huygens, desceu, em janeiro de 2005, à
42 ASIMOV, Isaac. New Guide to Science.
111
CARLOS AUGUSTO DE PROENÇA ROSA
atmosfera de Titã, de onde enviou dados sobre a espessura da atmosfera
do satélite e imagens da sua superfície, e ao atingir o solo, mediu as
propriedades dos materiais (condutividade de calor, temperatura,
resistência elétrica, índice de refração e velocidade do som).
Urano – A nave Voyager 2, após pesquisar Júpiter e Saturno,
enviaria (1986) sete mil imagens do planeta, de seus anéis (descobertos
em 1977, pelos astrônomos americanos James L. Elliot, e Douglas Mink,
do Observatório Aerotransportado Kuiper) e de satélites (descobriu dez
pequenas luas – Cordélia, Ofélia, Puck); a lua Miranda foi descoberta
em 1948, por Gerard Kuiper. Imagens recentes enviadas pelo telescópio
Hubble ajudarão na obtenção, em curto prazo, de mais informações sobre
este planeta e seus satélites.
Netuno – Voyager 2, depois de Urano, transmitiu (1989) 9 mil imagens
de Netuno e seus satélites, constatou os ventos mais fortes do Sistema Solar,
descobriu um conjunto de anéis ao redor do planeta e seis novas luas (Larissa,
Proteus). A lua Nereida fora descoberta por Kuiper, em 1949.
7.3.3.2.1 Planetas Anões – Plutoides
Um acalorado debate dividiu a comunidade internacional de
astrônomos a partir do início dos anos 2000, com a descoberta de objetos
no Cinturão de Kuiper, como Éris em 2003 (2.500 km de diâmetro, uma
lua e com 27% de massa a mais que Plutão), Haumea (2004, com 1/3 da
massa de Plutão) e Makemake (2005). Reunida em Assembleia Geral, em
agosto de 2006, em Praga, a União Astronômica Internacional decidiu criar
uma nova categoria de objetos celestes, com a denominação de “planetas
anões”, definir suas características, bem como classificar seus primeiros
integrantes. O corpo celeste para ser considerado “planeta” deverá estar
em órbita do Sol, ter suficiente massa para que sua gravidade supere a
do corpo rígido, ter equilíbrio hidrostático, isto é, sua forma seja quase
esférica, não ter satélite de planeta e ter limpado sua órbita; com estas
características, passa o Sistema Solar a contar apenas com oito planetas. Na
mesma reunião, Plutão, Éris e Ceres foram considerados “planetas anões”,
cuja principal característica que os distingue dos planetas é o equilíbrio
hidrostático da forma, e não seu tamanho ou sua massa. Em reunião do
Comitê Executivo da UAI, em junho de 2008, em Oslo, a denominação de
“plutoide” foi criada, para designar os objetos, com órbita do Sol além
de Júpiter, com massa suficiente para que sua autogravidade supere as
forças rígidas de seu material formador, com um formato de equilíbrio
112
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
hidrostático, não tenham destruído outros corpos ao redor de sua órbita e
tenham um determinado brilho (uma magnitude absoluta mais brilhante
do que H = +1); nessa categoria foram incluídos Plutão, Éris, Haumea
e Makemake, mas excluído Ceres, que, por estar em órbita no Cinturão
de Kuiper (entre Marte e Júpiter), permanece como único “planeta-anão”. Outros corpos, como Sedna, Caronte e Quiron, poderão, no futuro
próximo, serem classificados como “plutoides”.
Em janeiro de 2006, foi lançada a nave do programa New Horizons,
da NASA, com previsão de entrar em órbita em 2015. O objetivo da missão
é o de estudar Plutão, e seu satélite Caronte, por cinco meses. Em maio de
2005, o telescópio Hubble teria detectado duas novas luas para Plutão,
descobertas que ainda não foram confirmadas.
Deve ser registrado que, além das imagens provenientes das diversas
missões enviadas especialmente para pesquisar os vários planetas, outros
observatórios espaciais contribuiriam, de forma muito importante, para a
obtenção de dados sobre esses corpos celestes. O melhor exemplo é, neste
sentido, o Telescópio Espacial Hubble, que, ainda operacional, continua a
enviar, regularmente, nítidas imagens dos diversos planetas e luas.
7.3.3.2.2 Lua
Devido à sua relativa proximidade, a Lua seria a primeira a ser
investigada, via satélite, com um grande número de missões, desde 1959.
As primeiras naves, não tripuladas, a atingirem a Lua foram a Luna 2,
que se chocou com a superfície do satélite em 13 de setembro de 1959, e a
Luna 3, que transmitiria as primeiras fotos do outro lado da Lua; em 1966,
a Luna 9 seria a primeira nave a aterrissar na Lua, seguida, no mesmo
ano, das naves Luna 10, 11 e 12 em pesquisa desde a órbita; a nave Luna
13, lançada em dezembro de 1966, aterrissaria com sucesso em solo lunar
e enviaria informações sobre superfície, solo, clima, temperatura; a Luna
16, lançada em setembro de 1970, seria a primeira a enviar amostras
(101 kg) de material à Terra, seguido pelas Luna 20 (1972) e 24 (1976), última
nave lançada do programa Luna. O programa soviético Luna permitiria
levantamento de acidentes lunares, a elaboração de uma cartografia
e recolhimento de material. Apesar de pioneira no envio de naves não
tripuladas à Lua, o elevado número de fracassos no lançamento, ou na
colocação em órbita, das naves, o alto custo do programa e a mudança de
prioridades para a observação de estrelas determinariam o encerramento,
em 1976, do programa.
113
CARLOS AUGUSTO DE PROENÇA ROSA
Diante da liderança inicial soviética incontestável em alcançar a
Lua, o Presidente Kennedy anunciaria, em maio de 1961, a determinação
americana de começar programa com vistas a colocar o Homem na Lua.
Nove sondas (Rangers) foram enviadas (1961-1965) para estudar de perto
as condições de solo, sendo que as de número 5 (a primeira a atingir o
solo) e 7 tiveram êxito. Durante 1966-1967, cinco missões do satélite Lunar
Orbiter, destinadas à seleção das zonas de alunissagem da Missão Apollo,
procederam a um mapeamento fotográfico da superfície lunar.
O fracasso (com a morte dos tripulantes) no lançamento, em janeiro
de 1967, da Apollo I retardaria, por ano e meio, o lançamento da nave
seguinte, que receberia o número 7, o primeiro veículo tripulado. Como
testes finais foram lançados Apollo 9 (março de 1969) e Apollo 10 (maio
de 1969). Em 16 de julho de 1969, seria lançado o Apollo 11, que procedeu
à alunissagem no Mar da Tranquilidade, no dia 20 de julho, e à histórica
caminhada de Neil Armstrong, no dia 21 de julho; poucos minutos depois,
Edwin Aldrin juntou-se a Armstrong, e iniciaram, durante 2h e 10m, a coleta
de amostras, a instalação de uma antena de comunicação, uma câmera de
TV, um sismógrafo, um painel “aluminizado” para estudo da radiação solar
e um refletor de raios laser, o que permitiria calcular a distância do satélite
em 365.273.349 km. O terceiro astronauta dessa missão, Michael Collins,
permaneceria todo o tempo dentro da cabine da nave, cuja amerissagem, de
retorno, ocorreria no Oceano Pacífico, no dia 24 de julho. Mais seis Missões
Apollo seriam enviadas à Lua (nº 12 a 17), as quais recolheriam centenas de
quilos de amostras. Com o cancelamento das Apollos 18, 19 e 20, o programa
foi definitivamente abandonado pela NASA.
Em meados de 1994, a NASA lançou o pequeno satélite Clementine,
que mapeou, por dois meses, a Lua, o que seria feito novamente em 1999,
pela Luna Prospector, os quais procederam, igualmente, a levantamentos da
composição mineral do satélite da Terra. Em julho de 1999, seria enviada
uma Luna Prospector para procurar evidências de água, tendo achado
hidrogênio na região do Polo Sul – Aitken, prvavelmente resultante da
dissociação de gelo de água.
7.3.3.2.3 Cometas – Cinturão de Kuiper – Nuvem de Oort
Uma série de sondas e satélites seria lançada, a partir dos anos de
1970, com o objetivo de pesquisar os cometas, objeto de grande interesse
e curiosidade da comunidade astronômica, pelo desconhecimento de
um grande número de informações importantes sobre esses corpos
114
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
celestes, formados de gelo e poeira. Apesar do progresso realizado,
dados relevantes sobre origem e composição dos cometas, morfologia e
composição da superfície do núcleo, propriedades físicas e composição
química, continuam a escapar aos estudos.
Algumas missões enviadas ao Espaço foram específicas, para um
determinado cometa, enquanto outras se destinaram a um ou mais desses
corpos celestes. Abaixo estão relacionadas algumas dessas iniciativas.
Em agosto de 1978, foi lançado o satélite International Sun/Earth
Explorer 3 (ISEE-3) para monitorar o “vento solar” e o campo magnético da
Terra. Seu curso seria alterado para poder interceptar um cometa, no caso o
Giacobini-Zinner, razão da mudança do nome do satélite para International
Cometary Explorer (ICE). Durante 24 horas (11 de setembro de 1985), o ICE,
voando dentro da cauda do cometa, mediria ondas de rádio produzidas
por gases ionizados, o que seria a primeira observação de um cometa por
satélite. As naves soviéticas Vega 1 e Vega 2, lançadas em dezembro de 1984,
os satélites japoneses Suisei e Sakigake, o mencionado ICE e o Giotto, da
Agência Espacial Europeia, pesquisariam o cometa Halley, em março de
1986, quando de sua mais próxima passagem da Terra; o satélite a chegar
mais próximo do cometa foi o Giotto, a 596 km do núcleo. Os observatórios
orbitais Pioneer-Venus 2 (1978/92) e o International Ultraviolet Explorer (IUE)
participaram, igualmente, de pesquisas sobre o Halley.
Nos anos de 1990 foram lançados, pela NASA, o Ulysses, em
outubro de 1990, para observar cometas, sem especificar qualquer um;
o SOHO (dezembro de 1995), para estudar vários cometas; e o Stardust,
em fevereiro de 1999, com destino ao cometa Wild 2, o qual coletou, em
2004, poeira do cometa e fotografou seu núcleo gelado, e, posteriormente,
colheu material interestelar, que começou a ser analisado em 2006,
havendo grande expectativa, no meio científico, de que será possível
entender melhor a formação do Sistema Solar e o meio interestelar.
Além desses satélites, caberia mencionar a Missão Galileo,
operacional desde 1994, que estudaria o cometa Shoemaker-Levy 9 e
enviaria imagens do impacto do cometa SL9 em Júpiter; o Deep Space I,
lançado em outubro de 1998 (em órbita desde setembro de 2001), que
pesquisaria o cometa Borrely; e o Deep Impact, lançado em dezembro de 2004
(em órbita desde julho de 2005), que iniciou pesquisa do cometa Temple.
Em março de 2004, a Agência Espacial Europeia lançou o satélite Rosetta,
que deverá chegar, em 2014, ao cometa Churyumov-Gerasimenko; em
sua missão, Rosetta estudará principalmente o núcleo do cometa, estando
programado que entrará em órbita do cometa de forma a acompanhá-lo
em sua viagem em direção ao Sol.
115
CARLOS AUGUSTO DE PROENÇA ROSA
Como resultado direto da série de pesquisas para compreender
os cometas, foi possível comprovar, recentemente, duas teorias, de dois
astrônomos holandeses, Gerard Kuiper e Jan Hendrik Oort, que, além de
esclarecer a origem e fonte dos cometas de longo período, permitiriam
ampliar o conhecimento do Sistema Solar.
Gerard Peter Kuiper (1905-1973) estudou na Universidade
de Leiden, onde obteve seu doutorado em 1933, quando emigraria
para os EUA, onde trabalhou, inicialmente, no Observatório Lick, e,
posteriormente, nos Observatórios de Yerkes e MacDonald (Texas);
conferencista e professor, dirigiu, também, o Laboratório Planetário da
Universidade do Arizona. Kuiper investigou principalmente o Sistema
Solar, tendo descoberto o satélite Miranda (1948), de Urano, e Nereida
(1949), de Netuno; detectou evidências de metano (1944) no satélite Titã
de Saturno e de dióxido de carbono (1948) na atmosfera de Marte; Kuiper
participou, igualmente, de diversos projetos de pesquisa espacial, como
o programa Ranger (1961-65) para fotografar a Lua, e Mariner 10 (voos a
Vênus e Mercúrio). Embora a existência do Cinturão de Kuiper tenha sido
sugerida por Kenneth Edgeworth, em 1943, e por Gerard Kuiper em 1951,
sua confirmação se daria nos anos de 1990, com a descoberta do objeto
1992 QBI; hoje são conhecidos mais de 600, localizados após a órbita de
Netuno. A uma distância entre 6 e 12 bilhões km do Sol, esses pequenos
objetos celestes, gelados e cometários, de curto período, têm uma órbita de
mais de 250 anos ao redor do Sol, e sua origem provável remonta à época
da formação do Sistema Solar, quando não teriam podido se aglutinar na
forma de planeta.
Além do Cinturão de Kuiper encontra-se a imensa Nuvem de
Oort, que envolve o Sistema Solar. Jan Hendrik Oort (1900-1992) estudou
na Universidade de Groningen, com Jacobus Kaptein, onde defendeu
a tese para doutorado sobre As Estrelas de Alta Velocidade. Trabalhou na
Universidade de Leiden, desde 1924, tendo sido diretor do Observatório
da Universidade (1945-72), onde Ejnar Hertzprung era o Reitor; em
1924, descobriu o halo galáctico (grupo de estrelas em órbita, mas fora
do disco central da Via Láctea); calculou, em 1927, o centro da galáxia a
30 mil anos-luz do Sol, na direção de Sagitário; calculou a massa da Via
Láctea em 100 bilhões de vezes maior que a do Sol, e em 1927 confirmou
a teoria do astrônomo sueco Bertil Lindblad (1895-1965) sobre a rotação
da Via Láctea, pela análise do movimento das estrelas. Descobriu que a
luz da constelação do Caranguejo era polarizada. Entusiasta e pioneiro
da radioastronomia, obteve a construção, nos anos de 1950, de um
radiotelescópio em Dwingeloo para utilizar a emissão de rádio no
116
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
mapeamento da distribuição do hidrogênio no plano galáctico. Oort é
mais conhecido por sua teoria, sugerida nos anos 50, cuja versão atual
consiste em que, além do Cinturão de Kuiper, uma imensa nuvem de
cometas, hoje chamada de Nuvem de Oort, envolve o Sistema Solar. Após
a formação dos planetas externos, os cometas, que não se aglutinaram,
teriam sido espalhados pelos gigantes gasosos, alguns remetidos para o
disco da Via Láctea, outros para o interior do Sistema Solar, enquanto
os restantes formaram uma imensa nuvem, aproximadamente esférica,
estimada em cerca de um trilhão de cometas, apesar de sua massa ser
apenas de algumas massas terrestres.
7.3.3.2.4 Asteroides
Até 1990 as informações sobre os asteroides localizados
principalmente entre Marte e Júpiter eram obtidas por observações
terrestres. Em outubro de 1991, a nave Galileu tirou fotografias do
“951 Gaspra” (descoberto em 1916), e em agosto de 1993, de “243 Ida”
(descoberto em 1884), primeiros asteroides (ambos compostos por silicatos
ricos em metais) a terem fotos de alta resolução).
Em junho de 1997, a sonda NEAR (Near Earth Asteroid Rendezvous),
lançada em fevereiro de 1996, pesquisou o asteroide “253 Matilde” (descoberto
em 1885), rico em carbono; em fevereiro de 2001, após enviar 69 imagens do
Eros, a NEAR, como programado, finalizaria sua missão, ao se chocar com o
asteroide.
São conhecidos, hoje, apenas cem asteroides maiores que 200 km, e
há mais de 100 mil maiores que 20 km, e estimado um total de 1 bilhão com
mais de 2 km ao longo do eixo do chamado cinturão principal de asteroides.
Ceres, o primeiro asteroide descoberto, devido a seu tamanho (25% da
massa de todos os asteroides juntos), foi, recentemente, reclassificado como
planeta-anão.
7.3.4 Astronomia Estelar
Sob a denominação genérica de Astronomia estelar estão
incluídas a Astrometria e a Mecânica Celeste, ramos que haviam sido,
no passado, de grande interesse e prioridade para os astrônomos. As
investigações sobre o sistema estelar dominariam amplamente a atenção
dos pesquisadores no período atual, do que resultaria um extraordinário
117
CARLOS AUGUSTO DE PROENÇA ROSA
progresso no conhecimento sobre esses corpos celestes. O avanço na
técnica, a melhor qualidade dos aparelhos, a inovação da Astronomia do
espectro eletromagnético, a comprovação observacional de um Universo
em expansão, a dimensão extragaláctica, a repercussão na Cosmologia,
a descoberta de corpos celestes e o refinamento de teorias físicas e
cosmológicas dão o verdadeiro significado da importância das pesquisas
da Astronomia estelar, desde o início do século XX.
Apesar dos progressos realizados nos estudos teóricos e na
pesquisa observacional, não está completamente esclarecida a questão da
formação das estrelas. A falta de dados conclusivos mantém o assunto sob
debate. Radiações emitidas por galáxias fracas, cerca de 500 milhões de
anos após o Big Bang, conforme detectadas recentemente pelo Telescópio
Espacial Spitzer e o Very Large Telescope (VLT), indicam possíveis
precursores de massas condensadas existentes entre 100 e 300 milhões de
anos, os quais originariam as primeiras estrelas. Essas primeiras estrelas,
provavelmente muito grandes e quentes, seriam constituídas, quase que
exclusivamente, de hidrogênio e hélio (e mínimas quantidades de lítio e
deutério), que, durante suas vidas, e ao final delas, criaram, a partir da
fusão nuclear (nucleossíntese), e espalharam os novos elementos químicos
(carbono, oxigênio, silício, ferro, chumbo, fósforo e bário), mais pesados
que o lítio. As estrelas de segunda e terceira gerações, enriquecidas com os
novos elementos químicos, criariam novos elementos (neônio, nitrogênio),
os quais retornariam ao meio interestelar; interações entre galáxias e
varrimento de seu gás criariam novos elementos; com um bilhão de anos
após o Big Bang, já estariam criados todos os elementos constantes da
Tabela Periódica.
7.3.4.1 Astrometria. Catálogos
O conhecimento preciso da posição das estrelas foi uma constante
preocupação dos astrônomos, além de se tratar de uma tarefa complicada e
essencial para a Astronomia. A Astrometria se desenvolveria ao longo dos
séculos, alcançando, na atualidade, novo patamar de exatidão, com base nos
aperfeiçoamentos técnicos e novos métodos de cálculo. Até recentemente,
o instrumento usado para a determinação da posição das estrelas era o
círculo meridiano, que só se movia ao longo do meridiano astronômico do
local. Desde o início da segunda metade do século XX, seriam utilizados os
satélites para se obter, fora das perturbações da atmosfera da Terra, medidas
bem mais precisas do que as calculadas a partir do solo.
118
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Apesar de todas as dificuldades devido ao pioneirismo e restrições
de ordem técnica, desde Hiparco, o astrônomo grego que elaborou
o primeiro catálogo de estrelas (1080 no total), vários catálogos seriam
preparados com crescentes informações sobre as estrelas, como o de
Cláudio Ptolomeu, Johann Bayer (1603), em Uranometria, com 60 estrelas;
Johannes Hevelius (1690), com 67 estrelas; John Flamsteed (1725), em
Historia Coelestis Britannica; Nicolas Louis de Lacaille (1725); Charles
Messier (1784); Friedrich Wilhelm Argelander (1852-59), o mais completo
catálogo do período pré-fotografia; John Dreyer (1888, 1895, 1908)
intitulado New General Catalogue of Nebulae and Clusters of Stars (NGC),
até hoje principal referência de nomenclatura estelar, e seu suplemento
Index Catalogue (IC), de 1895 e 1908; Catálogo de Córdoba (1892), com 580
mil estrelas; e Catálogo Fotográfico do Cabo (1896), com 450 mil estrelas.
Publicados mais recentemente, podem ser citados o Catálogo Henry
Draper (1914-28), o primeiro a ser do tipo espectral; a Carte du Ciel, com
observações de 1891 a 1950; o Catálogo de Estrelas Brilhantes, de Yale (1930,
em quarta edição, revista, (de 1982); o Catálogo de Estrelas Duplas (1932); de
Robert Grant Aitken (1864-1951); o Catálogo de Estrelas Próximas (1969), de
Wilhelm Gliese (1915-1993); e o Catálogo Geral de Paralaxe Trigonométrica
(1952, revisto em 1995), de 8.112 estrelas, da Universidade de Yale.
Dentre os catálogos específicos sobre o movimento das estrelas,
podem ser citados o de Max Wolf (1863-1932), com 1.053 estrelas (1919-1929),
o de Frank Elmore Ross (1874-1960), do Observatório Yerkes, que, além de
descobridor de 240 asteroides, descobriu mais de 400 variáveis e mais de mil
estrelas de alto movimento próprio (1925-1939); e o de Willem Jacob Luyten
(1899-1994), que descobriu várias anãs brancas, publicado numa série de
catálogos, entre 1941 e 1981.
Em 1989, a Agência Espacial Europeia lançou o satélite denominado
HIPPARCOS, em homenagem ao astrônomo grego, com a missão de medir,
com a maior precisão possível, a posição de milhares de estrelas (gigantes,
anãs, variáveis, binárias e estrelas de raios-X). Durante três anos e meio,
HIPPARCOS colheu dados de 118 mil estrelas até uma magnitude limite
de 12,5 para determinar distâncias, luminosidades, massas, tamanhos e
idades. Os dados, reunidos no Catálogo Hipparcos, de junho de 1997, são os
mais precisos até agora obtidos; adicionalmente, seria editado o catálogo
Tycho Brahe, com dados de 1 milhão de estrelas até magnitude de 11,5.
O Observatório Naval de Washington, em cumprimento ao
programa de levantamento de dados sobre o maior número possível de
estrelas, publicaria, em 2002, o chamado USNO-A 2.0, que continha cerca
de 500 milhões de estrelas; em vista de o enorme material sobre a posição
119
CARLOS AUGUSTO DE PROENÇA ROSA
e movimentos desse número de estrelas não ser publicável, o único acesso
possível é pela Internet. Pouco depois, seria completado o USNO-B 1.0,
que contém posição, movimento próprio e magnitude de mais de um
bilhão de objetos.
Paralelamente, o USNO elaboraria o UCAC (Catálogo
Astrográfico), iniciado em 1998, e recentemente concluído. Em julho de
2003, foi publicado o UCAC 2, segundo catálogo provisório, com cerca de
50 milhões de estrelas (o catálogo está disponível em CD).
O grande aumento da capacidade visual de observação, em
função dos aperfeiçoamentos dos telescópios resultaria, já nos anos de
1920, na ampliação de poucos milhares a milhões do número de estrelas
observáveis; ao mesmo tempo, várias estrelas tinham vários nomes,
dependendo do astrônomo ou do catálogo (Bayer, Flamsteed, Dreyer,
Harvard, Bonn); a estrela Vega tem, por exemplo, quarenta outras
designações. A situação se tornaria caótica, pela própria dificuldade de
se chegar a um acordo sobre o nome, em latim ou grego, como era de
praxe, para denominar as novas estrelas. Em 1925, a União Astronômica
Internacional estabeleceria a divisão do céu em 88 constelações, todas com
nomes padronizados, em latim, e faria recomendações específicas para a
padronização da nomenclatura das estrelas.
7.3.4.1.1 Distância e Classificação das Estrelas
A questão da diferença de brilho e cor das estrelas intrigava os
astrônomos, que estudavam os meios e modos de estabelecer uma
classificação válida, baseada nas bandas e linhas escuras do espectro estelar.
O trabalho pioneiro de três astrônomas americanas seria fundamental
para o futuro desenvolvimento do assunto. Integrantes da famosa equipe
feminina do Observatório da Universidade de Harvard, dirigido por
Edward Pickering (1846-1919), Antonia Caetana Paiva Pereira Maury
(1866-1952), encarregada de classificar as estrelas do hemisfério norte,
apresentaria, em 1897, no catálogo Spectra of Bright Stars photographed...,
uma classificação de estrelas (A, B, C) recusada por Pickering, o mesmo
ocorrendo com trabalho de Annie Jump Cannon (1863-1941) que, em
1882, aperfeiçoou a espectroscopia, e apresentaria uma nova classificação,
baseada na temperatura da superfície, em sete tipos (O, B, A, F, G, K, M,),
cada um subdividido em dez subtipos. Nessa classificação, as estrelas
seguiam a ordem do espectro eletromagnético, indo do azul (estrelas do
tipo O) até o vermelho (estrelas do tipo M); com essa classificação, Cannon
120
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
organizaria o Catálogo Henry Draper (1918-1924), com o tipo espectral de
mais de 200 mil estrelas43.
Henrietta Leavitt (1868-1921), analisando uma série de
fotografias tiradas das Pequenas Nuvens de Magalhães (hoje galáxia),
no Observatório de Harvard em Arequipa (Peru), detectaria, em 1908,
1.770 estrelas variáveis, algumas conhecidas como “variáveis cefeidas”.
Dada a regularidade da variação da luminosidade das cefeidas, concluiria
Leavitt que a luminosidade observada estava relacionada com a pulsação.
A grande importância do trabalho de Leavitt permitiria estabelecer os
meios para a determinação das distâncias cósmicas com bastante precisão,
o que seria imediatamente utilizado por Hertzsprung, Shapley e Baade.
Ejnar Hertzsprung (1873-1967), Medalha Bruce, astrônomo do
Observatório da Universidade de Copenhague, especialista na técnica da
fotografia astronômica, se dedicaria a medir as distâncias entre as estrelas.
Após minuciosos estudos, efetuados nos primeiros anos do século XX, da
magnitude absoluta e tipos espectrais, concluiu que os brilhos das estrelas
estavam em relação com seu espectro e sua temperatura: as estrelas azuis
eram mais luminosas e mais quentes que as vermelhas, cujas luminosidades
eram desiguais. Nesses estudos, examinou as estrelas classificadas por
Antonia Maury, demonstrando que as de raias de absorção forte e nítida
eram intrinsecamente mais luminosas que as outras44. Dessa forma,
haveria estrelas gigantes vermelhas e anãs vermelhas. Observou, ainda,
que as estrelas mais luminosas seriam maiores, pois deveriam ter mais
superfície lateral. De posse da luminosidade intrínseca, podia comparar
com o brilho aparente no céu e calcular sua distância. Nesses trabalhos de
1905 e 1907, Hertzprung desenvolveria tabela em que apareciam número
de estrelas, magnitude, movimento próprio, cor e tipo espectral, utilizando
a classificação proposta por Maury. Em 1906, usando a relação brilho/cor,
mostrou que a estrela Arcturus tinha um tamanho físico igual ao diâmetro
da órbita de Marte.
Como seus trabalhos (Sobre a Radiação das Estrelas) não foram
publicados numa revista científica, mas de divulgação fotográfica, não
houve repercussão no meio astronômico das conclusões de Hertzsprung
sobre relação cor/brilho das estrelas, a não ser por Karl Schwarzschild
(1873-1916), diretor do Observatório de Potsdam, que o convidou para
integrar a equipe daquela instituição; o astrônomo alemão publicara, em
1906, um artigo sobre o processo de transmissão de energia pela estrela,
que era devido a mecanismo de radiação.
43 44 PANNEKOEK, Anton. A History of Astronomy.
VERDET, Jean-Pierre. Uma História da Astronomia.
121
CARLOS AUGUSTO DE PROENÇA ROSA
Desde 1908, Henrietta Leavitt estudava as estrelas variáveis
pulsantes, cujos períodos, relativamente curtos, vão de 2 a 150 dias, notando
que, quanto maior o período, mais brilhantes se tornavam as estrelas; em
1912, publicaria artigo em que relacionaria, matematicamente, o período à
magnitude aparente. Como as cefeidas (variáveis) da Pequena Nuvem de
Magalhães podiam ser consideradas estando à mesma distância da Terra,
Leavitt passou a conhecer a magnitude absoluta daquelas estrelas, isto é, a
distância, desde que calibrasse a relação a partir de uma cefeida próxima,
cuja magnitude absoluta fosse possível calcular; conhecida a magnitude
absoluta de uma cefeida, estava conhecida a magnitude absoluta de
qualquer outra cefeida. Leavitt não prosseguiria, contudo, na pesquisa,
encarregada que foi por Pickering de outra tarefa45.
Conhecendo o trabalho de Henrietta Leavitt, Hertzsprung
retomaria o assunto. Imaginando que as distâncias de certas variáveis
pudessem ser determinadas por um estudo estatístico de seu movimento
próprio, Hertzsprung as usou para avaliar, em 1913, as distâncias das
cefeidas da Pequena Nuvem de Magalhães; ainda que a estimativa (190
mil anos-luz) tenha sido bastante menor que a calculada hoje em dia, o
cálculo apresentado por Hertzsprung já mostrava enorme distâncias das
estrelas, o que indicava uma nova dimensão para o Universo46.
Nessa mesma época, o astrônomo americano Henry Norris Russell
(1877-1957), Medalha Bruce, estudava a determinação da paralaxe estelar
mediante métodos fotográficos, desenvolvendo método semelhante ao do
astrônomo dinamarquês; publicaria, em 1914, no Popular Astronomy e na revista
Nature, um gráfico, conhecido hoje como diagrama Hertzsprung-Russell ou
HR, em que classificava as estrelas numa progressão – sequência principal –
-que variava das brilhantes estrelas azuis às obscuras estrelas vermelhas47.
Ainda em 1914, Harlow Shapley (1885-1972) iniciaria o
monitoramento, no Observatório do Monte Wilson, das pulsações
das cefeidas; estabeleceria a distância dessas estrelas, quantificaria a
descoberta de Leavitt e publicaria artigo no Astrophysical Journal, no qual
analisaria a causa dessa variação de luminosidade, o que viria a contribuir
para o futuro esclarecimento da evolução da vida das estrelas.
O trabalho de Shapley suscitaria famoso debate organizado,
em 1920, pela Academia Nacional de Ciências, de Washington, em que
Heber Curtis (1872-1942), do Observatório Lick, estudioso das nebulosas
espiraladas e convencido de que se tratava de sistemas isolados de estrelas
VERDET, Jean-Pierre. Uma História da Astronomia.
GRIBBIN, John. Science, a History.
47 RONAN, Colin. História Ilustrada da Ciência.
45 46 122
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
independentes, defenderia que o brilho da “nova” (depois identificada
como “supernova”) observada em 1917, indicava tratar-se de nebulosa
além da Via Láctea; seu cálculo para a nebulosa Andrômeda foi de 500 mil
anos-luz. Curtis contestava as cefeidas como padrão de medição, recusava
o cálculo, como exagerado, de 300 mil anos-luz para o diâmetro da Via
Láctea, insistia, erradamente, que o Sistema Solar se encontrava no centro
da Galáxia e argumentava estar a nebulosa Andrômeda fora da nossa
Galáxia48 (a comprovação viria em 1924, por Edwin Hubble).
Dos estudos sobre a composição das estrelas, menção especial
deve ser feita à famosa monografia Atmosferas Estelares (1925), de Cecilia
Payne-Gaposchkin (1900-1979), na qual demonstrou, por análise espectral,
abundância de elementos químicos, principalmente hidrogênio e hélio,
nas atmosferas das estrelas.
7.3.4.2 Energia das Estrelas
Diretamente vinculado à questão da evolução das estrelas, estava
o problema da fonte de energia estelar, tema de ampla discussão entre os
astrofísicos no início dos anos de 1920. O que faria uma estrela branca,
amarela ou vermelha brilhar? A resposta a esse mistério seria dada
por Einstein, em sua famosa Equação E = MC2, pela qual massa pode
ser convertida em energia, e vice-versa. A questão seria equacionada
com a obra do inglês Arthur Stanley Eddington (1882-1944), Medalha
Bruce, estudioso da estrutura interna das estrelas, autor de The Internal
Constitution of Stars (1926), em que sustentaria a tese de que a produção
de Energia nuclear era a fonte de força de todas as estrelas. Segundo
Eddington, as estrelas se mantinham em equilíbrio pela conjunção de
três forças, que se anulavam: a da gravidade, a da pressão do gás e da
pressão da radiação, sustentando, igualmente, que a energia do calor era
transportada do centro para a periferia das estrelas, não pela convecção,
mas pela radiação, como já defendera Hertzsprung. Eddington verificou,
ainda, ser o hidrogênio o principal constituinte das estrelas, e calculou
sua quantidade. O astrônomo inglês traria outra importante contribuição
para o conhecimento das estrelas, ao estabelecer, em 1924, a relação
massa/luminosidade, isto é, quanto mais massa, mais luminosa a estrela.
Eddington se celebraria, também, como grande divulgador da obra de
Einstein e por ter comprovado a Teoria da Relatividade, assunto a ser
tratado no item sobre a Expansão do Universo.
48 CRUMP, Thomas. A Brief History of Science.
123
CARLOS AUGUSTO DE PROENÇA ROSA
Em 1929, George Gamow (1904-1968), que teria enorme influência
com a teoria do Big Bang, proporia que a produção de energia das estrelas
era pelo processo da fusão nuclear, sendo que não explodiam como
bombas por causa do equilíbrio entre a pressão da radiação emanada
pela estrela e a força da gravidade que puxa o gás para o interior da
estrela. A fusão nuclear do Sol é conhecida como cadeia próton-próton,
em que átomos de hidrogênio são convertidos em átomos de hélio. Como
a energia desprendida nessa cadeia não é suficiente para explicar a de
estrelas de mais massa que o Sol, como as estrelas gigantes vermelhas,
uma explicação mais completa seria dada, em 1938, por Hans Bethe
(1906-2005), com a introdução do ciclo carbono-nitrogênio-oxigênio,
conjunto de reações mais energéticas. A questão está ainda em aberto,
pois são insuficientes os dados disponíveis, no momento, para responder
a todas as dúvidas e incertezas.
7.3.4.3 Pulsares/Estrelas de Nêutron
Sob a supervisão do astrônomo Antony Hewish (1924, PNF1974), professor na Universidade de Cambridge, a estudante de
doutorado Jocelyn Bell Burnell (1943) pesquisava, em 1967, o meio
interestelar, quando, inesperadamente, detectou pequenas, mas
rápidas e regulares, variações em sinais de rádio, no caso, resultantes
de explosões de radiação eletromagnética; tais pulsos, repetidos a cada
1,3 segundo, indicavam tratar-se de vibração ou rotação de um objeto
de reduzida dimensão (menos de 150 km de diâmetro). A existência
de tal tipo de corpo celeste já havia sido objeto de conjecturas teóricas
da parte de alguns astrofísicos; assim, Alfred Fowler (1868-1940),
especialista em espectroscopia solar e estelar, sugeriu, em 1926, a
existência de estrelas superdensas; o russo Lev Landau (1908-1968),
em 1932 esboçou um modelo de estrutura de tal estrela; e o suíço-americano Fritz Zwicky (1898-1974), em 1934 previu, ao explodir
uma supernova, que o núcleo de uma estrela poderia comprimir-se
e poderia formar uma estrela desse tipo, de 40% de massa maior que
a do Sol, num diâmetro de apenas 20 km. Pouco depois do anúncio
da descoberta de Jocelyn Bell, o astrônomo austríaco Thomas Gold
(1920-2004) identificaria tais pulsos como originários de uma estrela
de nêutron em rotação, emitindo ondas de rádio.
Tais pulsares, também conhecidas como estrelas de nêutron (um
cubo de 1 cm de lado desta matéria pesa 100 milhões de toneladas),
124
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
se acham no limite da densidade a que pode chegar a matéria, antes
de se transformar em buraco negro; seu campo gravitacional atinge até
1 (um) bilhão de vezes o campo gravitacional terrestre. A luz emitida
pelos pulsares, por ser tão pequena no espectro eletromagnético, não
pode ser observada a olho nu, mas somente pelo radiotelescópio.
Mais de mil pulsares já foram descobertos na Via Láctea, sendo que
alguns alcançam 600 voltas sobre seu eixo por segundo, o que significa
sua superfície rodar a 36 mil km por segundo; ao mesmo tempo, a
regularidade de seu pulso chega a ser mais precisa que a de um relógio
eletrônico, o que leva alguns a admitir alguns pulsares como padrão
para medir o tempo. Foram descobertos pulsares com mais de mil
pulsos por segundo.
A descoberta de Jocelyn Bell Burnell seria anunciada em 1968,
no entanto, por Antony Hewish, que receberia todas as homenagens da
comunidade científica; só bem mais tarde haveria o reconhecimento pelo
trabalho pioneiro da então estudante.
A descoberta de pulsares binários se deve a Russell A. Hulse
(1950) e Joseph H. Taylor Jr, ambos da Universidade de Massachussets,
que, desde 1974, iniciaram um levantamento sistemático de estrelas de
nêutron pelo radiotelescópio de Arecibo, tendo encontrado 40 pulsares,
dentre eles o PSR 1913+16 (o número indica sua posição no céu: 19 horas
e 13 minutos de longitude e uma declinação de 16 graus). A fonte emitia
aproximadamente 17 pulsos por segundo, porém seu período mudava em
80 microssegundos de um dia para outro, alteração claramente percebida
devido à grande regularidade dos pulsares. Hulse e Taylor concluiriam
tratar-se de um sistema binário, em que PSR 1913+16 deveria orbitar uma
estrela companheira. Por essa descoberta, Hulse e Taylor receberiam, em
1993, o Prêmio Nobel de Física (PNF). Outro pulsar binário (PSR 1257+12)
seria encontrado pelo polonês Aleksander Wolszsan em 1991.
Uma equipe de cientistas britânicos, americanos, australianos,
italianos e indianos, sob a liderança do Observatório de Jodrell Bank
(Inglaterra), descobriria, em 2005, sistema binário de pulsares. As massas
das duas estrelas de nêutron são maiores que a do Sol, mas seus diâmetros
são de 20 km, e sua separação orbital é inferior ao tamanho do Sol.
Milhares de pulsares já foram descobertos e catalogados até a data,
mas a título exemplificativo são citados PSR 1919+21, PSR B1937+21, PSR
J0737-3039, SGR 1806-20, PSR B1620-26, PSR B1257, PSR 1913+167, PSR
J1921+2153. As letras PSR são as iniciais, em inglês, para Pulsating Source
of Radio.
125
CARLOS AUGUSTO DE PROENÇA ROSA
7.3.4.4 Planetas Extrassolares ou Exoplanetas
Com o avanço no conhecimento do sistema estelar, uma dúvida
se tornaria cada vez mais presente nas especulações astronômicas. Seria
o Sol a única estrela a contar com um sistema planetário? Estimando-se,
atualmente, o número de galáxias em 50 bilhões, e em trilhões o número das
estrelas, seria razoável prever que, em algum momento, provavelmente
viriam a ser descobertos planetas em órbita ao redor de algumas estrelas.
Em 1916, o americano Edward Emerson Barnard (1857-1923),
primeiro astrônomo, depois de Galileu, a identificar um satélite (Amalteia)
de Júpiter, descobriria uma estrela vermelha com um pronunciado
movimento aparente de 10,3 segundos de arco por ano, o que significava
percorrer o diâmetro da Lua em 180 anos. A estrela seria batizada de
“estrela fugitiva de Barnard”, sendo sua velocidade explicada por estar
bem próxima (5,95 anos-luz) do Sistema Solar. Durante anos – de 1938
a 1969 –, o astrônomo Peter van de Kamp (1901-1995), do Observatório
Sproul, examinaria milhares de fotografias da estrela Barnard, concluindo
que seu movimento era devido a dois corpos em órbita ao seu redor,
um em translação de 22 anos, e o outro, de 11,5 anos, especificando, em
1982, que as órbitas eram circulares. Pesquisas efetuadas nos anos 1970
e 1980, por outros astrônomos, não confirmariam o achado de Kamp,
presumindo-se que tenha havido problemas com as lentes do telescópio
usado pelo astrônomo holandês.
A pesquisa por planetas extrassolares (também chamados de
exoplanetas) prosseguiria, apesar do fracasso, até recentemente, de um
resultado positivo pela observação astronômica direta, ou seja, por meio
de um telescópio ou fotografia. A técnica mais utilizada para presumir
a presença de um corpo celeste (planeta) em órbita de uma estrela tem
sido a da medição da sua velocidade radial, pela qual se pode medir a
perturbação de seu movimento, o que indicaria a presença de um planeta,
ou seja, observar perturbações no movimento da estrela causadas pela
força da gravidade dos corpos a seu redor. Outra técnica consiste em
registrar variações no brilho da estrela, o que indicaria a passagem de um
planeta entre a estrela e a Terra. A massa desses corpos celestes gigantes
descobertos até agora se situa entre 5 e 15 vezes a de Júpiter.
Em 1995, os astrônomos suíços Michel Mayor (1942) e Didier
Queluz (1966) anunciaram ter descoberto um planeta gasoso, sem água,
com temperatura da ordem de 1000° C, metade do peso de Júpiter, em
órbita circular de 4,23 dias na estrela Pégaso 51, a uma distância de 45 anos-luz da Terra. Determinado por medição de velocidade radial, o planeta
126
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
já foi confirmado por pesquisas de outros astrônomos, e divulgado, no
mesmo ano de 1995, por circular da União Astronômica Internacional e
pela revista Nature.
A partir dessa descoberta se intensificariam, principalmente com
o apoio da NASA e da Agência Espacial Europeia, as pesquisas para a
descoberta de outros planetas, que, seguramente, deveriam existir nas
órbitas de estrelas (cerca de três mil) mais próximas da Terra. Essas
investigações têm sido bem-sucedidas, tanto que nos últimos dez anos,
cerca de 400 planetas extrassolares já foram detectados, graças a novas
técnicas, como a de novo instrumento de interferometria, capaz de medir
com grande precisão a velocidade da estrela e o processamento de imagens
por computador.
Em março de 2005 a NASA informaria ter captado, pela primeira
vez, de forma direta, a luz infravermelha de dois planetas extrassolares,
de grande massa e temperatura de 720° C, o que seria considerado, pela
Agência americana, como uma “nova era na ciência planetária”. O feito foi
realizado pelo telescópio espacial Spitzer, que continuará tais pesquisas nos
próximos anos. Observatórios terrestres, como Lick, Keck, La Silla e Anglo-Australianos têm sido muito ativos nessas investigações. Ainda em 2005,
o Observatório do Sul Europeu (nos Andes chileno) conseguiu fotografar,
pela primeira vez, o exoplaneta, duas vezes o tamanho de Júpiter e a uma
distância de 400 anos-luz, que orbita a estrela QG Lupi em 1200 anos.
Em 2002, foi descoberto o centésimo exoplaneta, do tamanho
aproximado de Júpiter, que orbita a estrela HD 2039 em 1210 dias. Seria
ocioso relacionar todos os exoplanetas conhecidos (cerca de 200), porém,
serão mencionadas, a seguir, algumas estrelas com planetas em órbita, já
confirmados:
i) com dois ou mais planetas: 14 Herculis, 47 Ursae Majoris,
55 Cancri A, Gliese 777 A, Gliese 876, Upsilon Andromedae
A, e os HD 12661, 37124, 38829, 74156, 82943, 128311 e 168443;
ii) com um planeta: 79 Ceti, Gliese 436, Pegaso 51, TAO Bootis,
23 Libra, OGLE-TR-10, OGLE-TR-113, Epsilon Eridani, Epsilon
Reticuli A, QG Lupi, RHO Coronae Borealis e os HD 4308,
49674, 102117, 76700 e 46375.
Em 1991, no Observatório de Arecibo, o polonês Aleksander
Wolszczan (1946) descobriria três planetas orbitando o pulsar PSR 1257+12,
com massas de 4,3, 2,8 e 0,0004 vezes a massa da Terra, e a uma distância
da Terra, respectivamente, de 0,36, 0,48 e 2,7 UA. Essa descoberta seria, na
127
CARLOS AUGUSTO DE PROENÇA ROSA
verdade, a primeira de um sistema planetário fora do Sistema Solar. Um
planeta com massa de 2,5 vezes a de Júpiter, em órbita do pulsar binário
PSR B1620-26, foi, igualmente, confirmado. Há, ainda, dúvidas sobre os
alegados planetas dos pulsares PSR B0329+54 e PSR B1828-10.
7.3.4.5 Anãs Marrons
As anãs marrons são corpos celestes intermediários entre planetas
gigantes gasosos e estrelas, que podem ser definidas como estrelas que não
possuem massa suficiente (apenas de 13 a 75 vezes a massa de Júpiter) para
efetuar reações nucleares, que transformam hidrogênio em hélio, mas só
algumas conseguem realizar a fusão de deutério e de lítio; em consequência,
não criam suficiente energia para brilhar como uma estrela, ainda que
produzam uma luminosidade fraca avermelhada. Maiores e mais pesadas
que os planetas gigantes gasosos são elas, contudo, bem menores e menos
maciças que as estrelas; suas temperaturas atingem de 1000 a 3400 K.
Desde os anos de 1960 que os astrônomos especulavam que o
mesmo processo de formação de uma estrela (contração gravitacional a
partir de nuvens de gás e de poeira) poderia criar outros objetos celestes
menores, que, de massa inferior à metade da do Sol, eram chamados
de anãs vermelhas. Ainda nessa fase, a astrofísica Jill C. Tarter (1944),
pesquisadora do Centro de Pesquisa de Inteligência Extraterrestre (SETI),
sugeriria para esse hipotético corpo a denominação de anã marrom.
Dada sua fraca luminosidade, a busca por tal corpo celeste foi
demorada e muito difícil. Em 1992 seria desenvolvido um novo método,
chamado de teste do lítio, para ajudar a diferençar as estrelas de baixa
massa das anãs marrons. Todas as estrelas destroem o lítio em seus
núcleos. Como as anãs marrons não atingem a temperatura necessária
para destruir seu lítio, este elemento permanece para sempre no núcleo, o
que passaria a servir para distingui-la de uma estrela.
Utilizando telescópio Keck de 10 metros, em Mauna Kea, o grupo
de astrofísicos, composto por Gibor Basri (1951), James R. Graham e
Geoffrey Marcy (1954), detectaria, no aglomerado das Plêiades, no
chamado PPI 15, lítio num objeto em que sua presença implicava massa
subestelar e idade de 120 milhões de anos. A descoberta foi anunciada
em junho de 1995, em reunião da Sociedade Astronômica Americana.
Ainda em 1995, duas outras anãs marrons, na Plêiade, Teide 1 e Calar
3 (ambas com massas inferiores a 60 massas de Júpiter e temperatura
entre 2.600 e 2.800 K), seriam descobertas pelos astrofísicos espanhóis
128
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
do Instituto de Astrofísica das ilhas Canárias, Rafael Rebolo (1961),
Eduardo Martin e Antonio Margazzú. Em outubro de 1995, um grupo do
Instituto de Tecnologia da Califórnia e da Universidade John Hopkins
anunciou a descoberta de GI 229B, a companheira anã marrom da estrela
anã vermelha GL 229A, da constelação Lepus, a 19 anos-luz da Terra.
Detectada no ano anterior, mas cujo anúncio aguardou o resultado da
análise do espectro infravermelho do objeto, a estrela marrom GI 229B
tem de 30 a 40 massas da de Júpiter, raio de 65 mil km, cerca de 1000 K
de temperatura, e idade entre 2 e 4 bilhões de anos.
Ainda que descobertas recentemente, o número de anãs marrons
deve ser bastante elevado, segundo muitos astrônomos, acreditando
alguns que possam existir cerca de 100 bilhões delas só na Via Láctea.
A descoberta da presença de corpos, como os planetas extrassolares e as
anãs marrons, em órbita ao redor de estrelas, constitui desenvolvimento bastante
recente, mas o interesse despertado no meio científico faz prever significativa
ampliação, nos próximos decênios, do conhecimento sobre o assunto.
7.3.4.6 Meio Interestelar
Era aceito pelos astrônomos do século XIX que o espaço entre as
estrelas, ou meio interestelar, era vazio. Ainda que no início do século
XX alguns astrônomos aventassem a hipótese da existência de matéria de
dimensão extremamente reduzida e difícil de ser observada, seria possível,
a partir dos anos 60, através da radioastronomia, detectar o que viria a
ser conhecido como “matéria interestelar”, cuja maior parte é “invisível”.
Trata-se, na realidade, de matéria e radiação dispersas entre estrelas,
dentro e fora das galáxias: hidrogênio neutro (HI), hidrogênio ionizado
(HII), gás molecular (H2), grãos de poeira (de carbono e/ou silício), raios
cósmicos, campos de radiação de várias frequências, campos magnéticos, e
restos de supernovas. A matéria, como poeira e gás, corresponde a apenas
5% da massa de estrelas visíveis da Via Láctea; o gás (90% hidrogênio,
9% hélio e 1% de elementos mais pesados que o hélio) representa 99% da
matéria interestelar que preenche o espaço interestelar.
7.3.4.7 Buracos Negros
A ideia de que a luz poderia ser atraída por ação gravitacional foi
sugerida pelo geólogo inglês John Mitchell (1724-1793), estudada pelo
129
CARLOS AUGUSTO DE PROENÇA ROSA
matemático e astrônomo Pierre Simon Laplace (1749-1827), retomada por
Albert Einstein (1879-1955), em sua Teoria geral da relatividade (1915),
comprovada durante um eclipse total do Sol, no Brasil (Ceará), em 1919, e
postulada, em 1916, por Karl Schwarzschild (1873-1916).
Buracos negros são objetos cósmicos, ou uma região do Espaço,
extremamente compactos, cuja gravidade é tão grande que não deixa
escapar nem a luz; ou seja, corpo que produz um campo gravitacional
suficientemente forte para ter uma velocidade de escape superior à
velocidade da luz. O campo seria teoricamente produzido por grandes
quantidades de matéria ou de matéria com altíssimas densidades. O buraco
negro se forma quando uma estrela com mais de cinco vezes a massa
do Sol esgota sua Energia nuclear, a pressão e o calor já não impedem
a contração do núcleo devida à gravidade e as camadas externas de gás
são expelidas numa explosão de supernova. O núcleo da estrela “colapsa”
numa estrela de nêutron superdensa, ou buraco negro, onde até o núcleo
atômico é comprimido; a densidade da energia vai ao infinito e o tamanho
indefinidamente pequeno, o que corresponde à chamada “singularidade”
(volume tende a zero). Nesse ponto, se observam os efeitos da Teoria
geral da relatividade, em que o Espaço se curva na vizinhança da matéria;
quanto maior a concentração da matéria, maior a curvatura. Quando
uma estrela atinge este mínimo tamanho determinado por sua massa,
a curvatura do Espaço fecha o contato com o mundo exterior. O campo
gravitacional termina no que é chamado de “horizonte de evento”, e seu
raio é chamado de “raio Schwarzschild”, astrofísico alemão que sustentara
a existência de corpos celestes “colapsados” que não emitiriam radiação,
com base na Teoria geral da relatividade, de Einstein.
Por isto, os buracos negros não são visíveis, não podem ser
observados, sendo sua existência uma possibilidade teórica, contestada,
inclusive por muitos astrônomos, embora em número cada vez menor.
Somente na década de 70, surgiriam evidências indiretas de sua existência,
através da observação de sua vizinhança ou de seus efeitos sobre os
corpos vizinhos, como, por exemplo, a constatação de movimento orbital
de nuvens de gás e poeira.
O nome foi criado em 1967, pelo físico John Archibald Wheeler
(1911), professor, então, da Universidade de Princeton, com referência
à última fase de uma estrela em colapso gravitacional. São “buracos”
porque coisas podem cair dentro dele, mas não podem sair; negros,
porque não emitem luz e nenhuma outra radiação eletromagnética
conhecida. A observação de tais objetos é, por conseguinte,
necessariamente indireta.
130
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Apesar de ser admitido existirem buracos negros em número muito
elevado, até o momento poucos foram detectados: o primeiro, em 1971,
em Cygnus X-1; posteriormente, o telescópio Hubble (1994) descobriu, na
constelação de Virgo, dois grandes buracos negros, um na galáxia M87
(NGC4486), equivalente a três bilhões de massas solares, e outro na Via
Láctea, conhecido como GRO J1655-40; o Macho Alert System detectou,
em 1996, o buraco negro “Macho96”, que seria confirmado pela análise
de dados fornecidos pelo Hubble; em 2002, evidência de um sistema
binário de buraco negro, um orbitando o outro a uma distância de três
mil anos-luz, foi observada na galáxia NGC6240, pelo Observatório de
Raios-X Chandra. Atualmente, a possibilidade de buracos negros é aceita
nas galáxias, entre outras, NGC3379 (M105), NGC3377, NGC3379, M31,
NGC4594, NGC3115 e NGC4486B.
O físico inglês Stephen Hawking (1942) sugeriu que os buracos
negros podem ter surgido, também, em qualquer outra concentração de
matéria, como o núcleo de uma galáxia, ou sido gerados no Big Bang, que
poderiam emitir energia na forma de partículas subatômicas, reduzindo,
assim, sua massa, e desaparecendo, depois de algum tempo, ao contrário
dos mais maciços. Esses miniburacos negros, por seu ínfimo tamanho,
obedeceriam, também, às leis da Mecânica quântica.
Apesar das intensas pesquisas, os buracos negros permanecem
um mistério cuja elucidação requererá ainda muito estudo teórico e muita
investigação nos próximos anos. O progresso alcançado recentemente
permite uma razoável dose de otimismo quanto aos resultados futuros
dessas pesquisas.
7.3.5 Astronomia Galáctica
Pode-se considerar que a chamada Astronomia galáctica começa
com Edwin Hubble. Até o início dos anos de 1920, o entendimento
generalizado no círculo astronômico era o de a Via Láctea ser o limite do
Universo, isto é, as estrelas e nebulosas seriam parte de uma grande ilha
em forma de disco no Espaço. Observações astronômicas, desde o século
XVIII, indicavam, além das estrelas, a existência de outros corpos celestes,
extensos e difusos, os quais viriam a ser denominados de nebulosas; o
famoso Catálogo de Nebulosas e Aglomerados de Estrelas (1774, 1784), de
Charles Messier (1730-1818), não distinguia os diversos objetos celestes
listados (103); poucos cientistas e intelectuais admitiriam, no século XVIII,
que alguns desses objetos poderiam ser estrelas (Kant, Thomas Wright).
131
CARLOS AUGUSTO DE PROENÇA ROSA
O grande progresso na observação astronômica, no século XIX,
lançaria algumas luzes sobre a questão, como as imagens obtidas por
William Parsons (1800-1867), que mostravam galáxias (M33, M51, M101)
com estruturas distintas das nebulosas, e os trabalhos de William Huggins
(1824-1910), em espectroscopia, que revelaram terem algumas nebulosas
(as galáxias) espectro distinto do das nebulosas normais. Apesar das
evidências de que vários desses corpos celestes eram distintos das
nebulosas, a questão continuava em aberto, uma vez que permaneciam
dúvidas sobre as estruturas e composição desses corpos celestes; o NGC
(1890) de John Dreyer (1852-1926) contém 7.840 objetos, dos quais 3.200
galáxias, e do IC (1895-1910), com 5.836 objetos, constam 2.400 galáxias.
No início do século XX, cerca de 15 mil nebulosas estavam catalogadas,
algumas como aglomerados de estrelas, outras como objetos gasosos.
Vesto Slipher (1875-1969), do Observatório Lowell, em Flagstaff,
Arizona, que utilizara a espectroscopia para investigar a periodicidade
da rotação dos planetas e a existência de poeira e gás interestelar, foi
o primeiro a detectar a mudança das linhas do espectro das galáxias,
o que significa ter sido o descobridor das linhas com o desvio para o
vermelho (redshift) no espectro de M104; o valor do redshift significava
uma velocidade de recessão de 3,6 milhões de km/h, alta demais para
que esse corpo celeste pudesse estar localizado na Via Láctea, mas não
tirou nenhuma conclusão deste fato até então desconhecido. Em 1917,
foi instalado, no Observatório do Monte Wilson, telescópio de 2,5 m de
diâmetro, que permitiria fotografar estrelas até 500 milhões de anos-luz
de distância da Terra. Em abril de 1920, aconteceria o célebre debate entre
Harlow Shapley (1885-1972), do Observatório do Monte Wilson, que
sustentava serem tais corpos celestes, nebulosas espirais, parte de uma
imensa Via Láctea, com o Sol bastante distante do centro da galáxia, e
Heber Curtis (1872-1942), do Observatório Lick, que defendia serem tais
objetos extragalácticos, pelo que a Via Láctea não seria a única galáxia,
mas em seu modelo o Sol estaria próximo do centro da galáxia; essa
controvérsia implicava, inclusive, a questão básica da dimensão cósmica;
o debate foi inconclusivo.
Em 1923, Edwin Hubble passaria a utilizar esse novo e possante
telescópio do Observatório do Monte Wilson para estudar as explosões
de “novas” na nebulosa espiral Andrômeda (M31), a fim de, na base da
diferença entre a luminosidade aparente das “novas” em Andrômeda e
na Via Láctea, determinar a distância relativa entre esses dois grupos de
estrelas. Ao descobrir, em 1923, que uma das estrelas observadas seria
uma variável pulsante cefeida, Hubble passaria a usar as pulsações da
132
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
estrela e a relação estabelecida por Henrietta Leavitt para medir distâncias.
Segundo seus cálculos, a cefeida de período de 31 dias deveria estar a cerca
de 1 milhão de anos-luz da Terra, pelo que a nebulosa espiral Andrômeda
estaria a uma distância três vezes maior que o próprio tamanho da Via
Láctea49. Em 1924, uma série de placas fotográficas confirmaria para
Hubble que a estrela em questão, em Andrômeda, era uma cefeida.
Tratava-se, assim, de outra galáxia.
Hubble desenvolveria uma série de critérios de medida das
distâncias, que o ajudaria, pouco depois, a descobrir nova cefeida de
período de 21 dias, seguida de nove cefeidas na galáxia NGC6822,
quinze em M33, doze em Andrômeda (M31) e diversas candidatas em
M81 e M101. Estava demonstrado, assim, que o Universo era composto
de grande número de galáxias, semelhantes à Via Láctea, descoberta de
imensa repercussão no meio científico e responsável direta por novas
concepções sobre a dimensão, estrutura e composição do Cosmos.
Investigações desde o início do século, por Kapteyn, Eddington,
Schwarzschild e outros, sobre o movimento das estrelas, mostravam o
interesse da comunidade astronômica sobre o assunto, sem ser encontrada
uma explicação aceitável sobre o problema no âmbito da Via Láctea. Em
1926, o astrônomo sueco Bertil Lindblad (1895-1965) avançaria a ideia
da rotação da galáxia, na base da descoberta de Kapteyn, em 1904, de
que haveria “dois fluxos de estrelas” em direções opostas, e em estudos
sobre alta velocidade radial. Grande estudioso da estrutura e da dinâmica
da Via Láctea, o astrônomo holandês Jan Hendrik Oort (1900-1992)
confirmaria, em 1927, a teoria de Lindblad da rotação galáctica, ao analisar
o movimento das estrelas distantes, que pareciam ser ultrapassadas
pelas mais próximas, mostrando que estas se moviam mais rápido que
as estrelas mais distantes50; Oort demonstraria, ainda, não estar o Sol no
centro da galáxia (como, aliás, já alegara Harlow Shapley), mas a uma
distância de cerca de 30 mil anos-luz.
Em 1931, o astrônomo alemão Walter Baade (1893-1960) saiu da
Alemanha e se instalou na Califórnia, onde trabalharia nos Observatórios de
Monte Wilson e depois em Monte Palomar, até 1958. Nos anos da Segunda
Guerra Mundial, excluído de pesquisas militares e confinado a trabalhos
de observação pelo telescópio de Monte Wilson, pôde Baade, livre a noite,
pelo blecaute de contaminação luminosa da cidade, fotografar estrelas muito
fracas, como as do centro de Andrômeda. Descobriria, em 1944, dois tipos (I e
II) distintos de população das cefeidas: o do núcleo (estudadas por Shapley),
49 50 DAMINELI, Augusto. Hubble, a Expansão do Universo.
PANNEKOEK, Anton. A History of Astronomy.
133
CARLOS AUGUSTO DE PROENÇA ROSA
estrelas velhas compostas quase exclusivamente de hidrogênio e hélio, e o dos
braços espirais (descobertas por Hubble), de estrelas jovens, azuis, quentes e
ricas em metais; as cefeidas do núcleo, avermelhadas e pobres em metais,
eram quatro vezes menos luminosas que as dos braços. Em 1952, Baade
demonstraria que os cálculos originais de “período-luminosidade”, utilizados
por Hubble para as cefeidas (mais jovens) dos braços de Andrômeda, eram
válidos apenas para as cefeidas do núcleo, ou seja, não se aplicariam a todas as
cefeidas. Baade procederia, então, a um novo cálculo para a relação “período-luminosidade” para essas cefeidas, concluindo que a galáxia Andrômeda
estava distante da Terra dois milhões de anos, isto é, duas vezes maior e duas
vezes mais distante que o calculado por Hubble51. Com isto, a estimativa de
Hubble de dois bilhões de anos de idade para o Universo foi revista, por
Baade, para 5 bilhões de anos, compatível com a estimativa dos geólogos, na
época, de três a quatro bilhões de anos de idade para a Terra.
7.3.5.1 Formação e Classificação Morfológica
Não há consenso na comunidade científica sobre a formação das
galáxias, o que significa coexistirem teorias explicativas para seu surgimento.
A Hipótese de Hubble de que as galáxias espirais originariam as demais não
é, atualmente, aceita. Até recentemente, duas teorias principais, baseadas
no Big Bang, dividiam a opinião dos cientistas; uma conhecida como “de
Baixo para Cima”, sustenta terem sido formados, primeiro, pequenos
agrupamentos estelares, que se fundiram formando as galáxias; e outra,
chamada “de Cima para Baixo”, sugere terem sido formadas, primeiro, as
grandes estruturas (galáxias e aglomerados) e depois os pequenos grupos
estelares dentro delas; ambas estas teorias eram incompatíveis com recentes
descobertas de estrelas e buracos negros maciços formados logo após o Big
Bang. A teoria prevalecente atualmente sugere que as galáxias individuais
teriam surgido de um rápido processo de “baixo para cima”, com a formação
mais lenta das estruturas maiores, ligada a flutuações primordiais e à
gravidade da matéria escura, ou, em outras palavras, depois de formadas,
as estrelas se aglomerariam pela atração gravitacional em galáxias.
Dados fornecidos pelo Observatório Espacial de Raios-X Chandra
e pelo Telescópio Espacial Hubble continuam a fornecer material para
análise dos cientistas, o que poderá determinar novos esclarecimentos
sobre a formação e evolução das galáxias, as quais estão constituídas de
estrelas, gás e poeira.
51 TATON, René. La Science Contemporaine.
134
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Estima-se em 100 bilhões o número de galáxias visíveis no
Universo, o que torna extremamente complexa a tarefa dos astrônomos de
estabelecer, ainda que conveniente, uma classificação para esses enormes
conjuntos de estrelas. A Via Láctea, formada há cerca de 10-12 bilhões de
anos, e com mais de 100 bilhões de estrelas, difere, sob vários aspectos
(luminosidade, dimensão, forma), de muitas outras galáxias, enquanto
coincide com muitas outras sob esses mesmos aspectos. Vale mencionar
que, à medida que aumentava o conhecimento sobre as galáxias, crescia
o interesse em estabelecer uma classificação que atendesse, do ponto de
vista morfológico, aos vários tipos conhecidos de galáxias.
Apesar dos esforços, não foi possível aos astrônomos chegar a uma
classificação consensual, pelo que a classificação original de Hubble, com a
introdução de alguns tipos intermediários, como as de Vaucouleurs (1959),
no Catálogo Geral de Galáxias Brilhantes, continua a ser a mais usada; na medida
em que foram sendo observadas galáxias com características morfológicas
até então não detectadas, subdivisões dos tipos principais foram sendo
criadas. Deste modo, as galáxias observáveis estão classificadas em quatro
tipos principais: i) Espirais (S) são distribuídas nos subtipos “a”, “b” e “c”,
segundo o tamanho do seu bojo central, sendo o “a” o maior; foi criada
uma variação conhecida como “Espiral barrada”, que se caracteriza por ter
uma barra alongada de material estelar e interestelar, que passa pelo centro
e pelo bojo até o disco galáctico, e são designadas SB e subdivididas em
SBa, SBb e SBc (exemplos – M33, M64, M74, M81, M83, M100, M101, M104,
ESO 269-57, Andrômeda). A maioria das galáxias se encontra classificada
neste tipo, com cerca de 70% (aproximadamente metade para cada tipo);
ii) Elípticas (E) variam bastante de tamanho, algumas com bilhões de estrelas
e outras apenas com alguns milhões delas. M32, M60, M84, M86, M87 e
M110 são alguns exemplos das galáxias E, que chegam a cerca de 10% do
total; iii) Lenticulares, com cerca de 20% (M102, NGC3516), e iv) Irregulares
(I) são as que não se enquadram nos outros tipos de galáxias, mas são menos
de 1% (exemplo – M82, Grande Nuvem de Magalhães, Pequena Nuvem de
Magalhães, NGC6822).
7.3.5.1.1 Galáxias Ativas
A quase totalidade das galáxias se enquadra na classificação
(atualizada) de Hubble. Algumas, no entanto, emitem quantidade
extraordinária de energia na parte não visível do espectro, muito superior
à das galáxias normais, que emitem na faixa do óptico. Essas galáxias
135
CARLOS AUGUSTO DE PROENÇA ROSA
são muito mais luminosas que a Via Láctea, apresentam uma grande
atividade do núcleo e são conhecidas como “galáxias ativas”, as quais
estão numa proporção estimada de 1 para 10 em relação às galáxias
normais. Os astrônomos distinguem quatro tipos principais de galáxias
ativas: radiogaláxias, galáxias seyfert, quasares e blazares.
As radiogaláxias, normalmente galáxias elípticas supergigantes,
emitem a maior parte de sua energia na parte rádio do espectro
eletromagnético e são as mais poderosas fontes de emissão de rádio. A
energia liberada é da ordem de 1061 ergs, quantidade que não poderia ser
gerada pelas reações nucleares simultâneas em supernovas de todas as
estrelas de uma galáxia, devido ao relativamente baixo rendimento de
geração de energia; apenas 0,7% da massa das estrelas é transformada
em energia. Por essa razão, em 1964, os astrônomos Edwin Salpeter
(1924-2008) e Yakov Zel’dovich (1914-1987) avançaram, independentemente,
a ideia de que a fonte de energia seria a energia gravitacional liberada por
matéria sendo acretada por um buraco negro central, o que ainda precisa
ser comprovado. As radiogaláxias apresentam, normalmente, uma
estrutura dupla, quase simétrica, com dois lóbulos emissores localizados
um em cada lado da galáxia, associados a jatos; alguns exemplos: NGC383,
Centaurus A (NGC5128), M87 (NGC4486), NGC4261, NGC1275, 3C 31, 3C
353, Cygnus A (3C 405, a mais poderosa radiogaláxia, descoberta nos anos
de 1950).
Doutor em Astronomia por Harvard (1936), com o trabalho
intitulado Estudos sobre as Galáxias Externas, pesquisador do Observatório
MacDonald (1936/40) e do Observatório do Monte Wilson (1940/42),
Carl Keenan Seyfert (1911-1960) interessou-se em pesquisar o brilho e a
magnitude das galáxias. Em 1943, publicaria um estudo sobre as galáxias em
espiral, com o núcleo central pequeno, mas muito ativo e muito luminoso,
equivalente à metade da sua total luminosidade, cujas linhas de emissão
eram mais largas do que as de absorção que apareciam nos espectros das
“galáxias normais”. Essas “galáxias ativas”, inicialmente num total de 10,
passaram a ser conhecidas como “galáxias Seyfert”, que emitem energia
principalmente na região do infravermelho e dos comprimentos de onda
de rádio um pouco mais longos; são galáxias espirais com um núcleo
compacto muito luminoso, capaz de variar seu brilho em poucos dias.
As IC4329A, Markarian 279, ESO97-G13, NGC3516, NGC3561, NGC3786,
NGC4151, NGC5548, NGC5728, NGC7674 e NGC7724 são exemplos
dessas galáxias ativas Seyfert.
Um tipo de galáxia ativa totalmente desconhecida para a
Ciência, até os anos de 1960, é o “quasar”. Em 1960, a Universidade
136
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
de Cambridge, na Inglaterra, iniciaria o que viria a ser chamado de
Terceiro Catálogo de Cambridge, no qual seriam catalogados objetos
emissores de radiação, cujo conhecimento se expandira desde os
trabalhos pioneiros de Karl Jansky e Grote Reber, em radioastronomia.
O trabalho foi coordenado pelo astrônomo Martin Ryle (1918-1984),
especialista em radioastronomia e técnica de interferometria, e
serviria, por anos, de base para a identificação de tais objetos (como
os 3C 48, 3C 147, 3C 196, 3C 273, 3C 288, 3C 295, 3C 405, PKS2349).
Ainda nesse mesmo ano, o astrônomo americano Allan Sandage
(1926) procuraria no objeto 3C 48 (isto é, no terceiro catálogo, o objeto
n° 48), que seria uma estrela de magnitude 16, luz que apresentava algo
novo: algumas linhas do espectro não eram reconhecíveis, fugindo do
padrão, o que indicava ser a estrela de um tipo novo, constituída por
um elemento desconhecido, não constante da Tabela periódica. O anglo-australiano John Gatenby Bolton (1922-1993), Medalha Bruce, diretor do
Observatório de Radioastronomia da Austrália (1961/71), pesquisaria,
também em 1960, o 3C 295, tendo sido extremamente ativo, nos anos
subsequentes, na descoberta, com sua equipe, de centenas de quasares.
Essas fontes emissoras de rádio, que eram mais da metade dos objetos
classificados em Cambridge, seriam chamadas incorretamente de quasistellar radio source, uma vez que sua radiação era de todo o espectro
eletromagnético, não apenas de ondas de rádio. A expressão seria
abreviada, em 1964, para “quasar” pelo astrônomo sino-americano Hong
Yee Chiu (1932).
A identificação do primeiro quasar seria feita pelo astrônomo
holandês Marteen Schmidt (1929), do Observatório do Monte
Palomar, em 1963, ao estudar o objeto 3C 273. Schmidt descobriria
que o espectro tinha somente elementos químicos conhecidos, e que
o “desconhecido” era simplesmente o hidrogênio, que tinha sofrido
um grande desvio para o vermelho, isto é, as linhas de emissão eram
conhecidas, apenas com um grande desvio, nunca observado, para o
vermelho, o que dificultara sua identificação. Tal desvio significava,
pelo efeito Doppler, ser proporcional à velocidade do objeto, o que
dava ao 3C 273 uma velocidade de 15% da luz (cerca de 50 mil km/s),
devendo ter, para poder ser observado da Terra, uma luminosidade
“equivalente a mil vezes a da Via Láctea”. Esses dados mostravam,
também, uma distância de 2,2 bilhões de anos-luz da Terra.
Os trabalhos independentes de Salpeter e Zel’dovich, em 1964,
mencionados a respeito da fonte de energia das radiogaláxias, eram,
igualmente, referentes aos quasares. O grande desvio da luz para o
137
CARLOS AUGUSTO DE PROENÇA ROSA
vermelho do espectro é referencial da grande distância desses objetos,
da velocidade da expansão do Universo, e um indicativo das distâncias
cósmicas. A descoberta dos quasares seria da maior importância para os
atuais estudos de Cosmologia, como fonte para pesquisas dos tempos
primordiais do Universo.
Milhares de quasares já foram detectados, dos quais já foi calculado
o desvio da luz para o vermelho de centenas desses objetos. Em 1990,
o quasar mais distante era o PC1158+4635, a 10 bilhões de anos-luz, e
atualmente é o quasar PC1247+3406, a 12 bilhões de anos-luz. O quasar
3C 405 em Cygnus A é, até o momento, o mais próximo da Terra. Apesar
dos progressos recentes nas investigações, inclusive com a participação
do Telescópio Hubble, ainda são insuficientes os dados disponíveis para
uma compreensão global e completa desses objetos celestes, que parecem
pequenos por estarem distantes, emitem mais luz azul que vermelha e são
quentes e brilhantes.
O quarto tipo de galáxias ativas é conhecido pelo nome de “blazar”,
objetos celestes cujas características gerais são i) galáxias elípticas, com
um centro muito brilhante; ii) puntiformes, isto é, não possuem extensão
espacial como as galáxias e nebulosas; iii) como os quasares, são objetos
ligeiramente nebulosos, mas a maior parte da emissão luminosa provém
de uma fonte puntiforme; iv) os espectros dos blazares, como os dos
quasares, não apresentam linhas fortes de absorção; v) a luz visível dos
blazares é frequentemente polarizada. De acordo com o fluxo de sua
radiação como energia, os blazares são classificados em três categorias:
LDL (blazar vermelho), HBL (blazar azul) e Blazar TeV. Por ser uma fonte
de energia muito compacta e altamente variável, os blazares, inicialmente
considerados como “estrelas irregulares invariáveis”, não formam um
grupo homogêneo, pelo que são normalmente divididos em dois grupos:
os altamente variáveis, conhecidos pela sigla em inglês OVV (Optically
Violent Variable) e os objetos BL Lacertae. O nome de blazar para esses
objetos celestes foi criado em 1978, pelo astrônomo Edward A. Spiegel,
professor da Universidade de Colúmbia. Dos blazares já identificados,
podem ser citados os Markarian 421 (na constelação de Ursa Maior, a uma
distância de 360 milhões de anos-luz, é um dos mais próximos da Terra);
Markarian 501, 3C 273 (na constelação de Virgo, é um quasar/blazar); 3C
279, PKS 2005-489 (detectado como tal em 2004); PKS-2155 304; PKS 0537
441; e BL Lacertae (na constelação de Lacerta, a um bilhão de anos-luz da
Terra, dá seu nome a um grupo de blazar).
138
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.3.5.1.2 Grupos, Aglomerados e Superaglomerados
Pesquisas telescópicas mostram um Universo com um número
imenso de galáxias, as quais pela proximidade se agrupam em conjuntos,
que, dependendo das dimensões, são chamados de grupos (até 30
galáxias luminosas), aglomerados e superaglomerados. As galáxias não
estão distribuídas aleatoriamente nesses conjuntos, mas por interagirem
gravitacionalmente umas com as outras, se mantêm elas a uma mesma
distância, como demonstrou Oort. Esses conjuntos de galáxias são bastante
heterogêneos, variando dos pequenos grupos, formados normalmente
por galáxias espirais e irregulares, ricas em gás, até aglomerados
enormes, em geral de galáxias elípticas, pelo que ainda são classificados
em “regulares” (esféricos ou achatados e concentração de galáxias no
centro) e “irregulares”. Os grandes aglomerados são chamados de “ricos”,
por conterem milhares de galáxias.
A Via Láctea é uma das 46 galáxias do chamado grupo local,
irregular, no qual é a mais brilhante e a mais maciça, e a Andrômeda (M31)
a maior; a galáxia espiral do Triângulo é a terceira maior do grupo local.
O Grupo Escultor, ou do Polo Sul, é um pequeno aglomerado irregular,
com 19 galáxias, das quais a mais importante é a NGC253, e está situado
nos limites gravitacionais do Grupo Local.
Por suas dimensões relativamente menores, quatro grupos são
chamados de grupos compactos. Em 1951, Carl Seyfert descobriria o
chamado sexteto Seyfert (NGC6027), aparentemente de seis galáxias,
a uma distância de 190 milhões de anos-luz, na parte da cabeça da
constelação de Serpens Caput; na realidade, o grupo é formado por quatro
membros, já que um é constituído de gás e poeira interestelar, e o outro
aparece no fundo, dando a impressão de estar alinhado às outras galáxias
do grupo. As quatro galáxias, que mostram sinais de fortes interações que
continuam a ocorrer, se encontram concentradas numa região de apenas
100 mil anos-luz de largura, o que poderá resultar, num futuro remoto,
na formação, pela ação da gravidade, em vista de se encontrarem muito
próximas umas das outras, de uma só grande galáxia.
Os outros grupos compactos conhecidos são: o quinteto de
Stephan, integrado pelas galáxias NGC7317, NGC7318A, NGC7318B,
NGC7319 e NGC7320 (a maior delas); recebeu este nome em homenagem
ao astrônomo Edouard Stephan, que as descobriu em 1877; o quarteto
de Robert, a uma distância de 160 milhões de anos-luz, localizado na
constelação de Phoenix; é formado pelas galáxias NGC87, NGC88, NGC89
e NGC92, descobertas nos anos 1830 por John Herschel, e nomeado por
139
CARLOS AUGUSTO DE PROENÇA ROSA
Halton Arp e Barry Madore no Catálogo de Galáxias e Associações Peculiares
Austrais, de 1987; e o HCG 87, listado no Catálogo de Grupos Compactos
de Hickson, está localizado a uma distância de 400 milhões de anos-luz
da Terra, na constelação de Capricórnio, e é formado por quatro galáxias
classificadas como NGC87.
Quanto aos aglomerados de galáxias, o astrônomo americano
George Ogden Abell (1927-1983), da UCLA, confeccionou, em 1958, um
catálogo de aglomerados ricos do hemisfério norte (Catalogue of Rich
Clusters of Galaxies) de imagens do alomar Sky Survey, classificando
um total de 2.712 (de A1 a A2712), o qual seria ampliado (1989) com
aglomerados do hemisfério sul (A2713 a A4076) e um Suplemento (A4077
a A5250).
Desse catálogo constam aglomerados identificados por um número
precedido da letra A, de Abell. A título exemplificativo são citados, a
seguir, alguns dos mais próximos: aglomerado de Virgo, irregular, a uma
distância de 60 milhões de anos-luz da Terra, com 160 grandes galáxias e
mais de duas mil galáxias pequenas, e diâmetro de 20 milhões de anos-luz; aglomerado Fornax (A5373), a uma distância de cerca de 65 milhões
de anos-luz da Terra, com 54 galáxias principais, sendo a NGC1316 a
mais brilhante; aglomerado Hydra (A1060), regular, das dimensões
do aglomerado de Virgo, com número superior a mil galáxias e a uma
distância de 160 milhões de anos-luz, sendo a NGC3311 a mais brilhante;
aglomerado Coma (A1656), regular, com mais de 3 mil galáxias, das quais
a mais brilhante é a NGC4889; aglomerado Hércules (A1689), irregular,
com mais de 3 mil galáxias, a uma distância de 500 milhões de anos-luz;
aglomerado Corona Borealis (A2065), regular, com mais de mil galáxias,
sendo 400 principais; situa-se no centro do superaglomerado de Corona
Borealis; aglomerado Ursa Menor (A2125), irregular, a 3 bilhões de anos-luz da Terra, com mais de mil galáxias; Abell2218, regular, a uma distância
de 3 milhões de anos-luz, na constelação Draco do Hemisfério Norte, com
mais de 250 galáxias.
Em 1953, Gerard de Vaucouleurs demonstraria que os aglomerados
de galáxias formavam estruturas ainda maiores, as quais são denominadas
de “superaglomerados”. Imensas estruturas de milhões de anos-luz de
diâmetro e milhares de galáxias, não estão distribuídas, a exemplo das
galáxias, uniformemente pelo Universo. Os superaglomerados mais
próximos (a menos de 1 bilhão de anos-luz de distância) chegam a 80, dos
quais os mais próximos e conhecidos são os de Virgo (onde se encontra
o “aglomerado local” que inclui a Via Láctea); Hidra; Centauro (com
quatro grandes aglomerados – A3526, A3565, A3574 e A3581, e centenas de
140
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
pequenos grupos menores); Perseus-Pisces (com três grandes aglomerados
– A262, A347 e A426 – e centenas de grupos de galáxias dispersos); Pavos-Indus (com três aglomerados – A3656, A3698 e A3742); Coma
(diâmetro de 100 milhões de anos-luz, foi descoberto pelos astrônomos
americanos Stephen A. Gregory e Laird Thompson, e objeto, em 1978, de
artigo e mapa, com os dois aglomerados que o formam – A 1367 e A 1656);
Escultor; Phoenix; Hércules (com dois aglomerados – A2197 e A2199, é o
mais próximo, a uma distância de 400 milhões de anos-luz); Leão (com dois
aglomerados – A1185 e A1228, e a uma distância de 450 milhões de anos-luz);
Shapley (um dos mais densos, com pelo menos 20 aglomerados, dentre
os quais, A3558, A3559 e A3560); Pisces-Cetus e Bootes (ambos a cerca de
800 milhões de anos-luz de distância); Horologium (a uma distância de
900 milhões de anos-luz, é um dos maiores superaglomerados) e Corona
Borealis (aproximadamente a um bilhão de anos-luz de distância, no qual
o aglomerado A2065 é o dominante, mas há mais dez outros aglomerados).
Em 1986, os astrônomos Valerie Lapparent, Margaret J. Geller
e John Huchra, em célebre artigo intitulado Uma fatia do Universo,
produziram um famoso mapa da estrutura do Universo, com um mapa
do Superaglomerado Coma. Em 1989, Huchra e Geller, ao analisarem os
dados obtidos dos levantamentos de desvio do vermelho (redshift surveys)
descobriram a segunda maior superestrutura do Universo, conhecida como
a Grande Muralha (ou Muralha Coma). Trata-se de filamento de galáxias
com aproximadamente 200 milhões de anos-luz de distância e mais de 50
milhões de anos-luz de comprimento, 300 milhões de anos-luz de largura
e 15 milhões de anos-luz de espessura. A maior das superestruturas foi
descoberta em 2003, por J. Richard Gott e Mario Junc, da Universidade
de Princeton, baseado em dados da Sloan Digital Sky Survey (SDSS).
A chamada Grande Muralha Sloan tem 1,37 bilhão de anos-luz de extensão
e dista cerca de 1 bilhão de anos-luz da Terra.
7.3.6 Cosmologia
A Cosmologia (das palavras gregas cosmos para Universo e
logos para estudo), termo cunhado pelo filósofo alemão Christian Wolff
(1679-1754), em sua obra Cosmologia Generalis (1731), é o ramo da
Astronomia que estuda a estrutura do Universo, isto é, descreve o Universo
em seu estado atual e procura as leis que o governam, como explica F.
Couderc52. Apesar da limitada e precária capacidade observacional e do
52 TATON, René. La Science Contemporaine.
141
CARLOS AUGUSTO DE PROENÇA ROSA
insuficiente avanço teórico e conceitual em diversos campos científicos
(Matemática, Mecânica, Óptica), foi extremamente significativa a evolução,
ainda que dominada por considerações de ordem teológica e metafísica,
da concepção do Universo a partir da chamada revolução copernicana,
quando a Terra deixaria de ocupar posição de relevo no próprio Sistema
Solar. As mesmas leis da Física se aplicariam a todo o Universo conhecido
(Via Láctea), estático e imutável.
O que hoje se denomina de Cosmologia clássica (de 1543 ao início
do século XX) seria profundamente alterada em 1915-1917, pela obra de
Albert Einstein, quando se inauguraria a chamada Cosmologia moderna,
cuja principal característica seria a da utilização exclusiva da pesquisa e
da teoria científica para a explicação dos fenômenos. As diversas teorias
formuladas sobre a formação do Cosmos comprovam o abandono de
considerações metafísicas e a consequente rejeição do “criacionismo”, o
que se constitui em evidência do triunfo do espírito científico no campo da
Astronomia, uma verdadeira revolução na História da Ciência.
Alguns autores estudam o período atual dividindo-o em
Cosmologia teórica e Cosmologia observacional, metodologia que não
será adotada aqui, sendo preferível, para melhor exposição e compreensão
do tema, sua apresentação de acordo com a ordem cronológica dos
acontecimentos, ou seja, a evolução do conhecimento global.
7.3.6.1 A Teoria da Relatividade e a Cosmologia Moderna
Einstein (1879-1955) daria contribuições decisivas para o
surgimento da denominada Física moderna, com suas obras (Teoria da
Relatividade Especial, Uma Nova Determinação das Dimensões Moleculares, O
Movimento Browniano, O Quantum e o Efeito Fotoelétrico) do chamado “ano
milagroso” (1905). Com sua Teoria da Relatividade Geral (1915), publicada
no Annalen der Physik (1916), que engloba todos os fenômenos tratados
na relatividade especial, criaria Einstein uma nova Física celeste, em que
a Lei da gravitação universal de Newton não teria aplicação para massas
muito grandes (estrelas, por exemplo); em consequência, estabeleceria
uma nova da Teoria da gravitação, da qual a teoria clássica de Newton
seria um caso particular.
Em 1917, Einstein escreveria livro de divulgação científica,
intitulado Teoria da Relatividade Especial e Geral, no qual reiteraria a
relatividade do movimento e da velocidade, rejeitaria a noção do éter,
estabeleceria a constância da velocidade da luz (independentemente da
142
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
sua fonte ou do seu detector) como limite insuperável no Universo, e
sustentaria o caráter relativo de Tempo e Espaço; Einstein incluiria, ainda,
sua célebre fórmula, de 1907, que relaciona (aspectos diferentes do mesmo
fenômeno) Energia com massa, a qual é multiplicada pela velocidade
da luz ao quadrado (9x1016) – “E=mc2”, o que explica uma pequena
quantidade de massa conter uma quantidade gigantesca de energia, e
trataria dos fenômenos ligados à gravitação.
Por volta de 1907, chegara Einstein à conclusão de que, apesar de
os conceitos de inércia e gravidade serem diferentes, as massas inerciais
e gravitacionais de um corpo são sempre as mesmas, o que não poderia
ser interpretado como mera coincidência. Pela Lei da Inércia (Primeira Lei
de Newton), um corpo em repouso, ao não estar submetido a uma força
exterior, permanece em repouso ou se está em movimento continua a se
deslocar em movimento retilíneo uniforme; segundo a relatividade geral,
a massa gravitacional se comporta como uma massa inercial: ela se move
livremente, sem sofrer nenhuma força, mas em razão da curvatura Espaço-Tempo, provocada pela presença de corpos maciços, seu deslocamento
não é em reta, mas segundo uma geodésica. A gravitação de uma força
atrativa entre corpos passa a ser entendida como deformação do Espaço-Tempo. Admitindo, assim, ser impossível distinguir entre forças de
inércia e de gravidade, estabeleceria seu princípio da equivalência, que
lhe permitiria prever (1911) que raios de luz num campo gravitacional se
movem em linha curva. Como a força gravitacional de Newton é uma ação
à distância, o que significa que ela age de forma instantânea e, portanto,
mais rápida que a luz, o que é impossível pela Teoria da Relatividade,
Einstein substituiria essa noção por uma geometria tetradimensional do
Espaço-Tempo, com as três dimensões espaciais (largura, comprimento e
altura) mais o tempo. Como o Espaço-Tempo é um Espaço riemanniano,
com suas propriedades geométricas, isto é, curvatura, que varia em função
da distribuição e do movimento da matéria, os corpos não se deslocam
mais em linha reta, mas em linhas geodésicas. Com essa geometria seria
possível explicar a queda de um corpo sem recorrer à ação à distância.
Um exemplo bidimensional do Espaço-Tempo é normalmente
apresentado nos livros para explicar esse ponto53. Se colocada uma esfera
de massa razoavelmente grande, como de chumbo, no centro de uma
manta flexível de borracha, esta se deformará com o aparecimento de uma
depressão. Uma pequena bola de gude acionada da borda dessa manta
elástica irá se direcionar para dentro da depressão, ao encontro da esfera
de chumbo, ou, em outras palavras, em direção ao centro da depressão.
53 VIEIRA, Cássio Leite. Einstein.
143
CARLOS AUGUSTO DE PROENÇA ROSA
No caso do Espaço-Tempo einsteiniano ocorre o mesmo fenômeno: a
presença de um corpo deforma sua estrutura como no exemplo da manta.
Assim, de acordo com a Teoria da relatividade geral, a massa encurva
o Espaço em sua vizinhança; quanto maior a massa, maior a densidade
e maior a curvatura. Uma estrela muito densa causa uma “depressão”
no Espaço-Tempo muito maior que um planeta, pelo que um objeto
sob a influência dessa curvatura Espaço-Tempo vai cair em direção ao
corpo causador da depressão, sem que haja qualquer força atuando
sobre o objeto, o qual apenas segue a trajetória mais curta no Espaço
deformado. No caso de o objeto estar em alta velocidade, vencer o declive
da depressão e chegar ao outro lado da borda, a trajetória, ao atingir a
borda da depressão, se desviará ligeiramente de sua trajetória inicial; esse
desvio de trajetória ocorreria, segundo Einstein, com a luz, a qual passaria
“raspando” pela deformação causada no Espaço-Tempo por uma massa
de grandes proporções. O efeito dessa curvatura da luz faria com que a
estrela emissora fosse vista, da Terra, um pouco deslocada (ângulo de
valor igual a 1,73 segundo de arco) em relação à sua posição verdadeira
no céu54.
Ao publicar sua Teoria da relatividade geral, Einstein acrescentaria
que sua formulação se comprovaria ao dar correta explicação para três
problemas: o da anomalia da órbita de Mercúrio, o da alteração da
frequência ou cor da luz sob ação da gravidade e o da deflexão da luz
provocada por um campo gravitacional. A órbita de Mercúrio sofre uma
alteração de 43 segundos de arco a cada meio século, o que não era explicado
pela Lei de Newton, mas plenamente justificado pela teoria de Einstein por
estar esse planeta próximo do Sol55; no caso do desvio para o vermelho
(na realidade, o desvio gravitacional pode ocorrer em qualquer faixa do
espectro eletromagnético), apesar de alegações, nos anos de 1920 (Walter
Sydney Adams, por exemplo), a comprovação da previsão de Einstein
ocorreria somente em 1957, pelo físico alemão Rudolph Ludwig Mossbauer
(1929, PNF 1961), com o desvio de raios-Gama pela gravidade; e pelos
físicos americanos Robert Pound (1919) e Glen Rebka com o desvio da luz,
em 1960; quanto à curvatura dos raios de luz, a comprovação, anunciada
por Eddington, em sessão conjunta da Sociedade Real e da Sociedade Real
Astronômica, em novembro, teria sido dada pela análise das fotografias do
eclipse total do Sol tiradas em Sobral (Ceará), em maio de 1919; o eclipse
confirmaria o cálculo de Einstein, em 1911, de uma deflexão do raio de luz
de 1”7 pelo aparente deslocamento da estrela de sua posição usual.
54 55 VIEIRA, Cássio Leite. Einstein.
RIVAL, Michel. Os Grandes Experimentos Científicos.
144
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.3.6.2 Modelo Cosmológico de Einstein
O artigo de Einstein, intitulado Considerações Cosmológicas na
Teoria da Relatividade Geral, publicado nos Anais da Academia Prussiana
de Ciências, em 1917, é considerado como marco inicial da Cosmologia
moderna, pois é onde o autor aplica suas ideias e concepções do
Universo como um todo. Convencido de ser o Universo uma entidade
estática, apesar de seus cálculos indicarem um Universo dinâmico
(em expansão ou em contração), Einstein viria a modificar suas equações
originais. Nesse artigo, entendendo que a aplicação das suas equações
levava ao colapso gravitacional de seu modelo de um Universo uniforme
em densidade, isotrópico, estático, finito e espacialmente fechado
(as galáxias seriam descobertas anos mais tarde por Hubble), Einstein
introduziria arbitrariamente uma constante adicional, que corresponde a
um “potencial gravitacional constante repulsivo”, para adequar o modelo
à sua concepção do Universo. Essa constante cosmológica impediria a
contração do Universo, por servir de compensação à força atrativa da
gravidade, produzindo um Espaço estático, em que a distribuição da
matéria não muda com o tempo. No modelo de Einstein, o Universo
sempre existiu e a matéria é criada a partir do nada.
Naquela época, a grande maioria da comunidade científica,
inclusive Einstein, supunha que o Universo fosse constituído apenas pela
nossa Galáxia. Ao mesmo tempo, sustentava Einstein ser mais natural que
o Cosmos fosse finito, sendo sua massa, em média, distribuída por todo seu
volume. Decorreria, então, o princípio cosmológico, pelo qual, em média,
todos os pontos do Universo são indistinguíveis, ou seja, o Universo é
homogêneo e isotrópico, e sua geometria passa a ser determinada por seu
raio de curvatura.
7.3.6.3 Modelo Cosmológico de De Sitter
O astrônomo holandês William De Sitter (1872-1934), professor
da Universidade de Leiden, além de pesquisar em Mecânica Celeste
e fotometria estelar, seria dos primeiros a se interessar pelas teorias de
Einstein, inclusive pela sua divulgação, numa série de artigos, entre 1915 e
1917, em centros científicos. Em 1911 escreveria um artigo sobre a aplicação
da Teoria da relatividade especial aos corpos celestes, concluindo que as
estimativas observacionais feitas de acordo com a teoria newtoniana se
tornavam obsoletas em função da relatividade einsteiniana. Em 1913,
145
CARLOS AUGUSTO DE PROENÇA ROSA
De Sitter defenderia que a velocidade da luz era independente da
velocidade de sua fonte. Sua análise do artigo de 1917, de Einstein,
contudo, discordava num ponto da conclusão do próprio autor da teoria,
ao não concordar com a constante cosmológica, introduzida em seu
modelo de Universo.
O modelo apresentado por De Sitter, ainda em 1917, demonstraria
a possibilidade de outras soluções com a relatividade geral de Einstein,
como a de um Universo sem matéria, mas com movimento, ainda que
estático. Em seu modelo, De Sitter utilizou uma constante cosmológica,
estacionária, ou seja, uma solução cujas propriedades não dependem
do Tempo. A hipótese foi considerada como admissível, uma vez que a
densidade média do Universo é muito mais baixa que o vácuo produzido
em laboratório. Nesse Universo de De Sitter, algumas estrelas (fontes
de luz) espalhadas pelo Universo se afastariam umas das outras com
velocidades proporcionais às suas distâncias, podendo chegar próxima à
da luz; como a quantidade de matéria é muito pequena, sua evolução não
teria praticamente efeito sobre a evolução do Universo.
7.3.6.4 Universo em Expansão. Modelos cosmológicos
As contribuições fundamentais de Friedmann, Lemaître e
Hubble, nos anos 20 e 30, e Gamow, nos anos 40, assentariam as bases
do chamado Modelo Cosmológico Padrão (MCP), que se desenvolveria
nas décadas seguintes com os aportes teóricos de um grande número de
físicos e astrofísicos, e as pesquisas por meio de novas técnicas, como a
radioastronomia e satélites artificiais. Embora com o apoio majoritário da
comunidade científica, o MCP, conhecido popularmente como Big Bang
(BB), não resolveu, pelo momento, alguns problemas surgidos ao longo
de novas descobertas, pelo que outras teorias cosmológicas têm sido
sugeridas nos últimos anos.
7.3.6.4.1 Friedmann
O primeiro modelo cosmológico de um Universo em expansão
seria de autoria do matemático e meteorologista russo Aleksandr
Aleksandrovich Friedmann (1888-1925), que em 1906 ingressara na
Universidade de São Petersburgo, onde se graduaria em Matemática
pura e aplicada, em 1913 iniciaria sua carreira científica no Observatório
146
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Pavlovsk, e em 1918 seria nomeado professor de Mecânica teórica na
Universidade de Perm. Friedmann concluiria sua pós-graduação em
Meteorologia, em Leipzig, e em 1920, retornaria ao Observatório de
São Petersburgo, vindo a ser seu diretor, pouco antes de falecer, de tifo,
prematuramente, aos 37 anos de idade.
Num trabalho de 1922 (sobre a curvatura do Espaço), publicado
na prestigiosa Zeitschrft für Physik, Friedmann demonstraria haver, na
Matemática e no Espaço-Tempo da Teoria da relatividade geral, base teórica
para várias soluções possíveis, o que permitiria a construção de diversos
modelos cosmológicos. Friedmann consideraria em seus modelos apenas
a força da gravidade, a densidade média da massa constante e a curvatura
do Espaço igualmente constante. Diferentes modelos seriam possíveis,
dependendo se a curvatura é zero, positiva ou negativa. Os Universos de
seus modelos são homogêneos (o mesmo em todos os lugares), isotrópicos
(o mesmo em todas as direções) e dinâmicos, alguns em expansão, outros
em contração. No caso de densidade suficientemente grande de matéria
(densidade crítica), a atração gravitacional causada pela matéria seria
poderosa o bastante para reverter a expansão do Universo, provocando
seu colapso. Seu trabalho, contudo, teve muito pouca repercussão nos
centros científicos da Europa.
Em dezembro de 1922, Friedmann enviou carta a Einstein, na qual
apresentou seus cálculos, solicitando que, se correto, Einstein deveria
escrever aos editores de seu trabalho admitindo seu erro. Em maio de
1923, Einstein escreveria ao Zeitschrift für Physisk, reconhecendo seu erro:
“considero corretos os resultados alcançados pelo senhor Friedmann, os
quais adicionam novas luzes ao assunto”.
7.3.6.4.2 Lemaître. Átomo Primordial
O cosmólogo belga Georges Edouard Lemaître (1894-1966)
ordenou-se padre católico em 1923, estudou com Arthur Eddington, em
Cambridge (1924), e depois passou um ano nos EUA, no Observatório de
Harvard (com Harlow Sharpley) e no Instituto de Tecnologia da Califórnia.
De regresso à Universidade de Louvain, onde estudara, permaneceria aí
toda sua vida, como professor de Astronomia, a partir de 1927.
Baseando-se na Teoria da relatividade geral, e independentemente
de Aleksandr Friedmann, Lemaître, em 1927, descreveria um modelo
cosmológico de um Universo em expansão (Un Univers homogène de masse
constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses
147
CARLOS AUGUSTO DE PROENÇA ROSA
extragalactiques), que só viria a ter reconhecimento e divulgação após sua
publicação, em inglês, por iniciativa de Eddington, no Monthly Notices of
the Royal Astronomical Society, em 1930. Em artigo publicado pela revista
Nature, em 1931, com o título The Beginning of the World from the point of view
of the Quantum Theory, Lemâitre desenvolveria a ideia de que a formação
do Universo teria ocorrido a partir de um determinado momento em que
um “átomo primordial” ou “ovo cósmico”, muito denso e muito quente,
teria explodido, lançando seus fragmentos que formariam as galáxias.
Dado o desvio para o vermelho, no espectro, da radiação proveniente das
nebulosas e galáxias observadas por Slipher e por ele mesmo, interpretaria
Lemaître tal afastamento da Terra como o Universo em expansão, ou, em
outras palavras, a expansão do Espaço sideral em função do crescente
distanciamento das galáxias. Além de ter obtido equações equivalentes
às de Friedman, Lemaître estabeleceria, antes de Hubble, a relação linear
entre velocidade e distância. A proposta de um modelo expansionista
despertaria pouca atenção na comunidade científica. Apesar de seus
esforços, não conseguiria Lemaître conquistar o apoio de Einstein e De
Sitter, defensores de um Universo estático.
Se comprovado que as galáxias estavam se afastando, seria natural
supor que, em tempos distantes o Cosmos fosse menor, que a “matéria”
estivesse extremamente compacta, isto é, no Tempo zero, toda a matéria
estaria concentrada numa massa minúscula, o átomo primordial.
Esse átomo primordial se comporia apenas de energia, já
que não existiam os elementos, como tampouco existia tempo,
pois não havia matéria. Sujeito à sua própria atração gravitacional,
essa massa energética se contraiu e se comprimiu cada vez mais,
elevando a temperatura a níveis altíssimos no menor volume possível
de energia, a ponto de provocar a desintegração de um núcleo
radioativo, “combinando elementos de Física nuclear com a segunda
lei da termodinâmica”56, início da expansão do Universo. Segundo
Lemaître, assim que passou a existir, o átomo, instável se quebrou em
muitos fragmentos, que incluíam elétrons, prótons, partículas alfa,
etc., que escaparam em todas as direções. Como a desintegração foi
acompanhada por um rápido crescimento do raio do Espaço, o volume
do Universo começou a crescer, sendo preenchido pelos próprios
fragmentos do átomo primordial, sempre uniformemente. A partir
dessa matéria básica, nuvens de gás se condensaram, dando origem
aos aglomerados de nebulosas; raios fósseis, fragmentos desses fogos
de artifícios cósmicos, teriam se espalhado pelo Espaço.
56 GLEISER, Marcelo. A Dança do Universo.
148
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A hipótese formulada decorria, portanto, de o atual alto grau
de diferenciação da matéria no Espaço e a complexidade de formas dos
vários corpos celestes deveriam ter resultado da subsequente dispersão de
um material originalmente homogêneo e altamente comprimido, o átomo
primordial.
Apesar de não ter cogitado, em seu artigo na Nature, da origem do
átomo primordial, esforçou-se Lemaître por demonstrar ser seu modelo
estritamente científico, sem qualquer conotação teológica ou metafísica.
Sua condição de padre, contudo, seria interpretado por muitos como
uma tentativa disfarçada de reapresentação do “criacionismo teológico”.
A gradual aceitação pela comunidade científica da expansão espacial do
Universo não significaria apoio à teoria de Lemaître, a qual permaneceria
por muitos anos sem credibilidade no meio científico.
7.3.6.4.3 Hubble e a Demonstração da Expansão do Universo
Aos progressos observacionais na Astronomia estelar (classificação,
luminosidade, distância, magnitude, movimento) nas duas primeiras
décadas do século XX, obtidos das pesquisas, entre outros, de Ejnar
Hertzprung, Henry Russell, Henrietta Leavitt, Vesto Slipher, Harlow
Shapley e Heber Curtis, deve ser mencionado, em especial, o pioneiro
trabalho de Slipher, em 1912, na medição da rotação das nebulosas espirais
pela espectroscopia. Nessas pesquisas, Slipher constataria o afastamento
das nebulosas (desvio para o vermelho), com exceção de Andrômeda, a
uma velocidade de até 1.100 km/s; em artigo no New York Times, em 1921,
explicaria que grandes velocidades de afastamento implicavam grandes
distâncias. Seguiu-se a descoberta de Edwin Hubble, em 1923, de que a
chamada nebulosa espiral Andrômeda era, na realidade, uma galáxia, do
tamanho de uns 50 mil anos-luz, com um número de estrelas aproximado
ao da Via Láctea e a uma distância de dois milhões de anos-luz. A partir
desse momento, o Universo deixaria de se limitar à Via Láctea para se
constituir de conjuntos de galáxias e aglomerados de galáxias.
Com a colaboração direta de Milton Humason (1891-1972), retomaria
Hubble, no Observatório de Monte Wilson, com um poderoso telescópio de
2,5 metros e um novo e eficiente espectrógrafo, a pesquisa de Slipher sobre o
afastamento das nebulosas. Nesse trabalho, seriam medidas as velocidades
aparentes (deslocamento das raias do espectro eletromagnético) de todas
as 45 galáxias observadas por Slipher, vindo a ser constatada, com base nas
medidas das cefeidas que, quanto maior a distância, maior a velocidade de
149
CARLOS AUGUSTO DE PROENÇA ROSA
afastamento das galáxias. Ainda em 1929, escreveria Hubble um pequeno
artigo, intitulado Uma Relação entre a Distância e a Velocidade das Nebulosas
Extragalácticas, que seria publicado nos Anais da Academia Nacional de Ciências,
sem fazer, contudo, qualquer alusão à ideia de expansão do Universo.
No prosseguimento de suas pesquisas, agora tomando Andrômeda
como fonte-padrão de brilho aparente, passou a medir 51 galáxias, sendo
que uma delas, da constelação de Leão, se afastava a 20 mil km/s da
Terra, o que correspondia a uma distância de 105 milhões de anos-luz.
Essa relação distância-velocidade seria chamada de Lei de Hubble ou
Constante de Hubble: a velocidade de afastamento das galáxias aumentava
proporcionalmente à sua distância da Terra. A famosa fórmula da Lei é:
v = HD (sendo “v” velocidade, “H” a Constante de Hubble e “D” a
distância. A constante (H) medida por Hubble é de 135km/s/milhão de
anos-luz).
Essa descoberta observacional de Hubble evidenciava para a
comunidade astronômica a correção dos modelos expansionistas de
Universo apresentados anteriormente por Friedmann e Lemaître. Em
decorrência, igualmente, desse desdobramento do assunto, Einstein
abandonaria sua proposta de constante cosmológica, vindo a propor um
modelo de Universo oscilante. Esse modelo se baseia na ideia de que, em
algum momento, a expansão espacial seria interrompida e se iniciaria um
ciclo de contração, retornando o Universo a uma “singularidade”, que
voltaria a se expandir; o processo se repetiria continuamente.
7.3.6.4.4 O Big Bang
O físico e cosmólogo ucraniano Gamow, o primeiro grande
defensor do modelo do átomo primordial, cuja explosão teria dado origem
ao Universo, apresentaria, em 1948, uma versão modificada e refinada da
Teoria de Lemaître. Georg Gamow (1904-1968) nasceu em Odessa, estudou
na Universidade de Leningrado, trabalhou na Universidade de Göttingen
e no Instituto de Física Teórica de Copenhague, com Niels Bohr; nos anos
1929-1931 estudou as reações termonucleares nas estrelas, e em 1931, foi
nomeado para investigações pela Academia de Ciências de Leningrado.
Em 1933, ao assistir ao Congresso Solvay, em Bruxelas, decidiu deixar
definitivamente a União Soviética, indo instalar-se provisoriamente
em Londres, onde manteria contato com Ernest Rutherford. No ano
seguinte, foi para os EUA, onde lecionaria Física na Universidade George
Washington, até 1956, quando se transferiu para a Universidade de
150
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Boulder, no Colorado, permanecendo até 1968. Participou do projeto
Manhattan. Dentre os vários assuntos a que se dedicara, bastaria mencionar
núcleo atômico, formação de estrela, nucleossíntese estelar. Interessou-se,
igualmente, pela Biologia molecular, em particular pelo trabalho de
Francis Crick e James Watson, em 1953, sobre DNA, sustentando, já em
1954, que os ácidos nucleicos agiriam como código genético na formação
de enzimas.
Em 1948, Gamow escreveu artigo intitulado A Origem dos Elementos
Químicos, no qual argumentou que os elementos se formaram de núcleos
atômicos construídos pela sucessiva captura de nêutrons. Nesse mesmo
artigo, com a colaboração de Ralph Alpher (1921) e Hans Bethe (1906-2005),
sustentaria Gamow que, se o Universo se originara de um estado
extremamente denso e quente, ainda deveria haver remanescente do
Big Bang, e disperso por todo o Universo, radiação ou energia com uma
temperatura média de cinco graus acima do Zero absoluto da escala
Kelvin. O átomo primordial seria uma mistura de partículas do hylem
(nome dado por Aristóteles) que se aglomeraram em elementos mais
pesados por fusão; na primeira meia hora, se teriam formado todos os
elementos químicos. Em 1952, Gamow publicaria A Criação do Universo,
datando a expansão em cerca de 17 bilhões de anos, quando a explosão
original teria causado uma uniforme radiação cosmológica de fundo.
O cenário desenvolvido por Gamow começa com um componente
material (hylem), cheio de prótons, neutros e elétrons; o Universo era
banhado por fótons altamente energéticos, responsáveis pela alta
temperatura (ao redor de 500 bilhões de graus Celsius), que não permitia
qualquer ligação entre seus constituintes. Os constituintes moviam-se
livremente, colidindo entre si e com fótons, mas sem formarem núcleos
ou átomos. A partir desse estado inicial, começaram a aparecer complexas
estruturas materiais, à medida que a temperatura caía e os fótons se
tornavam menos energéticos; ligações nucleares entre prótons e nêutrons
tornaram-se possíveis. Com um centésimo de segundo de existência,
ocorreria a “nucleossíntese primordial”, quando foram formados o
deutério, o trítio, o hélio e seu isótopo hélio 3, e um isótopo do lítio, o
lítio 7; esse processo de formação de elementos pela fusão progressiva
dos núcleos mais leves teria durado cerca de 45 minutos; cerca de 20% de
toda a matéria do Universo teria sido convertida em hélio. Atualmente, é
calculado que a nucleossíntese tenha durado três minutos. A expansão e o
resfriamento (temperatura de 3 mil graus Celsius) do Cosmos tornaram os
fótons cada vez menos energéticos, o que viria permitir, com o Universo
com a idade de 300 mil anos, que elétrons e prótons formassem átomos
151
CARLOS AUGUSTO DE PROENÇA ROSA
de hidrogênio (desacoplamento de matéria e radiação). Gamow mostrou,
ainda, que os fótons teriam uma distribuição de frequências idênticas
às encontradas no espectro de um corpo negro. Sua estimativa para a
temperatura atual dos fótons primordiais não foi precisa, mas foi calculada
em 268 graus Celsius negativos ou 5 graus K positivos por Ralph Alpher e
Robert Herman (o valor medido hoje é de 2,73 graus K)57.
A teoria de Gamow se refere ao período de história do Universo
de 0,0001 segundo depois do que seria o início até o desacoplamento dos
fótons, cerca de 300 mil anos depois, momento da origem da radiação
cósmica de fundo; para esse período inicial (estimado em 10-12 segundo)
não há, contudo, sustentação observacional.
No desenvolvimento do conhecimento cosmológico, várias
descobertas observacionais e algumas evidências teóricas aumentaram
o entendimento da composição e estrutura do Universo e reforçaram a
credibilidade da Teoria do Big Bang.
7.3.6.5 Matéria Escura. Radiação Cósmica
Descobertas da maior importância para a evolução da Cosmologia
ocorreriam nesses últimos anos, o que permitiria um gradual aumento do
conhecimento da estrutura e composição do Universo. Apesar do inegável
progresso, a própria comunidade astronômica reconhece ser ainda muito
restrito e inadequado seu conhecimento do imenso Cosmos.
Estudioso do movimento das estrelas da Via Láctea, Jan Hendrik
Oort constatou, no início dos anos 30, que a galáxia, para manter as
estrelas gravitacionalmente em órbita, necessitaria de uma massa superior
(cerca de 50%) à observada; Oort não teorizou, limitando-se a constatar a
insuficiência de massa para explicar os movimentos. Fritz Zwicky (18981974) e Wilhelm Baade (1893-1960) introduziriam (1932) a hipótese de
existência de “matéria escura”, porquanto a luz emitida pelas estrelas
seria uma pequena fração de toda a matéria do Universo. Ao medir as
velocidades radiais de oito galáxias do aglomerado de Hércules, Zwicky
constataria que a densidade média da matéria era muito superior à
densidade estimada da massa visível. Desta forma, concluiria que por
si só a matéria luminosa não seria capaz de manter o aglomerado de
Hércules como um sistema gravitacionalmente ligado, o que significava a
existência de quantidade muito maior de “matéria invisível” nas galáxias
que a observada; em outras palavras, a presença de uma massa não
57 GLEISER, Marcelo. A Dança do Universo.
152
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
detectável poderia ser responsável pelo fenômeno detectado pelos efeitos
gravitacionais. Em 1936, o astrônomo Sinclair Smith, no Observatório
de Monte Wilson, confirmaria as conclusões de Zwicky, ao pesquisar
o aglomerado de Virgo. As 250 galáxias do aglomerado só poderiam
permanecer ligadas pela ação de uma “massa invisível” trezentas vezes
superior à massa das estrelas luminosas.
Vera Rubin (1928), Medalha Bruce de 2003, confirmaria, com base
em suas próprias pesquisas, nos anos 70, que as estrelas orbitando fora
da Galáxia “viajam” na mesma velocidade que as localizadas próximas
ao centro (como adiantara Oort), ao contrário dos planetas, que, quanto
mais distantes do Sol, mais vagarosos em suas órbitas; em consequência,
seria lógico supor a existência de uma gigantesca massa exercendo força
gravitacional necessária para manter as distantes estrelas em órbita. Vera
Rubin confirmaria, assim, o trabalho de Zwicky, sugerindo que cerca de
90% do Universo se constituiria dessa matéria escura.
O grande enigma da matéria escura prosseguiria pelas décadas,
apesar da busca continuada dos astrônomos por evidências demonstráveis
de sua existência. Em 2005, astrônomos da Universidade de Cardiff
descobriram, a partir de observações em radiofrequência do hidrogênio,
uma galáxia constituída quase exclusivamente de matéria escura. A uma
distância da Terra de cerca de 50 milhões de anos-luz, no aglomerado
de Virgo, a galáxia denominada VIRGOH121 não teria estrelas visíveis,
conteria aproximadamente mil vezes mais matéria escura que hidrogênio,
e sua massa seria cerca de 1/10 daquela da Via Láctea. Em agosto de 2006,
foi noticiado que astrônomos teriam observado matéria escura separada
de matéria normal ao estudar a colisão de dois aglomerados de galáxias,
que deu origem ao aglomerado Bala (1E0657-56, distante 3,8 bilhões de
anos-luz da Terra); a colisão teria ocorrido há cerca de 150 milhões de
anos-luz. Conforme ilustrado pelas imagens combinadas do Telescópio
de Raios-X Chandra, do telescópio europeu Southern Very Large, de dados
ópticos fornecidos pelos telescópios Hubble e Magalhães, no Chile,
durante a formação do aglomerado Bala pela colisão, os gases quentes
interagiram e se localizaram no centro, mas as galáxias individuais e a
matéria escura não interagiram, e ficaram distribuídas longe do centro.
Prosseguem as pesquisas com o propósito de encontrar mais
evidências da matéria escura, cuja constituição continua um mistério
para a Ciência. Estimativas mais recentes calculam a seguinte distribuição
da matéria no Universo: energia escura – 70%, matéria escura – 25%,
hidrogênio e hélio – 4%, matéria normal (estrelas, planetas) – 1%.
153
CARLOS AUGUSTO DE PROENÇA ROSA
7.3.6.6 Radiação Cósmica de Fundo
Outra descoberta fundamental na evolução da Cosmologia seria a
da radiação do espectro eletromagnético proveniente do Espaço sideral.
Karl Jansky (1905-1950) iniciaria a radioastronomia com sua descoberta
(1931-32) de que a Via Láctea emite ondas de rádio, cuja confirmação se
daria em 1937-38, pelas pesquisas de Grote Reber (1911-2002). Seria decisiva
a contribuição da radioastronomia, a partir do início dos anos 60, para a
ampliação do conhecimento da Astronomia em geral, e da Cosmologia,
em particular, pela captação da radiação eletromagnética cósmica. Dada a
limitada capacidade observacional dos corpos celestes pela luz, a captação da
radiação das diversas faixas do espectro (rádio, infravermelho, ultravioleta,
raios-X e Gama) permitiria melhorar e ampliar o conhecimento sobre vários
objetos até então desconhecidos. A radioastronomia se transformaria,
assim, em extraordinária e preciosa fonte de informação do Cosmos, como
provariam Penzias e Wilson, em 1965.
Em 1965, Arno Penzias (1933) e Robert W. Wilson (1936),
trabalhando em Nova Jersey, na calibragem de uma antena de rádio para
comunicação com o primeiro satélite de comunicação Telstar, detectaram
um “ruído” de micro-ondas que parecia estar sendo registrado com
intensidade uniforme de todas as direções do Espaço. Essa uniformidade
indicava que a radiação não provinha de um corpo celeste ou galáxia
específica. Nessa mesma época, o físico James Peebles (1935), na vizinha
Universidade de Princeton, estava trabalhando em radiação cósmica,
na previsão de que a radiação primordial deveria ter sido deslocada do
comprimento de ondas de raios-Gama para o de raios-X, e depois, para o
de ultravioleta, e, eventualmente, à medida que o Universo esfriava, para
o de rádio; a radiação deveria ter alguns poucos graus K de temperatura.
Informado da estática detectada, perceberam Peebles e sua equipe de
Princeton ter Penzias e Wilson encontrado a radiação cósmica de fundo
(raios fósseis originados logo após desacoplamento da matéria e radiação),
o que seria confirmado por pesquisas levadas a cabo, em conjunto, pelo
grupo de Princeton e por Penzias e Wilson; por essa descoberta, revelada
em novembro de 1965, Penzias e Wilson receberiam o Prêmio Nobel de
Física de 1978. Tratava-se da primeira confirmação da teoria de Gamow,
dando origem ao chamado Modelo Cosmológico Padrão, e considerado
como registro fóssil do Big Bang.
Devido às dificuldades de observação dessa parte do espectro
eletromagnético desde a Terra, somente em 1989 o satélite COBE (Cosmic
Background Explorer Satellite) mediu a intensidade da radiação cósmica
154
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
de fundo de 0,5 mm a 10 cm, mostrando sua correspondência com uma
curva de corpo negro de temperatura de 2,735 K. Em dezembro de 1998,
o projeto BOOMERANG (Observações por meio de Balões de Radiação
Milimétrica Extragaláctica e Geomagnética) sobrevoou a Antártica por
259 horas e confirmou as flutuações de temperatura (densidade) detectada
pelo COBE; a diferença de temperatura de uma região para outra é de
alguns milionésimos de graus.
A imagem colhida pelo COBE ilustra o Universo com a idade
de cerca de 380 mil anos, época em que se teriam formado os átomos e
ocorrido a nucleossíntese.
Em junho de 2001, a NASA lançou o satélite Wilkinson Microwave
Anysotropy Probe (WMAP), com o objetivo de medir a variação da
temperatura da radiação cósmica de fundo e esclarecer uma série de
questões da Cosmologia moderna. Os dados da WMAP, na base da radiação
micro-ondas detectada, mostram um Universo 380 mil anos depois do Big
Bang, constituído de, aproximadamente, 73% de energia escura, 23% de
matéria escura e apenas 4% de matéria bariônica; estabelecem a Constante
de Hubble em 71 km/s; e indicam que os sinais de polarização da radiação
cósmica confirmariam experimentalmente a “inflação cósmica” (teoria de
Alan Guth), a qual, contudo, não foi uniforme, tendo sido mais rápida em
algumas regiões. O mapa da WMAP foi publicado em março de 2006.
Em novo anúncio, no início de 2008, a NASA confirmaria que
o WMAP havia coligido provas de neutrinos cósmicos, espalhados
pelo Universo, evidências de que as primeiras estrelas levaram mais de
quinhentos milhões de anos para formar um nevoeiro cósmico e rígidos
constrangimentos na explosão da expansão do Cosmos durante seu
primeiro bilionésimo de segundo.
7.3.6.7 Energia Escura
Até o início de 1990, os cosmólogos acreditavam ser o Universo
constituído basicamente por matéria de natureza normal (estrelas, planetas,
poeira interestelar, gás), perfazendo 10%, e de matéria escura (90%).
Com a descoberta de mais de 120 supernovas do “tipo la” (grande
luminosidade, correspondente à de uma galáxia média) foi possível
avançar nas pesquisas sobre o afastamento das galáxias, sem tomar como
base o brilho das cefeidas (Hubble); as supernovas permitiriam detectar
melhor a velocidade e a distância de galáxias pelo alto desvio para o
vermelho (z). As investigações das equipes da Pesquisa de Supernova
155
CARLOS AUGUSTO DE PROENÇA ROSA
de Alto-z, da Universidade da Califórnia, e do Projeto de Cosmologia de
Supernova, do Laboratório Nacional de Lawrence Berkeley, descobririam
(1995/98) que a expansão do Cosmos é acelerada em relação aos tempos
pretéritos. Se pela teoria de Newton a massa é a fonte da gravidade, que
é sempre atrativa, toda energia, pela teoria de Einstein, seria fonte de
gravitação, ou seja, a massa efetiva que gera gravitação é proporcional à
densidade de energia mais três vezes a pressão; desta forma, se ocorrer
uma pressão suficientemente negativa, a gravitação será negativa e
ocorreria a repulsão negativa. A detectada expansão acelerada do Cosmos
comprovaria uma força repulsiva, resultante de pressão negativa; essa
energia escura constituiria cerca de 70% do Universo.
A existência da energia escura é, assim, inferida, permanecendo
ainda um dos grandes mistérios da Cosmologia; sua densidade, por
exemplo, não está estabelecida com precisão, e se admite, também, matéria
e energia escuras serem a mesma substância.
Em abril de 2001, seriam divulgados dados referentes à supernova
SN1997ff (a mais distante supernova tipo la, com 11 bilhões de anos de
distância), que haviam sido colhidos por diversos telescópios (Hubble,
Keck, Cerro Tololo e outros); esses dados, que indicam um desvio da
Lei de Hubble para grandes distâncias, confirmariam que as galáxias de
alto-z se moveriam atualmente mais velozmente, ou seja, que a expansão
é acelerada. Em outubro de 2003, seria concluído o mapa tridimensional
Sloan Digital Sky Survey (SDSS), com 200 mil galáxias (a mais distante
a 2 bilhões de anos), cobrindo 6% do céu, e tendo sido preparado com a
colaboração de mais de 200 astrônomos e 13 instituições.
7.3.6.8 Modelo Cosmológico Padrão
O Modelo Cosmológico Padrão (MCP), baseado na Teoria da
gravitação da relatividade geral, de Einstein, e na comprovada expansão
do Universo, sustenta a evolução do Universo a partir da liberação súbita
de uma quantidade anormal gigantesca de energia que teria dado início
ao Espaço e ao Tempo; o chamado Big Bang não ocorreria dentro de um
Espaço tridimensional; ele, na realidade, criaria o Espaço-Tempo. Segundo
o MCP, toda a matéria do Cosmos estaria concentrada num único ponto,
onde o raio e o volume do Universo seriam nulos, e a densidade da matéria
nesse ponto tenderia ao infinito. Esse ponto, onde estaria concentrada toda
a matéria do Universo, é chamado de singularidade do Espaço-Tempo,
a qual, ao criar Espaço-Tempo, teria liberado a matéria concentrada
156
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
(Universo), cuja expansão no Espaço-Tempo é observada até hoje. Os dados
observacionais astronômicos obtidos até agora (expansão e resfriamento
do Cosmos, princípio cosmológico (homogeneidade e isotropia), radiação
cósmica de fundo, energia escura, matéria escura, formação das estrelas,
galáxias e superestrutura física das partículas elementares, balanço dos
elementos químicos, astroquímica) têm confirmado a teoria do Big Bang,
o que tem contribuído para sua crescente credibilidade e para o apoio
generalizado recebido da comunidade científica.
Se a evolução do Universo, desde a formação dos átomos (380
mil anos de idade) pode ser explicada pela Cosmologia, Astrofísica
e Astroquímica, o mesmo não sucede com fenômenos que tenham
ocorrido em condições extremas, como o da singularidade. Na medida
em que retrocedemos no Tempo para conhecer os primeiros momentos, a
Física hoje conhecida é totalmente inadequada, porquanto as dimensões
extremamente reduzidas do mundo subatômico estão no domínio
da Física quântica. Assim, a Teoria da gravitação relativística passa a
ser inaplicável, já que não tem como lidar com os processos quânticos.
A descrição do processo gravitacional no nível quântico requer, portanto,
uma Teoria gravitacional quântica, a qual ainda não foi formulada.
Adicionalmente, há muitos anos, desde Einstein, se procura
unificar numa teoria as interações das quatro grandes forças, que
determinam a estrutura do Universo (gravitacional, eletromagnética,
nuclear fraca e nuclear forte), o que seria necessário para descrever
os primeiros momentos do Cosmos. A Teoria da grande unificação
(TGU) procuraria unificar e explicar numa só estrutura teórica todos os
fenômenos físicos nos níveis atômico e subatômico, dificuldade ainda não
superada, porquanto a interação gravitacional é explicada pela Teoria da
relatividade geral, e as demais forças, pela Mecânica quântica. O Campo
eletromagnético já dispõe de uma “Teoria Quântica eletrodinâmica”;
a força nuclear fraca, que age no interior do núcleo do átomo, e a força
eletromagnética seriam manifestações de uma mesma interação, e
unificadas, nos anos de 1960, pela teoria de Glashow-Weiberg-Salam para
constituir a “interação eletrofraca”; por esse trabalho, os três cientistas
receberiam o Prêmio Nobel de Física de 1979. Fruto dos notáveis
progressos, nos últimos anos, nas pesquisas da Física das partículas, o
modelo padrão das partículas fundamentais é uma teoria unificadora das
duas interações não gravitacionais (a eletrofraca e a forte), pelo que, na
realidade, seria necessário ainda juntar a unificação das forças do modelo
e a interação gravitacional numa Teoria da grande unificação (TGU) para
ser alcançado o objetivo desejado.
157
CARLOS AUGUSTO DE PROENÇA ROSA
A entrada em funcionamento definitivo, em 2009 (teste em setembro
de 2008), do acelerador de partículas conhecido como Grande Colisor
de Hádron – LHC (Large Hadron Collider) – da CERN, localizado na
fronteira suíço-francesa, poderá recriar, em escala de laboratório, situações
semelhantes às do momento do Big Bang, o que permitirá esclarecer
algumas questões fundamentais para a Cosmologia. A colisão, em quatro
pontos do circuito de 27 km, de dois feixes de prótons girando em direções
opostas provocará uma energia e uma luminosidade de tal magnitude que
permitirá observar partículas elementares, inclusive o previsto Bóson de
Higgs, e confirmar, assim, o modelo padrão das partículas fundamentais,
do qual constam três grupos de partículas elementares fundamentais
(léptons, quarks e mediadores). Espera-se que o LHC possa aclarar vários
temas pendentes e intrigantes da Cosmologia, como a natureza da matéria
escura e da antimatéria, a razão de algumas partículas não terem massa, a
existência ou não de outras dimensões do Espaço, e como teriam sido os
primeiros segundos após o Big Bang. O eventual avanço no conhecimento
dos constituintes mais elementares da matéria contribuirá para que nossa
compreensão dos momentos iniciais do Universo chegue mais perto do
Tempo zero (t = 0).
7.3.6.9 Outras Teorias sobre o Universo
Embora o Modelo Cosmológico Padrão seja o mais prestigiado e
conte com o apoio amplamente majoritário do meio científico, várias outras
teorias expansionistas do Universo, baseando-se em recentes avanços na
Física das partículas elementares de alta energia e na teoria quântica dos
campos, surgiram para explicar os primeiros momentos da formação do
Cosmos, de forma a resolver certos problemas deixados sem resposta
pelo modelo; dados recentes colhidos (COBE, WMAP, BOOMERANG)
revelariam indícios de situações nos tempos primordiais do Universo
que requereriam um período de “elevada expansão inflacionária” para
justificar a atual similaridade de temperaturas e densidades em regiões
amplamente espaçadas. Modelos cosmológicos que contemplassem uma
expansão exponencial logo após o Big Bang, o que não sucede com o MCP
(expansão linear do Universo ao longo de bilhões de anos), poderiam
explicar certos problemas, como os da homogeneidade, do elevado grau
de homogeneização e da aparente planaridade do Universo.
Várias teorias e diversos modelos têm sido formulados com esse
propósito, sem terem alcançado apoio no meio científico, talvez por sua
158
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
complexidade, como a Teoria da inflação caótica, de Andrei Linde (1948),
a Teoria da inflação dupla, de Neil Turok, o Modelo Ekpirótico de Paul
Steinhardt, e a Teoria da Geometria retorcida 5-dimensional, de Lisa
Randall (1962) e Raman Sundrum.
Dessas novas teorias, a mais prestigiada é a formulada pelo físico
e cosmólogo americano Alan Guth (1947), em 1981, conhecida como a do
Universo Inflacionário, a qual resolve certos problemas não solucionados
pelo MCP. Segundo a teoria de Guth, teria ocorrido, logo após o Big
Bang, na chamada era Planck (t = 10-43 a t = 10-6) uma fase de expansão
exponencial, resultante de uma densidade de energia negativa ou força
gravitacional negativa. Nessa fração de segundo, a massa do Universo
aumentou proporcionalmente à expansão exponencial, mantendo a
densidade constante; o tamanho do Cosmos teria se multiplicado por
um fator representado pelo número 1 (um) seguido de um trilhão de
zeros em menos de 10-35 segundos; para esse curtíssimo prazo de tempo
(1 milionésimo de segundo), a temperatura teria baixado de 1027 K para
1015 K. A partir desse momento o Universo entraria na fase de expansão
menos veloz atualmente observada, a massa se estabilizaria e a densidade
começaria a cair. Esse modelo da Inflação Cósmica está fundamentado
na Mecânica quântica e no modelo padrão das partículas fundamentais,
o qual ainda está pendente de comprovação.
7.4 Física
Na história da evolução da Física, o século XX corresponde ao
início de uma nova era, chamada de Física moderna, em sucessão à Física
clássica, originada no começo do século XVII, com os trabalhos de Galileu
no campo da Dinâmica. Dado o sucesso da Mecânica na explicação dos
movimentos planetários e terrestres, firmou-se a convicção de que os
fenômenos físicos, de toda ordem (como térmico e elétrico), poderiam
ser também elucidados em termos de movimento e matéria. A Mecânica
se constituiria, assim, no grande pilar da Física clássica, a qual teria um
extraordinário desenvolvimento nos três séculos seguintes. O calor seria
associado ao movimento de um fluido calórico, a eletricidade à existência
de um ou dois fluidos elétricos, a luz se propagaria em movimento
ondular. A noção de campo, surgida no século XIX, apenas abalaria os
conceitos mecânicos.
O grande progresso nas pesquisas, em parte devido ao avanço
tecnológico em máquinas e instrumentos, permitiria a expansão da área de
159
CARLOS AUGUSTO DE PROENÇA ROSA
conhecimento que evidenciaria fenômenos térmicos, ópticos e elétricos, os
quais não eram corretamente explicados pelos princípios e leis vigentes da
Física clássica. Experiências em diversos campos descobririam fenômenos
até então não identificados e para os quais a comunidade científica não
encontrava esclarecimentos e respostas adequadas na Física mecanicista.
O extraordinário desenvolvimento experimental nessa fase evolutiva da
Física geraria, assim, a própria necessidade de revisão, de reformulação
e de inovação teórica de forma a estabelecer as regras, normas e leis de
uma nova realidade de fenômenos. Por outro lado, a impossibilidade de
esclarecer a estrutura da matéria criaria um impasse entre a “atomista”
(Clausius, Maxwell, Boltzmann) e a “escola energetista” (Mach, Ostwald),
que seria um dos aspectos dominantes das divergências teóricas, apenas
solucionadas no início do século XX.
Nesse contexto, sete grandes descobertas experimentais do final
do século XIX devem ser consideradas, uma vez que teriam um impacto
decisivo nas elucubrações teóricas que fundamentariam a Física moderna:
a dos raios catódicos, por William Crookes (1879) e Eugen Goldstein; a do
efeito fotoelétrico, por Heinrich Hertz (1887); a dos raios-X, por Wilhelm
Conrad Roentgen (1895); a dos elétrons, por Joseph John Thomson (1897);
a da radioatividade, por Henri Becquerel (1896) e pelo casal Pierre e Marie
Curie (1898); a do Efeito Zeeman (1896); e as radiações alfa e beta, por
Ernest Rutherford (1897), e gama, por Paul Villard (1900).
Apesar da resistência de segmentos representativos da
comunidade científica em admitir a inaplicabilidade dos estabelecidos
princípios às novas descobertas, seria, contudo, necessária a reformulação
de teorias para substituir concepções que se tornaram inadequadas,
quando aplicadas às dimensões atômicas. A falta de explicações racionais
e lógicas para fenômenos recém-descobertos, como os da radioatividade e
do efeito fotoelétrico, o da interação da matéria e radiação, o da constância
da velocidade da luz no vácuo, e o da distribuição da energia da luz
emitida por um corpo negro, colocava em risco e sob questionamento
a própria validade dos princípios, leis e conceitos adotados. A Física
experimental não confirmava conceitos da Física teórica clássica, ou,
em outras palavras, a aplicação da Mecânica, da Termodinâmica e do
Eletromagnetismo clássicos a átomos e partículas levava a conclusões
em desacordo com a experiência (como certos efeitos da radiação). Em
consequência, nos primeiros anos do século XX, conceitos como os de
Matéria, Tempo, Espaço e Força seriam revistos, noções como as de átomo
e continuidade seriam refinadas, as ideias modernas de relatividade e
incerteza seriam inseridas. A aplicabilidade universal, em todas as escalas
160
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
e em velocidades próximas à da luz, de leis clássicas, não seria aceita, isto
é, o mundo atômico e das partículas não estaria sujeito às regras e leis
aplicáveis às grandes dimensões e distâncias.
Na história da Física, dois são os anos chamados de “milagrosos”,
por seu especial significado: o de 1666, quando Newton, em Woodsthorpe,
teria concebido suas grandes formulações (gravitação universal, leis do
movimento, propriedades da luz e da cor), e desenvolvido o Cálculo
infinitesimal, bases de suas principais obras: Philosophiae Naturalis Principia
Mathematica (1686) e Opticks (1704); e o ano de 1905, quando Einstein
publicou no número 17 da revista Annalen der Physik, quatro artigos, um
sobre o movimento browniano, outro sobre geração e conversão da luz,
o terceiro sobre dimensão molecular, e um quarto artigo a respeito da
Eletrodinâmica dos corpos em movimento (Teoria Especial da Relatividade),
e mais um, no número 18 da mesma revista, no qual apresentou sua famosa
fórmula da equivalência da energia e massa (E = mc2). Em 1916, seria
publicada a Teoria da Relatividade Geral, com sua redefinição de gravitação.
A reformulação ou a inovação de conceitos para lidar com os
fenômenos físicos daria nascimento à chamada Física moderna, cujos dois
pilares seriam: 1) a Teoria quântica, de Planck, que introduziria o caráter
descontínuo da energia e viria a se transformar em base teórica para o
estudo dos fenômenos físicos em escala microscópica; e 2) as Teorias da
relatividade especial e geral de Einstein, que estabeleceriam, entre outras,
a relatividade do Tempo e do Espaço, a equivalência da energia e massa,
a velocidade constante da luz, a inexistência do éter, e a gravitação como
resultado de uma deformação do Espaço-Tempo, devido à presença da
massa dos objetos.
Deve ser registrado que, embora uma Ciência experimental, a
Física moderna seria formulada em bases teóricas criadas em gabinetes
de trabalho num processo racional e dedutivo e não em laboratórios por
meio de experiências e testes. A Teoria quântica, aplicada por Einstein,
em 1905, para explicar o efeito fotoelétrico, seria adotada rapidamente
pela comunidade científica, enquanto a Teoria da relatividade demoraria
alguns decênios para ser aceita pela grande maioria dos físicos e para ser
ensinada nas universidades58.
Formulada nos anos de 1920, a teoria que deu origem ao Princípio
da Incerteza, de Heisenberg, teria tremendo impacto no desenvolvimento
e na compreensão da Ciência, em geral, e da Física, em particular. De
acordo com o Princípio, grupos de aspectos essenciais de uma partícula
(posição, velocidade, quantidade de movimento e energia) não podem ser
58 TATON, René. La Science Contemporaine.
161
CARLOS AUGUSTO DE PROENÇA ROSA
medidos com a mesma precisão e ao mesmo tempo, isto é, não há meios
de se medir simultaneamente e com a mesma precisão as propriedades
elementares do comportamento subatômico. Por exemplo, no caso da
partícula quântica, a medição com exatidão de sua posição implica numa
grande incerteza quanto à sua velocidade, e vice-versa. O Princípio da
Incerteza viria a ter enormes repercussões na Filosofia da Ciência, uma
vez que contestava um dos seus preceitos essenciais. O caráter absoluto da
certeza e do determinismo científicos, prevalecentes até aquele momento,
seria objetado, assim, pela afirmação do conhecimento relativo, dando
lugar à previsão e à probabilidade.
O modelo quântico de átomo, de Niels Bohr; a teoria da
dualidade onda-partícula para a matéria, de Louis de Broglie; as
contribuições teóricas na formulação da Mecânica quântica (Max Born,
Heisenberg, Jordan, Schrödinger); e os trabalhos de Dirac (que deram
origem à Equação de Dirac, embrião da teoria quântica do campo) e
Pauli (princípio da exclusão) contribuiriam de forma decisiva para que,
a partir de meados dos anos 60, fossem desenvolvidos os principais
integrantes do que viria a ser conhecido como o modelo padrão da
Física de partículas elementares. Essa nova área da Física seria objeto
de intensas pesquisas, com as consequentes importantes descobertas de
partículas, de mediadores das interações e da interação forte, para as
quais o desenvolvimento dos aceleradores de partículas foi essencial na
criação do Modelo Padrão.
A noção de matéria como constituída por quatro elementos
predominou durante muitos séculos, desde sua formulação, por
Empédocles, até que seria substituída, praticamente no final do século XIX,
pela teoria atômica. A descoberta dos léptons e dos quarks como constituintes
elementares da matéria constituiria mais um desenvolvimento de extremo
significado na história da Ciência por suas implicações em diversos setores
da Física moderna.
Ainda que tivessem prosseguido importantes investigações
nas diversas áreas tradicionais da Física (Acústica, Óptica, Mecânica,
Eletromagnetismo, Termodinâmica), as pesquisas em Mecânica quântica e
em Física de partículas elementares seriam prioritárias para a comunidade
científica e os meios governamentais e industriais. O interesse por essas
áreas e o prestígio daí decorrente seriam decisivos para o avanço nas
pesquisas, como atestam as concessões do Prêmio Nobel de Física (PNF),
da Medalha Max Planck (MMP) e da Medalha Copley, da Sociedade
Real de Londres (MC), em sua grande maioria, aos estudos teóricos e
investigações das mencionadas áreas.
162
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A cooperação internacional se intensificaria por meio de congressos
e simpósios, intercâmbio universitário, contratação de professores e
pesquisadores de diversas nacionalidades, concessão de bolsas e contatos
pessoais. Criaram-se institutos e centros de pesquisas num grande número
de países, estabelecendo-se extensa rede de colaboração que resultaria
em proveito mútuo. Prêmios seriam outorgados a físicos de diferentes
nacionalidades, por suas relevantes contribuições ao desenvolvimento
da Ciência, por várias instituições nacionais, sendo o mais importante e
cobiçado o Prêmio Nobel, concedido anualmente, desde 1901. Crescente
número de publicações especializadas divulgaria as novidades teóricas
e as conquistas experimentais nos diversos ramos da Ciência Física.
A intensidade desse intercâmbio de ideias e de experiências seria altamente
benéfica para a comunidade científica internacional, aumentando, ainda
mais, seu prestígio junto à opinião pública.
Especial referência para o intercâmbio de ideias e experiências foi a
criação, em 1912, do Instituto Internacional Solvay, para Física e Química,
pelo industrial belga Ernest Solvay, devido ao sucesso da reunião do
Conselho Solvay, no ano anterior, que contara com a presença, entre outros,
de Lorentz, Perrin, Wien, Curie, Poincaré, Einstein, Planck, de Broglie,
Rutherford e Langevin. Coordenando grupos de trabalho, seminários e
conferências, tem sido o Instituto Solvay um fórum de inestimável valor
para a promoção da Física e da Química. A 23ª Conferência Solvay,
realizada em dezembro de 2005, na cidade de Bruxelas, teve como tema
“A Estrutura Quântica do Espaço e do Tempo”. A mais famosa reunião foi
a 5ª Conferência, de 1927, que tratou de “elétrons e fótons” e foi palco do
célebre debate entre Einstein e Bohr.
Dessa Conferência participaram 29 cientistas (Langmuir, Planck,
Curie, Lorentz, Einstein, Langevin, Guye, Wilson, Richardson, Debye,
Knudsen, Bragg, Kramers, Dirac, Compton, de Broglie, Born, Bohr, Picard,
Henriot, Ehrenfest, Herzen, Donder, Schrödinger, Verschaffelt, Pauli,
Heisenberg, Alfred Fowler e Brillouin). Desses, 17 foram agraciados com
o Prêmio Nobel de Física.
Outro exemplo atual dessa profícua cooperação é a Sociedade
Europeia de Física, fórum de debate de temas científicos, que congrega
as 38 sociedades nacionais de Física da região, com seus 80 mil membros.
Conscientes da fundamental importância estratégica global da
pesquisa científica e de sua característica atual de empreendimento de
alto custo, pela demanda de pessoal, material e tempo, entidades públicas
prestigiariam e incentivariam tais atividades no campo da Física com
a colaboração e apoio de empresas privadas, muitas vezes engajadas,
163
CARLOS AUGUSTO DE PROENÇA ROSA
por meio de seus laboratórios no desenvolvimento de pesquisas. Como
em outras Ciências, a investigação deixou de ser o trabalho solitário e
isolado de um pesquisador para se transformar, na atualidade, numa
atividade de equipe. Devido à necessidade inevitável de mobilização de
extraordinários recursos financeiros e humanos para o desenvolvimento
das pesquisas, seria crescente e profícua a pesquisa multilateral. Exemplo
desse esforço de cooperação para superar imensos e graves obstáculos
é o da criação, em 1954, da Organização Europeia de Pesquisa Nuclear
(CERN), o maior laboratório mundial (Genebra) de pesquisa em Física
das partículas. Conta, atualmente, a CERN, com 20 países membros e
8 observadores (Rússia, Turquia, Japão, Índia, EUA, Israel, UNESCO e
Comissão Europeia), cerca de 6.500 cientistas e engenheiros, provenientes
de 500 universidades e de 80 nacionalidades.
Do ponto de vista geográfico, dois períodos nítidos da pesquisa dos
fenômenos físicos podem ser observados, em função do deslocamento do eixo
dessa investigação, da Europa ocidental para os EUA: o primeiro período se
estende até o final da década de 1930, e o segundo perduraria até a presente
data. A Europa ocidental continuaria a manter, até o início da Segunda
Guerra Mundial, sua indiscutível e tradicional liderança mundial como o mais
importante centro de pesquisa de Física teórica e experimental. Após o recesso
forçado, nos anos de 1940, por motivo das prioridades do conflito armado e
da reconstrução do Pós-Guerra, os EUA assumiriam, e conservariam até o
presente, a irrefutável posição de líder nas pesquisas da Ciência Física.
A Alemanha continuaria como o principal centro da Física
teórica e experimental, até início da década de 1930, quando muitos de
seus cientistas (Hans Bethe, Otto Stern, Otto Hahn, Jack Steinberger)
emigrariam para outros países da Europa e para os EUA, em fuga do
regime nazista, ali implantado em 1933. A condição privilegiada de
suas universidades (Berlim, Heidelberg, Göttingen, Munique, Frankfurt,
Giessen) e dos seus laboratórios tornaria a Alemanha o incontestável foco
irradiador das pesquisas dos fenômenos físicos, e para onde convergiam
estudantes, professores e pesquisadores de várias partes do mundo. Sua
liderança e sua influência eram reconhecidas internacionalmente. Boa
parte do avanço teórico registrado nesse período teve a participação,
exclusiva ou decisiva, de cientistas alemães (Planck, Einstein, von Laue,
Lenard, Stark, Born, Heisenberg, Hertz, Wien, Sommerfeld, Bothe,
Otto Hahn, Strassmann, Bethe, Franck), atuantes na Física quântica, na
Relatividade e na Física nuclear. O alto nível da pesquisa continuaria,
na Alemanha, no segundo período, como atestam as contribuições de
Mössbauer, Jensen, Von Klitzing, Ruska, Binning, Bednorz, Steinberger,
164
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Paul, todos agraciados com o Prêmio Nobel de Física no Pós-Guerra. A
Sociedade Científica Kaiser Wilhelm se tornaria, depois da Guerra, no
Instituto Max Planck, maior centro de pesquisa científica da Alemanha, e
dos mais importantes do mundo.
A Grã-Bretanha se manteria, ao longo do período, como importante
centro de pesquisa física, tendo contribuído para o desenvolvimento
do conhecimento dos fenômenos com fundamentais aportes teóricos e
experimentais, como, entre outros, os de Thomson, Rutherford, Aston,
Moseley, Barkla, Bragg, Richardson, Chadwick, Cockroft, Blackett e
Dirac. As atividades de pesquisa prosseguiriam ativas no Reino Unido
na segunda metade do século, destacando-se os trabalhos de Powell,
Gabor, Ryle, Hewish, Mott, Josephson e Hawking. Uma das principais
entidades de pesquisa é o Laboratório Cavendish (1874), da Universidade
de Cambridge, de fama mundial. A tradição francesa em pesquisa teórica
e experimental (Foucault, Fizeau, Raoult, Becquerel, casal Pierre e Marie
Curie, Poincaré) conservaria o país dentre os mais avançados no campo da
Física, com as contribuições de Marie Curie, Perrin, Langevin, de Broglie,
Irene e Frederic Joliot-Curie. Superado o impacto altamente negativo dos
efeitos da Segunda Guerra Mundial, voltaria a França a ocupar posição de
relevo como centro de excelência. A Holanda teria um papel de grande
relevância nesse primeiro período, graças aos trabalhos de Lorentz,
Zeeman, van der Waals, Kammerlingh-Onnes, Uhlenbeck, Debye.
Kramers, Veltman, Hooft e van der Meer são importantes pesquisadores
da atualidade, ganhadores do Prêmio Nobel. Cientistas de outros países
europeus dariam valiosa contribuição, igualmente, para a Física moderna,
como os austríacos Schrödinger, Pauli, Hess e Lise Meitner; os suecos
Hannes Alfven, Otto Klein e Kai Siegbahn; e o dinamarquês Niels Bohr.
Ainda na Europa, a Rússia (URSS), envolvida em graves conflitos
externos e internos, e apesar da emigração de vários cientistas, seria
capaz de manter, com suas Universidades de Moscou e Leningrado (São
Petersburgo), elevado nível de pesquisa ao longo do século XX. Devem
ser notadas as contribuições de Minkowski, Friedmann, Gamow, Landau,
Cherenkov, Tamm, Prokhorov, Ilya Frank, Kapitza, Kurchatov, Fock,
Veksler, Sakharov, Basov e Flerov, entre outros.
Quanto à Ásia, as principais contribuições do Japão se dariam,
a partir da década de 1950, com os trabalhos de Yukawa, Tomonaga,
Esaki, Koshiba, Nambu, Kobayashi e Maskawa, agraciados com o Prêmio
Nobel. A Índia e a China ocupam, na atualidade, posição de relevo, no
campo da investigação, graças a seus bem equipados e dotados centros de
excelência. A prioridade outorgada pelos respectivos governos e entidades
165
CARLOS AUGUSTO DE PROENÇA ROSA
públicas e privadas à pesquisa e à expansão da base industrial explicam
o extraordinário avanço e sucesso desses países no desenvolvimento de
seus projetos em áreas como a atômica e a espacial. A modernização e
atualização do ensino universitário e técnico em grandes centros culturais
(Bombaim, Calcutá, Delhi, Pequim, Xangai, Cantão) justificam a expectativa
de continuado progresso, a curto e médio prazos, na investigação.
Os EUA, que, na primeira metade do século XX, ocuparam posição
importante no cenário internacional (Robert Millikan, Clinton Davisson,
Arthur Compton, Carl Anderson, Ernest Lawrence), assumiriam, na
atualidade, incontestável liderança na pesquisa científica em geral, e
na Física, em particular. Com amplos recursos financeiros e humanos,
maciços investimentos de maturação a longo prazo, numerosos centros de
investigação, grande capacidade de formação e recrutamento de cientistas,
e decisivo apoio da comunidade empresarial e das entidades públicas às
universidades e aos institutos de pesquisas, o país se transformaria no
principal centro mundial de pesquisa no campo da Ciência Física. Mais de
70 pesquisadores americanos, ou residentes nos EUA, receberam o Prêmio
Nobel de Física no Pós-Guerra. No grande esforço dos EUA para se tornar
uma potência científica, não pode ser esquecida a valiosa contribuição de
renomados físicos estrangeiros, como, entre outros, os húngaros Wigner,
Szilard e von Neumann; os italianos Fermi e Segré; os austríacos Rabi e
Weisskopf; o suíço Félix Bloch; os alemães Einstein, Otto Stern e Ralph
Krönig; e os holandeses Goudsmit e Uhlenbeck.
O Brasil ingressaria no cenário internacional somente após a
Segunda Guerra Mundial, graças às contribuições de Mario Schenberg,
César Lattes, Marcelo Dami, Jayme Tiomno e José Leite Lopes, entre
outros, e à criação do Conselho Nacional de Pesquisa e do Ministério da
Ciência e Tecnologia. Devem ser igualmente registrados, os esforços da
Argentina e do México no desenvolvimento da pesquisa no campo da
Física teórica e aplicada.
Em função das características específicas da Física, sua evolução
na atualidade será exposta nos seguintes subcapítulos: Teoria Quântica,
Teoria da Relatividade, Física Atômica e Nuclear, Física Quântica e Física
das Partículas.
7.4.1 Teoria Quântica
A Teoria Quântica data, oficialmente, de 14 de dezembro de
1900, quando o físico alemão Max Karl Ernst Ludwig Planck (1858-1947)
166
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
apresentou perante a assembleia da Academia Alemã de Física, seu hoje
famoso trabalho Sobre a teoria da lei de distribuição de energia do espectro
contínuo. A importância e o impacto de tal teoria na evolução da Física são
de tal ordem a ponto de ser reconhecida como um dos pilares da Física
moderna.
Max Planck nasceu na cidade portuária de Kiel, então pertencente à
Dinamarca, mas que passaria, pouco depois (1866), ao domínio da Prússia.
Com a transferência da família para Munique, onde seu pai, Johann Julius
von Planck, lecionaria Direito constitucional, Max Planck estudaria na
renomada escola local Maximilian-Gymnasium. Ingressou, em 1874, na
Universidade de Munique, onde demonstrou particular interesse pela
Termodinâmica, assunto de sua defesa de tese (Sobre a Segunda Lei da
Teoria Mecânica do Calor) de doutorado (1879). Prosseguiria seus estudos na
Universidade de Berlim, tendo tido como mestres e orientadores Gustav
Kirchhoff, autor da lei da radiação e inovador, com Robert Bunsen, da
Análise espectral; Hermann Helmholtz, descobridor da primeira lei da
Termodinâmica (conservação da energia); e Rudolf Clausius, formulador
da segunda lei da Termodinâmica (entropia). Após curto período como
professor nas Universidades de Munique e Kiel, assumiria, em 1889, com
a morte de Kirchhoff, ocorrida em 1887, a cátedra na Universidade de
Berlim, onde permaneceria até 1928, quando se aposentou. Planck, que
recebera em 1918 o Prêmio Nobel de Física (PNF) por sua Teoria Quântica,
assumiria, em 1930, a presidência da Sociedade Kaiser Wilhelm, principal
instituição de pesquisa científica alemã, tendo a ela renunciado, em 1937,
por graves divergências com o regime nazista, mas permaneceria no
país durante toda a Guerra no intuito de preservar e resguardar a vida
científica na Alemanha. Terminado o conflito, Planck seria reconduzido
à presidência da Sociedade, a qual, em sua homenagem, hoje se chama
Instituto Max Planck, um dos mais renomados centros científicos de
pesquisa teórica. Planck teve uma infortunada vida particular, com
a morte de sua primeira esposa, de seu filho mais velho na Primeira
Guerra Mundial, de suas duas filhas gêmeas por complicações após os
partos, e de seu filho mais moço, fuzilado pelos nazistas, em 1944, por
participar de complô contra Hitler. Com sua casa e biblioteca destruídas,
Planck se mudaria para Göttingen, depois da Guerra, onde faleceu e foi
enterrado. Planck escreveu Termodinâmica (1897), Teoria da Radiação do
Calor (1906), Introdução à Física Teórica (1932/33), A Filosofia da Física (1936)
e Autobiografia Científica.
167
CARLOS AUGUSTO DE PROENÇA ROSA
7.4.1.1 - Radiação dos Corpos Negros
Todos os objetos absorvem e irradiam energia. Em Física, “corpo
negro” significa o objeto ideal, que absorve 100% da radiação sobre ele
incidente e deve, quando aquecido, irradiar toda radiação recebida. Se frio,
o objeto parece negro, porque não reflete nenhuma luz. Um objeto, quando
gradualmente aquecido, emite primeiro uma incandescência vermelha, e,
à medida que é aquecido, emite uma luz vermelha, depois amarela, depois
azul-branca e finalmente branca. Isto significa, no espectro de cores da luz,
que a intensidade da luz está se movendo do infravermelho para o azul.
Em decorrência de seus estudos (1859) sobre as linhas espectrais de
Fraunhofer, Kirchhoff pesquisara (1861) o problema do corpo negro, tendo
formulado a chamada lei de emissão e de radiação ou Lei Kirchhoff, pela
qual a capacidade de um objeto emitir luz é equivalente à sua habilidade
de absorvê-la na mesma temperatura. Ou seja, a energia emitida por um
corpo negro dependia somente de sua temperatura e do comprimento da
onda emitida. O problema era que o número de diferentes frequências na
faixa de alta frequência é maior que na faixa de baixa frequência, pelo que,
se o corpo negro irradiasse igualmente todas as frequências de radiação
eletromagnética, toda a energia praticamente seria irradiada na faixa de
alta frequência. Como a mais alta frequência de irradiação no espectro
da luz visível é violeta, teoricamente um corpo aquecido deveria irradiar
unicamente ondas luminosas ultravioletas. Essa situação, chamada de
catástrofe ultravioleta, no entanto, não ocorria, sendo que a Física de então
não podia encontrar uma explicação. A teoria dominante para explicar a
radiação dos objetos aquecidos e as cores que emitiam sustentava o caráter
ondulatório da luz, segundo o qual a energia luminosa emitida teria maior
tendência a ser irradiada numa frequência mais alta que numa mais baixa
pela relação existente entre a frequência de uma onda e seu comprimento.
Quanto mais alta a frequência da onda, mais curto seu comprimento.
Várias tentativas, nos anos seguintes, procurariam explicar o
problema da distribuição da energia espectral. Em 1879, Josef Stefan
estudaria o assunto e concluiria que a energia emitida por um corpo
quente (qualquer temperatura acima do Zero absoluto) era proporcional
à quarta potência de sua temperatura, conclusão a que chegaria também,
em 1894, Ludwig Boltzmann. A chamada Lei Stefan-Boltzmann, somente
válida para corpos negros, relacionava a energia total do corpo com a
temperatura, mas não levava em conta o comprimento da onda. O tema
seria retomado em 1896, por Wilhelm Wien, que explicaria a distribuição
de radiação de um corpo negro apenas para os comprimentos de ondas
168
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
pequenas (alta frequência) e por John Rayleigh/James Jeans para os de
ondas compridas (baixa frequência). A questão da distribuição da radiação
emitida por um corpo negro continuava, portanto, sem solução, uma vez
que as teorias não confirmavam os dados empíricos.
7.4.1.2 - A Concepção de Planck
Dois pressupostos básicos orientariam os estudos iniciais de
Planck sobre a questão da radiação do corpo negro: a de que toda matéria
era composta de átomos, e que a energia era contínua, irradiada em
ondas. Após constatar a impossibilidade de encontrar resposta adequada
nos princípios até então adotados, ocorreria a Planck a necessidade de
introdução de novos conceitos para explicar o fenômeno, o que redundaria
na formulação do que se constituiria numa das duas teorias fundamentais
da Física moderna.
A solução encontrada foi intuitiva, e que a experiência viria a
comprovar, mas que significava um rompimento de grande alcance com
os postulados admitidos de que a luz e o calor seriam emitidos num fluxo
constante de energia: a descontinuidade da energia, que existiria em
pacotes mínimos, indivisíveis59, sugerindo que a energia, como a matéria,
existia em pequenas, mas finitas, unidades. A essas unidades, Planck
chamou de unidade de radiação de energia ou quantum (do latim para
quanto). A originalidade da concepção era supor que o átomo seria capaz
de emitir, de uma só vez, sob a forma de um pequeno grupo de ondas,
toda a energia nele contida. Os átomos, oscilando com a frequência, só
poderiam absorver ou emitir um múltiplo de uma energia E = hf, que
Planck denominou de quantum de energia.
De acordo com a teoria, a energia só se manifestaria nessas
unidades fundamentais, indivisíveis, as quais só seriam ajustáveis em
degraus sequenciais. A energia do quantum estaria em relação direta
com sua frequência, isto é, o quantum de luz violeta (numa extremidade
do espectro da luz) conteria o dobro de quantidade de energia de um
quantum de luz vermelha (na outra extremidade do espectro da luz).
Ou seja, o tamanho do quantum (pacote de energia) seria fixo, mas o
conteúdo de energia seria inversamente proporcional ao comprimento da
onda da radiação (como o comprimento de onda da luz violeta é metade
do da luz vermelha, o quantum de luz violeta conteria duas vezes mais
energia que o da luz vermelha). Como a energia só pode ser emitida e
59 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
169
CARLOS AUGUSTO DE PROENÇA ROSA
absorvida em quanta inteiros, já que não há quantum fracionário, a emissão
de frequências elevadas requer mais energia, o que torna menos provável
a acumulação de energia adicional, e, por conseguinte, torna impossível a
ocorrência da catástrofe ultravioleta.
Planck formularia, ainda, uma equação matemática na qual
relacionaria o conteúdo de energia de um quantum à frequência da radiação,
que, por ser proporcional ao comprimento de onda, seria diretamente
proporcional um ao outro. Em qualquer quantum, a relação entre a energia
contida e a frequência da radiação emitida deveria ter o mesmo valor,
isto é, deveria ser uma constante universal, a que ele chamou de quantum
elementar de ação. Essa constante, hoje conhecida como constante de
Planck, é expressa pela letra “h” (h: 6,626176X10-34 J x seg) e consta da
famosa Equação – E = hv –, a qual significa ser um quantum de energia
(E) igual à frequência (v) da radiação multiplicada à constante de Planck
(h). Ou, em outras palavras, os átomos, oscilando com a frequência, só
poderiam absorver ou emitir um múltiplo de um quantum de energia
E = hf. Assim, em qualquer processo de radiação, a quantidade de energia
emitida, dividida pela frequência, é igual a um múltiplo da constante (h).
O valor da constante de Planck é extremamente pequeno, de dimensões
quase infinitesimais, em que o comprimento é da ordem de 10-35 metros;
a massa, de 10-5 gramas; e o Tempo, 10-43 segundos60. O valor da constante
de “h” está gravado no túmulo de Planck, em Göttingen.
7.4.1.3 - Confirmação da Teoria: O Efeito Fotoelétrico
Inicialmente considerada, pelo próprio Planck, como uma mera
hipótese, sua formulação do quantum passaria à categoria de teoria quando
Einstein a utilizou para explicar o efeito fotoelétrico, outro fenômeno para
o qual a Física não oferecia uma explicação adequada.
Em 1887, Heinrich Hertz, em suas pesquisas experimentais sobre
a Teoria eletromagnética de James Clerk Maxwell, descobriu o chamado
efeito fotoelétrico, resultante da geração de atividade elétrica (centelha)
pela luz ao atingir alguns metais. Por estar envolvido nas investigações
sobre as ondas eletromagnéticas, Hertz não se ocuparia mais do assunto.
Em 1902, o físico alemão Philipp Eduard Lenard estudaria o efeito
fotoelétrico e demonstraria que o efeito se devia à emissão de elétrons,
recém-descobertos por J. J. Thomson. Formularia Lenard duas leis: 1 – os
elétrons emitidos têm velocidades iniciais finitas, são independentes da
60 CRUMP, Thomas. A Brief History of Science.
170
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
intensidade da luz incidente, porém dependem de sua frequência; e 2 –
o número total de elétrons emitidos é proporcional à intensidade da luz
incidente. Tais leis são incompatíveis com a Teoria eletromagnética de
Maxwell (1873), segundo a qual, quanto mais intensa a radiação, maior
seria a energia cinética do elétron61.
O enigma do fenômeno a ser esclarecido era o de a mudança do
comprimento da onda (ou da cor) afetar os elétrons do átomo. Assim,
a luz azul, por exemplo, fazia com que os elétrons fossem emitidos em
velocidades maiores que a da luz amarela, enquanto a luz vermelha não
produzia qualquer efeito. A Física clássica não tinha resposta para o
enigma.
Em artigo publicado no mês de março de 1905 e intitulado Um
ponto de vista heurístico sobre a geração e a transformação da luz, Einstein
esclareceria o assunto recorrendo à teoria quântica. Mostraria que a luz
também é constituída de quanta, e explicaria que esse efeito fotoelétrico só
poderia ser interpretado se fosse admitido que o metal absorve a luz por
“pacotes discretos de energia”. Em seu contato com a matéria, a luz não se
comportaria como um fluxo contínuo, mas como um conjunto de quanta; a
luz teria, assim, uma estrutura intermitente. Quanto mais energia contiver
o quantum, mais velocidade imprime ao elétron cuja emissão provocou.
Assim, a luz vermelha, cujo quantum contém uma energia menor, não tem
qualquer efeito sobre os elétrons do metal. A luz violeta expulsa elétrons
em baixa velocidade; o ultravioleta gera uma velocidade maior; e raios-X
produzem elétrons muito rápidos. A teoria quântica, utilizada por Einstein
em seu artigo, mostrava, assim, que a luz tinha propriedades de partícula.
Por essa explicação quântica do efeito fotoelétrico, Einstein receberia
o Prêmio Nobel de Física (PNF) de 1921. O físico americano Robert
Millikan ganharia, em 1923, o Prêmio Nobel de Física por sua verificação
experimental da equação fotoelétrica de Einstein, pela medição do valor
da carga elétrica do elétron, e pela primeira determinação direta da
constante “h” de Planck (1912-15), e, em 1926, o químico Gilbert Newton
Lewis, em carta à revista Nature, cunhou o termo “fóton” para designar o
“quantum da luz”.
A teoria quântica serviria, em 1913, para fundamentar o modelo
de átomo de Niels Bohr, e a constante de Planck dominaria os cálculos da
Física atômica. Nos anos seguintes, seria estabelecida a Mecânica quântica,
graças às contribuições, entre outros, de Bohr, Born, Jordan, Heisenberg,
Schrödinger, Pauli e Dirac.
61 BASSALO, José Maria Filardo. Nascimentos da Física.
171
CARLOS AUGUSTO DE PROENÇA ROSA
7.4.2 Teoria da Relatividade
O outro pilar em que se assenta a Física moderna é a Teoria da
relatividade, que no dizer do próprio Einstein
se assemelha a um prédio composto de dois pavimentos: a Teoria especial e a
Teoria geral. A Teoria especial, sobre a qual a Teoria geral repousa, aplica-se a
todos os fenômenos físicos, em sistemas inerciais, com exceção da gravidade, e
não se aplica a sistemas acelerados; a Teoria geral generaliza a Teoria especial
para sistemas acelerados, fornecendo a Lei da gravitação e sua relação com
as outras forças da Natureza.
O tremendo impacto dos conceitos enunciados no conjunto da
fabulosa obra científica de Einstein teria imensa repercussão em todo o
campo da Ciência Física, tendo inaugurado, para muitos historiadores
da Ciência, a era da Física moderna em 1905, o “ano milagroso”, com a
publicação de seus cinco famosos artigos.
Albert Einstein (1879-1955) nasceu na cidade de Ulm, em Baden-Würtenberg, tendo feito, a partir de 1889, seus estudos secundários
em Munique, para onde havia sido transferido seu pai, fabricante de
equipamentos elétricos. Mudou-se Einstein para a Suíça, onde concluiu,
em Aarau, seu curso secundário. Em 1896, teve revogada sua cidadania
alemã. Em 1900, concluiu o curso do Instituto Politécnico. Adquiriu a
nacionalidade suíça em 1901, e obteve, por concurso, posto no Instituto de
Tecnologia de Zurique. Insatisfeito com o emprego, subsidiava seu salário
com aulas particulares, até 1902, quando conseguiu o posto de perito
técnico de terceira classe no Escritório de Patente do governo federal,
em Berna. Em 1902, nasceu sua filha, com Mileva Maric, que seria dada
para adoção. Apesar da resistência inicial da família, casou-se Einstein
com Mileva em janeiro de 1903, com quem teria mais dois filhos, Hans
Albert (1904) e Eduard (1910). Durante esses anos, dedicou-se ao estudo
da Física teórica, em particular das obras de Faraday, Kirchhoff, Hertz,
Maxwell, Mach e Lorentz. Em 1905, publicaria nos Anais de Física, cinco
artigos, dois dos quais com a Teoria especial da relatividade, e, em 1907,
formularia o “princípio da equivalência”, trabalho considerado início
de seus estudos que culminariam com a Teoria geral da relatividade.
Em 1909, já com reputação firmada na comunidade científica, aceitou o
convite da Universidade de Zurique para assumir o cargo de professor
associado de Física. Transferiu-se pouco depois para a Universidade de
Praga, como professor titular, mas retornaria temporariamente, em 1912,
172
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
a Zurique, para assumir cátedra no Instituto Politécnico. Em 1911, publicara,
no Annalen der Physik, importante artigo sobre a influência da gravidade
na propagação da luz. Em 1914, mudou-se Einstein para Berlim, onde
assumiria cargo no Instituto Kaiser Guilherme, ingressaria na Academia
Prussiana de Ciências e daria aulas na Universidade de Berlim. Em 1916,
publicou a Teoria Geral da Relatividade, e, ao final da Guerra de 1914-1918,
sua esposa e os dois filhos retornariam à Suíça. Logo após o divórcio, em
1919, Einstein se casaria com sua prima Elsa. Por seu trabalho sobre o efeito
fotoelétrico, de 1905, ganhou, em 1921, o Prêmio Nobel de Física. Nos anos
de 1920, reassumiria a cidadania alemã, sustentaria célebre polêmica com
Niels Bohr sobre a Mecânica quântica, participaria de grande número de
congressos internacionais, proferiria conferências em diversos países e
se dedicaria, sem sucesso, à procura de uma teoria unificada de campo
(primeira versão, em 1929, e a última, em 1953), que uniria as teorias da
gravitação e do Eletromagnetismo. Quando na Califórnia, em 1933, Hitler
assumiu o poder na Alemanha, motivo pelo qual Einstein emigrou para
os EUA, renunciou, pela segunda vez, à cidadania alemã e assumiu a
norte-americana (1940). Aceitou a indicação vitalícia para o Instituto de
Estudos Avançados de Princeton e nunca mais retornou à Alemanha.
Apesar de ter escrito a Roosevelt recomendando o desenvolvimento da
bomba atômica, escreveu e fez campanha pelo desarmamento nuclear e
se opôs às investigações do Congresso, no início dos anos de 1950, sobre
as atividades antiamericanas. Além de Fundamentos da teoria da relatividade
especial e geral (1917), seu primeiro livro, Einstein escreveria, entre outros,
O significado da relatividade (1922); em 1949, O Mundo como eu o vejo; e, em
1950, Meus últimos anos.
7.4.2.1 1905 – O Ano Miraculoso
Até 1904, já havia a prestigiosa revista Annalen der Physik, de Leipzig,
publicado cinco artigos de Einstein (um, em 1901; dois, em 1902; um, em
1903; e outro. em 1904), todos na área da Mecânica estatística, que estuda o
comportamento de átomos e moléculas. Apesar do valor relativo, do ponto
de vista científico, esses trabalhos mostravam o interesse do autor pela Física
teórica, mas não prenunciavam a verdadeira revolução que promoveria, a
partir do ano de 1905, no entendimento dos fenômenos físicos.
Einstein escreveria seis importantes artigos em 1905, dos quais
quatro seriam publicados no número 17 do Annalen der Physik, de Leipzig,
um no número 18, e o sexto no número 19 da mesma revista, em 1906.
173
CARLOS AUGUSTO DE PROENÇA ROSA
Os dois primeiros trabalhos tratavam de átomos e moléculas,
tema altamente controvertido na comunidade científica da época.
O primeiro, intitulado Uma nova determinação das dimensões moleculares, era
fundamentalmente seu trabalho que lhe valeria o doutorado, em janeiro de
1906, da Universidade de Zurique. Nele, o autor apresentaria um novo método
para determinar os raios das moléculas e o número de Avogadro (6,02x1023),
inicialmente calculado em 2x1023, isto é, o número de moléculas existentes
numa molécula-grama de qualquer substância, ou seja, numa quantidade de
massa igual a M gramas, no M é a massa molecular da substância.
No segundo artigo, Sobre o movimento de pequenas partículas suspensas
em líquidos estacionários exigido pela teoria molecular cinética do calor, Einstein
utilizaria os trabalhos de George Stokes (1819-1903) sobre o deslocamento
de uma esfera no líquido e de Jacobus Henricus Van’t Hoff sobre pressão
osmótica para explicar, numa análise matemática e pela colisão entre
átomos e moléculas, o movimento errático do pólen suspenso em líquido,
detectado pelo botânico escocês Robert Brown em 1827.
Caberia acrescentar sobre esses temas que o físico francês
Jean Baptiste Perrin (1870-1942) realizaria uma série de experiências
e observações microscópicas para confirmar os trabalhos de Einstein
e forneceria os primeiros cálculos do tamanho aproximado do átomo.
Perrin poderia contar o número de pequenas partículas de goma-resina
suspensas em diferentes alturas de uma coluna de água e a distribuição
das posições sucessivas de uma partícula em suspensão, agitada pelo
movimento browniano. Perrin estimaria o número de Avogadro entre
6x1023 e 7x1023. Seu trabalho Os Átomos seria publicado em 1913, primeira
constatação objetiva do átomo62.
O terceiro artigo seria relativo ao efeito fotoelétrico, fenômeno
sem explicação pela Teoria ondulatória clássica da luz. Einstein seria
o primeiro a aceitar a hipótese do quantum (unidade fundamental da
energia) de Planck, com a qual explicaria que o efeito fotoelétrico resultaria
da absorção pelo elétron emitido de um quantum hv de energia da luz (no
qual v é sua frequência), quando esta energia absorvida é maior do que a
energia de ligação que prende o elétron ao metal. Indo além da concepção
original de Planck, Einstein apresentaria o quantum de luz e a inovadora
proposta, sem qualquer dado experimental, de ser a luz constituída por
partículas com energia hv, isto é, que a luz deveria consistir de um feixe
descontínuo de radiação. Por essa descoberta, ganharia Einstein o Prêmio
Nobel de Física de 1921 e promoveria a aceitação da Teoria quântica pela
comunidade científica.
62 COTARDIÈRE, Philippe de la. Histoire des Sciences.
174
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.4.2.2 Teoria Especial da Relatividade
O quarto artigo de 1905, publicado em 26 de setembro, é o célebre
Sobre a eletrodinâmica dos corpos em movimento, no qual introduziria
sua Teoria especial (ou restrita) da relatividade, limitada a sistemas de
referência em movimento relativo entre si com velocidades uniformes,
não aceleradas. O termo relatividade foi popularizado por Planck.
No exame da teoria, devem ser indicados, preliminarmente, como
antecedentes recentes: as críticas de Ernst Mach (1838-1916), em A Ciência
da Mecânica (1883), à Mecânica de Newton, principalmente aos conceitos de
Espaço, Tempo e Movimento absolutos; e os trabalhos e pronunciamentos
de Henri Poincaré (1854-1912) do qual são célebres os pensamentos:
“a forma das leis físicas são as mesmas em relação a qualquer referencial
inercial”, e “as leis dos fenômenos físicos devem ser as mesmas tanto
para um observador ‘fixo’ quanto para um observador que se mova com
a velocidade uniforme de translação em relação a ele”63, além de seu
ceticismo quanto às noções de Espaço e Tempo absolutos.
No final do século XIX, havia uma discussão, no meio científico,
sobre como o movimento da Terra no éter (meio invisível, sólido, tênue)
afetaria as ondas luminosas. O entendimento geral era de que, devido
à propagação das ondas luminosas pelo éter (aceito pela comunidade
científica), e ao movimento da Terra no Espaço, a velocidade das ondas
luminosas, medida em direção desse movimento da Terra, deveria ser
maior (velocidade da luz + velocidade da Terra) que a medida numa direção
em ângulo reto com ela (apenas velocidade da luz). Em seus experimentos
com o interferômetro, em 1887, os físicos americanos Albert Michelson
(1852-1931) e Edward Morley (1838-1923) dividiram a luz branca em dois
feixes, um orientado na direção do deslocamento da Terra, e o outro, que
percorria a mesma distância, situado perpendicularmente a esse mesmo
deslocamento. Os dois feixes de luz passavam por um jogo de espelho
e se reuniam num ponto onde produziam “franjas de interferência”. A
corrente de éter deveria provocar aceleração ou desaceleração nos raios de
luz. Como nenhuma “diferença de marcha” entre os dois feixes e nenhum
deslocamento das franjas de interferência foi verificada, o experimento foi
considerado um fracasso, pois não comprovou o que era esperado, tanto
o chamado “vento do éter”, quanto a diferença da velocidade da luz, ou
seja, a velocidade da luz não era afetada pelo movimento da Terra
Com o intuito de explicar o resultado negativo da experiência
Michelson-Morley, o físico irlandês George Fitzgerald (1851-1901),
63 NATALE, Adriano; VIEIRA, Cássio (editores). O Universo sem Mistério.
175
CARLOS AUGUSTO DE PROENÇA ROSA
em 1889, sugeriria uma contração do comprimento do braço do
interferômetro no sentido do movimento. Essa contração do braço teria
ocorrido por um fator suficiente para anular a diferença de chegada
dos dois feixes luminosos64. Em 1892, o físico holandês Hendrik Antoon
Lorentz (1853-1928) sustentaria a hipótese de que os corpos em movimento
se contraem na direção em que este ocorre, e, em 1904, desenvolveria
uma série de equações, chamadas de transformações de Lorentz, que
modificariam as equações de Maxwell sobre o comportamento das
ondas eletromagnéticas que se moviam no Espaço à velocidade da luz.
As equações se referiam a comprimento, massa e tempo, nas quais as
velocidades eram todas menores que a da luz.
Dois postulados são essenciais na Teoria especial da relatividade:
1) Princípio da relatividade – as leis da Física são as mesmas em todos os
sistemas inerciais de referência; e 2) Princípio da constância da velocidade
da luz – a velocidade da luz no vácuo é constante para todos os sistemas
de referência inerciais, qualquer que seja seu movimento ou o da fonte
luminosa. Ao contrário da Mecânica newtoniana, que defendia poder um
objeto se mover a uma velocidade ilimitada desde que acelerado por uma
força suficiente, sustentaria Einstein que a velocidade da luz é constante
medida no vácuo e é também limite, que não pode ser superada, nem
mesmo igualada, por nenhum corpo. A constância da velocidade da
luz, independente do sistema de referência inercial, explicava, assim, o
resultado negativo da experiência Michelson-Morley que, por sua vez,
mostrava a inutilidade da noção do éter, que deveria ser abandonada.
Ao fazê-lo, Einstein rejeitaria, igualmente, o princípio de um referencial
absoluto, de um espaço estacionário absoluto.
Em decorrência dos dois postulados acima, Einstein provaria que
não existe Espaço, Tempo, Massa e Repouso absolutos, como sustentava
Newton: “o Tempo absoluto, verdadeiro e matemático, por sua própria
natureza, sem relação a nada externo, permanece sempre semelhante e
imutável” e “o espaço absoluto, em sua própria natureza, sem relação com
qualquer coisa exterior, permanece sempre semelhante e inamovível”.
Tudo é relativo ao referencial do observador. O Tempo, por exemplo, se
aplica somente ao referencial em que está sendo medido. Em decorrência,
Einstein introduziria a noção da relatividade da simultaneidade,
contestando, assim, seu tradicional caráter absoluto: eventos que são
simultâneos para um sistema de referência não o são necessariamente em
relação a outro, ou, em outras palavras, o que um observador constata,
por meio de medidas, como acontecendo ao mesmo tempo, pode não
64 RIVAL, Michel. Os Grandes Experimentos Científicos.
176
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
ser simultâneo para outro observador que esteja se deslocando com
velocidade constante em relação ao primeiro65.
A Teoria especial mostra, ainda, que dois observadores, situados
em referenciais que se deslocam um em relação ao outro com velocidade
constante v, obteriam medições diferentes para o intervalo de tempo
entre dois eventos e o comprimento de uma barra na direção de v. Está
igualmente implícito na Teoria especial que, a uma velocidade próxima
à da luz, ocorre aumento da massa de um corpo, por causa da energia
cinética para colocá-lo em movimento. Como energia e massa são
intercambiáveis, para aumentar a velocidade do corpo, é preciso aumentar
a energia, o que aumentará a massa do corpo. Assim, o único absoluto no
Universo seria a velocidade constante da luz no vácuo, ou, limite físico
do Universo, razão pela qual Einstein utilizaria, no início, a denominação
de teoria da invariância para sua Teoria especial da relatividade, mas
que não prevaleceria, devido à preferência generalizada, na comunidade
científica, pelo nome de relatividade dado por Planck.
Ainda em 1905, mas no número 18 da Annalen der Physik, seria
publicado o quinto artigo de Einstein, no qual apresentaria sua fórmula,
em que estabelece a relação entre massa e energia. A quantificação dessa
relação está expressa na mais famosa equação da Física - E=MC2, em que a
energia (E) de uma quantidade de matéria com determinada massa é igual
ao produto da massa (M) pelo quadrado da velocidade (C) da luz. De
acordo com a fórmula, uma pequena quantidade de massa contém uma
enorme quantidade de energia, o que não era possível de ser constatado
na época, por ser teoricamente impossível dividir o átomo, e por ser,
assim, tecnicamente irrealizável. Ela serviria, contudo, para explicar o
brilho do Sol e das outras estrelas, e é a fórmula para a fonte de energia
do Universo66. Esta fórmula explica também por que a massa de um corpo
aumenta quando sua velocidade, ou seja, sua energia, é aumentada.
Os dois artigos sobre Relatividade não tiveram repercussão
imediata no meio científico, o que causou grande decepção a Einstein.
Pela complexidade do assunto e pelos conceitos revolucionários
emitidos sobre as bases assentadas da Física clássica, os artigos passaram
praticamente despercebidos, apesar de publicados pela mais importante
revista científica. No entanto, dois dos maiores físicos alemães da época,
Max Planck e Walther Nernst, compreenderam e apoiaram as novas
concepções, o que serviria de incentivo ao jovem Einstein para prosseguir
em seus estudos.
65 66 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
RONAN, Colin. História Ilustrada da Ciência.
177
CARLOS AUGUSTO DE PROENÇA ROSA
A Teoria especial da relatividade trata apenas de observadores com
velocidades constantes, isto é, se aplica apenas a sistemas de referência com
movimentos inerciais, livres de forças e acelerações. Em artigo de 1907,
Einstein teria o que chamou de “o pensamento mais feliz da minha vida”:
a igualdade entre a massa inercial e a massa gravitacional, considerada
mera coincidência pela Mecânica clássica, seria uma indicação de uma
estreita vinculação entre a inércia e a gravitação. Uma pessoa numa caixa
fechada não seria capaz de distinguir se está em repouso num campo
gravitacional ou se está sendo acelerado a uma taxa constante numa nave
no Espaço livre. Essa conexão entre movimento acelerado e gravidade
seria chamada por Einstein de princípio da equivalência, gênese da Teoria
geral da relatividade.
Em 1908, o matemático Hermann Minkowski (1861-1909), que fora
professor de Einstein na Politécnica de Zurique, interpretou, em seu livro
Espaço e Tempo, as transformações de Lorentz como sendo geométricas
num Espaço de quatro dimensões (Espaço-Tempo), que incluía, além das
três dimensões espaciais (altura, largura e comprimento), uma quarta
dimensão, o Tempo. Assim, para especificar corretamente a ocorrência
de um fenômeno, seria indispensável fornecer quatro números ou
coordenadas da ocorrência, concepção de acordo com os postulados da
Teoria especial da relatividade e de fundamental importância para a
futura Teoria geral da relatividade67.
7.4.2.3 Teoria Geral da Relatividade
Terminada a elaboração da Teoria Especial, que trata da massa
inercial, mas não se refere à gravitação, Einstein se dedicaria a meditar sobre
uma Teoria para englobar referenciais acelerados. Em 1907, conceberia o
princípio da equivalência. Em 1911, escreveria artigo, publicado no Annalen
der Physik número 35, sobre a influência da gravidade na propagação da
luz. Adotaria a ideia do Espaço-Tempo. Trabalharia, com a colaboração
do matemático e amigo Marcel Grossmann (1878-1936), em Análise
tensorial e Geometria diferencial, para a fundamentação matemática
da Teoria. Adicionaria a concepção de que o espaço quadridimensional
não é euclidiano (plano), mas curvo, como sugerido pela geometria do
matemático Georg Riemann, em 1854. A revista Annalen der Physk, número
49, de março de 1916, publicaria o artigo de Einstein Os Fundamentos da Teoria
Geral da Relatividade, pela qual todas as leis da Física são invariantes em
67 MASON, Stephen F. Historia de las Ciencias.
178
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
relação a qualquer mudança das variáveis espaciais e temporais. Trata-se,
portanto, de uma extensão da Teoria especial da relatividade, que, no
processo, estabeleceria uma nova Teoria da gravitação, da qual a Teoria
de Newton é um caso particular.
A Teoria geral da relatividade mudaria completamente o conceito
de espaço, cuja estrutura é influenciada pela massa gravitacional. Einstein
provaria que o Espaço fica distorcido pela presença de uma grande massa,
o que ocasiona a gravidade, e que no Espaço curvo a distância mais curta
entre dois pontos não ocorre ao longo de uma reta, mas de uma linha
curva, chamada geodésica. A visão newtoniana da gravidade como
força de efeito instantâneo conflitava, também, com a Teoria especial da
relatividade, que estabelece nada poder ultrapassar a velocidade da luz.
Em essência, a Teoria geral mostra que inércia e gravidade são
equivalentes, o Espaço deve ser pensado em quatro dimensões, e o Espaço-Tempo é curvo, por influência de grande massa, sendo a curvatura o
campo gravitacional. A gravidade não é, assim, uma força, mas é causada
por inclinações e curvas feitas no Espaço pelos objetos, sendo, portanto,
uma manifestação do efeito da matéria no Espaço-Tempo à sua volta. A
curva elíptica descrita pela Terra em órbita do Sol é resultado da distorção
da geometria do Espaço-Tempo causada pela massa do Sol, o que torna
a elipse uma geodésica, isto é, o caminho mais curto no Espaço-Tempo,
e não o resultado de uma “atração à distância”68.
Se a força gravitacional não for muito intensa, como, por exemplo,
a da Terra, a Teoria da gravidade de Einstein é irrelevante para a
curvatura do Espaço-Tempo, pelo que a Teoria gravitacional de Newton
é perfeitamente aplicável para os movimentos dos planetas, com exceção
de Mercúrio que, por estar mais próximo do Sol, sofre mais fortemente o
efeito da distorção provocado pela massa deste.
Três discrepâncias da Teoria com a Mecânica de Newton, assinaladas
por Einstein, foram confirmadas, o que reverteria, oportunamente, o ceticismo
com que a Teoria geral da relatividade foi recebida: a órbita de Mercúrio
não é uma elipse fixa, a luz que passa próxima ao Sol é defletida duas vezes
mais que o previsto pela Mecânica clássica, e a luz, submetida a um intenso
campo gravitacional, sofreria um desvio para o vermelho. A Teoria geral da
relatividade é considerada o marco inicial da Cosmologia moderna.
As Teorias da relatividade mostram como os conceitos de massa,
tempo e energia estão estreitamente ligados, e evidenciam como as
relações da Física clássica deixam de ser exatas quando aplicadas a corpos
em altíssimas velocidades.
68 BRENNAN, Richard. Gigantes da Física.
179
CARLOS AUGUSTO DE PROENÇA ROSA
Com o intuito de divulgar e tornar sua obra científica mais
compreensível para o maior número de interessados, Einstein escreveria,
em 1917, seu primeiro livro, cujo título é autoexplicativo: Fundamentos da
Teoria da Relatividade Especial e Geral.
7.4.3 Física Atômica e Nuclear
O atomismo permaneceria, por todo o século XIX, como uma teoria
contestada por uma parte reduzida, ainda que importante, da comunidade
científica. No livro A New System of Chemical Philosophy, de 1808, John
Dalton (1766-1844) exporia sua teoria atômica, cujo principal postulado
era o de ser a matéria formada por partículas (átomos) extremamente
pequenas, maciças, esféricas e indestrutíveis. Apesar da contribuição
de vários químicos e físicos, o atomismo clássico, na impossibilidade de
sua comprovação experimental, permaneceria como mera teoria. Seus
mais famosos defensores foram Stanislao Cannizzaro, com a defesa da
proposta de Amadeu Avogadro a respeito de moléculas, como conjunto de
átomos; Rudolf Clausius, James Clerk Maxwell e Ludwig Boltzmann, na
Teoria cinética dos gases; Dmitri Mendeleiev, com a Tabela periódica dos
elementos; François Marie Raoult, com a determinação do peso molecular;
William Crookes, na pesquisa dos raios catódicos; Svante Arrhenius,
com sua tese iônica da eletrólise; Antoine Becquerel e a descoberta da
radioatividade natural; e Pieter Zeemann e Hendrik Antoon Lorentz,
sobre a ação do campo magnético sobre as linhas espectrais69.
O físico alemão Eugen Goldstein (1850-1930), em suas experiências
com eletricidade, notou (1886), ao provocar descargas elétricas num
tubo a pressão reduzida e usando um cátodo perfurado, que um feixe
luminoso se propagava em sentido oposto ao dos raios catódicos. Esse
feixe, chamado de raio canal, teria carga positiva e pesquisas posteriores
determinariam que sua massa era 1.836 vezes maior que a do elétron. Em
1904, Rutherford daria o nome de próton a essa partícula e a comprovaria
em 1911. De especial significado para o reforço da teoria atômica e para
o desenvolvimento do conhecimento da estrutura do átomo, seria a
descoberta, em 1897, ao pesquisar os raios catódicos, do elétron, por
Joseph John Thomson (1856-1940), físico inglês, que deduziria sua carga
negativa ao estudar o efeito eletromagnético. Essa descoberta seria
decisiva para uma nova concepção do átomo, o qual seria entendido,
então, como constituído de pequenas partículas. Thomson receberia,
69 TATON, René. La Science Contemporaine.
180
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
em 1906, o Prêmio Nobel de Física (PNF) por suas investigações teóricas e
experimentais sobre a passagem da eletricidade através dos gases. Ainda
em 1897, Ernest Rutherford descobriria dois tipos de partículas: alfa,
átomos de hélio com carga positiva, e beta, elétron de carga negativa, cujas
deflexões magnéticas seriam observadas pelo mesmo Rutherford em 1899,
e, em 1900, Paul Villard (1860-1934) descobriria os raios-gama, neutros,
cuja direção não é afetada pelo campo magnético.
As importantes descobertas e experiências do final do século, em
especial nos campos da Radioatividade, da Teoria cinética dos gases, da
Termodinâmica e do Eletromagnetismo, prosseguiriam nos primeiros anos
do século XX, na busca de uma compreensão da realidade do átomo. Nesse
sentido, caberia citar, a título exemplificativo, i) de Jean Baptiste Perrin
(1870-1942, PNF-1926), a demonstração, em 1895, de que os raios catódicos
eram formados por partículas de carga elétrica negativa, os estudos e
experiências de 1901 sobre a hipótese de os elétrons se deslocarem em órbitas
em torno de um núcleo central, e sua comprovação experimental (1913) do
átomo; ii) de Ernest Rutherford ao observar (1902) que o átomo de hidrogênio
poderia ter mais de mil elétrons; iii) de William Thomson (1824-1907), mais
conhecido como Lorde Kelvin, ao adiantar a ideia, em 1902, de que no átomo
poderia haver uma carga positiva distribuída homogeneamente sobre um
volume esférico; iv) de Philipp Lenard (1862-1947), Prêmio Nobel de Física de
1905, com o trabalho em que cada átomo excitado emite todas as séries de seu
espectro; e v) do inglês Charles Barkla (1877-1944), ao mostrar serem os raios-X
polarizados, e haver uma relação entre peso atômico e a emissão de raios-X
secundários por elementos químicos. Em 1902, Rutherford e o químico inglês
Frederick Soddy (1877-1956) formularam a teoria da transmutação espontânea
sofrida por algumas espécies atômicas e escreveram, em 1903, artigo no qual
foi empregada, pela primeira vez, a expressão “energia atômica”, além de
apresentarem o princípio da conservação da radioatividade. Rutherford
mostrou ainda, em 1903, que as partículas alfa eram desviadas em campos
elétricos fortes e que portavam carga elétrica positiva.
7.4.3.1 Modelo Atômico de Thomson
As pesquisas de J. J. Thomson, professor de Física experimental do
Laboratório Cavendish, sobre descargas elétricas nos gases, demonstraram
a deflexão de partículas, em decorrência de campos eletromagnéticos. A
medição da relação energia/massa para cada uma das partículas permite
conhecer a massa do elétron (o nome elétron havia sido proposto por
181
CARLOS AUGUSTO DE PROENÇA ROSA
Johnstone Stoney como unidade de carga elétrica, pois não se sabia,
então, que havia uma partícula com essa carga70). A descoberta do elétron
culminaria, em 1903, com a publicação, na revista Philosophical Magazine,
de seu trabalho com a primeira versão do que viria a ser conhecido como
o famoso modelo “pudim de ameixas”, segundo o qual o átomo seria uma
esfera maciça. Como não poderia existir apenas carga elétrica negativa
(elétron), imaginaria o átomo com elétrons espalhados numa densidade
contínua, e igual, de carga elétrica positiva, o que deixava o átomo
eletricamente neutro. Assim, no modelo, o átomo era constituído por uma
“pasta” positiva, recheada de elétrons de carga negativa, de distribuição
ao acaso na esfera (raio da ordem de 10-8 cm). Sabendo, pela demonstração
do físico inglês Joseph J. Larmor (1857-1942), que um elétron acelerado
perdia energia, Thomson considerou que estes giravam em anéis com
velocidade angular constante.
O modelo foi reapresentado, em 1904, na Philosophical Magazine,
e incluído no Relatório da Sociedade Filosófica de Cambridge. Ainda em
1904, Thomson publicaria o livro Electricity and Matter, no qual afirmaria
que o átomo de hidrogênio conteria cerca de mil elétrons. É de particular
importância registrar as novidades i) de o átomo deixar de ser considerado
um corpo elementar simples, pois consistia de duas partes, positiva e
negativamente carregadas, unidas pelas forças de atração elétrica; ii) da
admissão da divisibilidade do átomo; e iii) do reconhecimento da natureza
elétrica da matéria.
No mesmo ano de 1904, e no Philosophical Magazine, o físico
japonês Hantaro Nagaoka (1865-1950) apresentou modelo atômico do tipo
saturniano, de um caroço central positivo rodeado de anéis de elétrons
deslocando-se com velocidade angular.
As investigações prosseguiriam nos domínios da Química e da
Física, permitindo um melhor conhecimento de várias áreas, como do
espectro eletromagnético, de novas linhas espectrais, da radioatividade,
do espalhamento das partículas alfa e beta, do decaimento radioativo.
Nesse sentido, devem ser lembradas as contribuições de Lorde Kelvin,
William Bragg (1862-1942, PNF 1915), Louis Karl Heinrich Friedrich
Paschen (1865-1947), Walther Ritz (1878-1909), Johannnes Stark
(1874-1957, PNF-1919), Otto Hahn (1870-1968, PNQ-1944), Lise Meitner
(1878-1968), Hans Geiger (1882-1945), Wilhelm Wien (1864-1928, PNF1911), Ernst Marsden (1889-1970), Arthur Haas (1884-1941) e William
Wilson (1875-1965). Ernest Rutherford publicaria, em 1904, Radioactivity,
livro que descrevia suas experiências sobre esse fenômeno.
70 SCHENBERG, Mario. Pensando a Física.
182
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.4.3.2 Modelo Atômico de Rutherford
O neozelandês Ernest Rutherford (1871-1937) ganhou, em 1895,
por dois estudos sobre radioatividade, bolsa de estudos, tendo escolhido
o Laboratório Cavendish, da Universidade de Cambridge, então dirigido
por J. J. Thomson, como a instituição para se especializar em pesquisas dos
fenômenos eletromagnéticos. Em 1897, distinguiu duas formas diferentes
de emanações radioativas do urânio, às quais Rutherford chamou de raios
alfa e beta, que seriam utilizadas em suas pesquisas para a natureza do
átomo. Em 1898, aceitou o cargo de professor da Universidade McGill, em
Montreal, onde, com a colaboração, no período de outubro de 1901 a abril
de 1903, do químico Frederick Soddy, escreveria nove importantes artigos
sobre radioatividade. Rutherford desenvolveria, inclusive, o conceito
de “vida-média”, a partir da deterioração do tório a uma velocidade
constante numa série de outros elementos, se estabilizando, finalmente,
como chumbo, o que permitiria usar a radioatividade para a verificação
da idade da Terra, ao mesmo tempo em que avançava a ideia desse tipo
de transmutação dos elementos. Regressou à Inglaterra em 1907 para
assumir a cátedra de Física na Universidade de Manchester. Ganhou,
por seus trabalhos, o Prêmio Nobel de Química de 1908. Transferiu-se
para a Universidade de Cambridge, em 1919, e assumiu a direção do
Laboratório Cavendish, na vaga de J. J. Thomson, recentemente falecido.
Nesse mesmo ano, realizou a primeira transmutação artificial do elemento
nitrogênio, que foi transformado num isótopo do oxigênio, por meio do
bombardeamento com partículas alfa. Entre 1925 e 1930, foi Presidente
da Sociedade Real, e, em 1931, foi agraciado com o título de Barão, com
assento na Câmara dos Lordes. Além de Radioactivity (1904), escreveu
Radioactivity Transformations (1906), Radioactivities Substances and Their
Radiations (1930), e The Newer Alchemy (1937).
Desde 1906, fazia Rutherford experiências com partículas alfa
produzidas por substâncias naturalmente radioativas, como o rádio.
Procurando compreender a natureza dessas partículas extremamente
energéticas, que se deslocavam em altíssimas velocidades, concluiria,
em 1908, depois das experiências de seu assistente Hans Geiger, que a
partícula alfa era um átomo de hélio, portador de uma dupla carga
positiva. Rutherford se utilizaria de tais partículas para sondar o interior
dos átomos, convencido de que, no interior, deveria estar o centro de
forças elétricas muito importantes. Verificou em suas experiências que as
partículas se dispersavam quando passavam através da matéria, pelo que
resolveu estudar a dispersão das partículas alfa. A experiência, levada a
183
CARLOS AUGUSTO DE PROENÇA ROSA
cabo por Ernest Marsden, consistia num pedaço de rádio emitindo um
feixe de partículas alfa, uma finíssima folha de ouro, que servia de alvo, e
telas de sulfato de zinco, que produziam cintilações quando as partículas
alfa as tocavam. O essencial do feixe de partículas passou diretamente
através da fina folha, sendo muito ligeiramente desviado. Porém, havia
alguns desvios em ângulos bem grandes, e até mesmo algumas reflexões.
Desse inesperado e surpreendente resultado experimental, concluiria
Rutherford que a partícula alfa em geral não colidia com o núcleo atômico,
mas quando isto acontecia, encontrava um campo tão intenso no átomo
que era fortemente desviada de seu caminho. Para produzir uma deflexão
tão importante da partícula alfa, quando de uma colisão atômica, o átomo
devia consistir num centro maciço, eletricamente carregado, de dimensão
muito pequena71.
Em maio de 1911, Ernest Rutherford apresentou, na revista
Philosophical Magazine, e no Relatório da Sociedade Literária e Filosófica de
Manchester, os resultados de suas experiências sobre o espalhamento das
partículas alfa e beta pela matéria e a existência de um núcleo no interior do
átomo, no qual deveria haver uma partícula neutra (o nêutron – cuja massa
é 1.836 vezes a do elétron – seria descoberto por James Chadwick, em 1932).
No núcleo, estaria concentrada toda a carga positiva nas partículas que
chamou de prótons (do grego prótons para primeiras coisas). A existência
dessas partículas – a massa do próton é 1.836 vezes maior que a do elétron
– seria comprovada pelo próprio Rutherford em 1919, arrancando-as de
núcleos de nitrogênio por meio de partículas alfa. O modelo de átomo
de Rutherford passou a ser conhecido como “planetário”, pois o átomo
seria como o Sistema Solar, o núcleo representando o Sol, e os elétrons,
os planetas, girando em órbitas circulares, formando a eletrosfera, região
externa ao núcleo. Calculou o raio do átomo como de 10 mil a 100 mil vezes
maior que o raio do núcleo, o que significava que o átomo era formado por
espaços vazios. Em 1929, Rutherford apresentaria a ideia de que o núcleo
atômico era constituído por prótons e elétrons.
O modelo se baseava na teoria do Eletromagnetismo, segundo a
qual toda partícula com carga elétrica, submetida a uma aceleração, geraria
uma onda eletromagnética. Desta forma, o elétron, quando submetido a
uma força centrípeta, irradiaria energia na forma de onda eletromagnética.
Essa emissão faria o elétron perder energia cinética e potência, acabando
por operar uma série de órbitas, que se tornariam espiraladas, vindo a cair
sobre o núcleo. O modelo mostrava, por conseguinte, um átomo instável
(duraria apenas de 10 a 11 segundos), o que não ocorre na prática.
71 RIVAL, Michel. Os Grandes Experimentos Científicos.
184
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.4.3.3 Modelo Atômico de Bohr
Niels Hendrik David Bohr (1885-1962) ingressou na Universidade
de Copenhague, sua cidade natal, em 1903. Formou-se em Física, no ano
de 1909, e concluiu o Doutorado, em 1911, com uma tese sobre a teoria dos
elétrons. Em 1911, foi para Cambridge para trabalhar com J. J. Thomson e
complementar seus conhecimentos, mas se transferiria, em março do ano
seguinte, para Manchester, onde trabalharia com Ernest Rutherford, com
quem estabeleceria uma sólida e longa amizade e colaboração. Em 1913,
publicaria sua teoria sobre a estrutura atômica, conquistaria prestígio no
meio científico, e, em 1916, retornaria à Dinamarca, nomeado professor de
Física teórica da Universidade onde estudara. Em 1922, inauguraria, como
Diretor, o Instituto de Física Teórica de Copenhague, que em poucos anos
ganharia a reputação de ser um dos mais importantes centros de pesquisa de
Física nuclear. Nesse instituto, seria desenvolvida, com a colaboração, entre
outros, de Max Born, Werner Heisenberg e Wolfgang Pauli, a Mecânica
quântica. No mesmo ano (1922) em que, sob sua supervisão, foi descoberto
o elemento “háfnio” e formulou seu princípio da correspondência, segundo
o qual para números quânticos muito grandes, ou seja, em frequências
baixas, as leis da Teoria quântica e da Mecânica clássica se tornavam
idênticas, Bohr receberia o Prêmio Nobel de Física (PNF), sua consagração
como um dos mais importantes cientistas do século, e, em 1930, a Medalha
Max Planck (MMP). O Princípio da complementaridade (1927) de Bohr,
de partícula e onda como descrições complementares da mesma realidade
atômica, e o Princípio da Incerteza de Heisenberg seriam centrais na célebre
controvérsia que, durante mais de 35 anos, sustentou com Einstein sobre
a Filosofia da Física quântica72. Durante os anos 30, expandiria o campo
da Física nuclear e sugeriria o modelo da “gota líquida” para o núcleo
do átomo. Apesar de sua notória atitude política antinazista, permaneceu
Bohr na Dinamarca, invadida, em 1940, pela Alemanha, até 1943, com o
intuito de preservar os estudos e pesquisas do Instituto de Física Teórica.
Diante dos boatos de que seria preso, e da insistência de amigos, escapou,
com a família, para a Suécia, e depois viajou para a Inglaterra e EUA, onde
permaneceu até o final da Guerra. De regresso à Dinamarca, retornou Bohr
à atividade, aposentando-se em 1955.
O modelo de átomo de Bohr representa grande mudança de
concepção em relação ao modelo de Rutherford, já que contrariava alguns
fundamentos da Eletrodinâmica de Maxwell e da Mecânica de Newton, e
aplicava a Teoria quântica de Planck. Trata-se, na realidade, de um modelo
72 BRENNAN, Richard. Gigantes da Física.
185
CARLOS AUGUSTO DE PROENÇA ROSA
misto, numa tentativa de reconciliar a Física clássica, de aplicação para
corpos macroscópicos, com a Física para objetos de dimensão atômica.
Seu modelo se refere ao átomo do hidrogênio, com um próton e um
elétron, e se basearia, na elaboração de sua teoria, na fórmula empírica
do matemático suíço Johann Jakob Balmer (1825-1898) para determinar as
linhas espectrais do hidrogênio.
Os cientistas da segunda metade do século XIX e início do XX
estavam buscando explicações para as séries espectrais dos elementos
químicos. Observadas por Josef von Fraunhofer (1787-1826) em 1814,
chegou o físico alemão a calcular o comprimento das ondas de algumas das
574 linhas espectrais que observara no espectro solar. Em 1885, o professor
Balmer descobriu uma fórmula (eleve 3 ao quadrado; divida 1 pelo
resultado e subtraia essa fração de ¼; multiplique a resposta pelo número
32.903.640.000.000.000) para calcular a frequência (e consequentemente
o comprimento da onda) da linha vermelha do espectro visível do
hidrogênio. Se em lugar do 3, se começar pelo número 4, obtém-se a linha
verde do espectro, e com o número 5, a linha violeta. Os números inteiros
seguintes (6, 7, 8, etc.) produzem algarismos que também correspondem
a sua frequência73.
Bohr estudaria a radiação do átomo de hidrogênio com o objetivo
de encontrar uma explicação para as linhas espectrais. Já era conhecido,
no início do século XX, que a radiação da luz branca, como a luz solar, era
decomposta em diversas cores. No caso da decomposição da luz solar,
se obtém um espectro contínuo, formado por ondas eletromagnéticas
visíveis e invisíveis. No caso, porém, de a luz que atravessar um prisma
ser emitida por certas substâncias, como, por exemplo, hidrogênio, sódio
ou neônio, o espectro será descontínuo, caracterizado por linhas coloridas
separadas. Isto significa que somente alguns tipos de radiação luminosa
são emitidos, ou radiações de valores determinados de energia são
emitidas, particularidade que intrigava os cientistas.
Ainda que o modelo planetário de Rutherford parecesse correto a
Bohr, a instabilidade nesse modelo indicava ser indispensável uma nova
formulação que aperfeiçoasse a estrutura do átomo, mesmo que tivesse
de renegar alguns dogmas da Física clássica. Trabalhando no Laboratório
Cavendish, próximo a Thomson e Rutherford, apresentaria Bohr, em
dois anos, um modelo alternativo ao concebido por seu grande amigo
Rutherford. O grande valor de Bohr, na formulação de um novo modelo,
foi sua coragem de abandonar a Teoria eletromagnética de Maxwell e
a Mecânica de Newton, estabelecendo que o elétron deveria descrever
73 STRATHERN, Paul. Bohr e a Teoria Quântica.
186
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
órbitas discretas circulares, quantizadas, em torno do núcleo, e que,
enquanto estivesse se movendo numa das órbitas, não emitia nenhuma
radiação eletromagnética, o que era contrário à teoria de Maxwell.
Bohr apresentou seu modelo atômico em três artigos publicados no
Philosophical Magazine, dos meses de julho (Sobre a Constituição de Átomos
e Moléculas), setembro (Sistemas que Contêm Um Só Núcleo) e novembro
(Sistemas que Contêm Vários Núcleos), de 1913. Seu modelo é um núcleo
no qual estariam prótons e nêutrons, e, por fora, girando, os elétrons em
órbitas (camadas eletrônicas) circulares, fixas, concêntricas e específicas,
denominadas K, L, M, N, O, P, Q, ou 1, 2, 3, 4, 5, 6 e 7, números que
correspondem ao respectivo número quântico principal. Cada camada
poderia possuir um número determinado de elétron que é ligeiramente
maior que a camada mediatamente inferior. A camada K poderia conter,
no máximo, 2 elétrons; a L, 8; a M, 18; a N, 32; a O, 18; a P, 18; e a Q, 8
elétrons. A última camada de qualquer átomo não poderia conter mais
de oito elétrons. De acordo com o número quântico principal, calculou
Bohr a distância das diversas órbitas em relação ao núcleo. O átomo
estaria em estado fundamental ou estacionário quando seus elétrons
ocupam as camadas menos energéticas. Quando o átomo recebe um
quantum de energia, o elétron salta para uma órbita mais energética,
mais afastada do núcleo. É o chamado salto quântico. Quando retorna,
porém, a uma órbita menos energética, o elétron perde, na forma de onda
eletromagnética, uma quantidade de energia que corresponde à diferença
de energia existente entre as órbitas envolvidas. O elétron, enquanto gira
na mesma órbita, não emite energia, mas ao saltar para outra órbita emite
ou absorve uma quantidade definida de energia (quantum de energia).
Ao saltar e ao voltar à sua órbita inicial, o elétron emite uma irradiação
eletromagnética, que se traduz por uma listra espectral. Seu postulado é,
assim, o de que o elétron só emite energia quando passa de uma órbita
de maior energia para uma de energia mais baixa. A diferença de energia
entre as duas órbitas é que era transportada pela radiação quantizada, sob
a forma de fóton. A relação entre a frequência e a quantidade de energia
emitida é dada pela teoria de Planck. Ou, em outras palavras, a energia
não era continuamente irradiada pelo elétron, pois ela era descontínua,
em pacotes, estabelecendo o vínculo entre a série de Balmer e o quantum.
Bohr induzira da fórmula de Balmer que a energia liberada pelo elétron
saltando de uma órbita para outra era emitida na quantidade suficiente
em pacotes ou quantizada. Para a determinação da órbita, Bohr iria contra
a Mecânica de Newton, ao preconizar que só eram possíveis órbitas em
que o momento angular do elétron fosse um múltiplo inteiro da constante
187
CARLOS AUGUSTO DE PROENÇA ROSA
(h) de Planck, porque a constante tem exatamente a dimensão de um
momento angular. Segundo a Mecânica de Newton, qualquer valor do
momento angular seria permitido.
A comunidade científica teve uma recepção pouco entusiástica ao
trabalho de Bohr, dividindo-se entre o apoio de Einstein e James Jeans
(1877-1946), a desconfiança de John William Strutt Rayleigh (1842-1919),
Arnold Sommerfeld e Hendrik Lorentz, e a oposição de J. J. Thomson.
Em 1914, James Franck (1882-1964, MMP-1951) e Gustav Hertz
(1887-1975, MMP-1951) confirmariam, com dados experimentais, pelo
bombardeamento de átomos de mercúrio por elétrons, a natureza quantizada
da transferência de energia do modelo atômico de Bohr, pelo que os dois
físicos alemães receberiam o Prêmio Nobel de Física (PNF) de 192574.
Arnold Sommerfeld (1916), para explicar o Efeito Zeeman no
hidrogênio, aperfeiçoaria o modelo atômico de Bohr. Percebendo que as
raias orbitais do modelo eram um conjunto de raias finas, concluiu que um
dado nível de energia era composto, na realidade, de subníveis (de quatro
tipos: s, p, d, f) de energia, aos quais estavam associadas várias órbitas
diferentes, sendo uma, circular, e as demais, elípticas. Generalizando a
quantização de Bohr, estendendo-a para órbitas elípticas, Sommerfeld
seria um pioneiro da Mecânica quântica relativística. Sua outra importante
contribuição à Física seria a descoberta da famosa “constante universal
de estrutura fina”, que é um número sem dimensão, constituído pelo
quadrado da carga do elétron, a constante de Planck e a velocidade da
luz: E2/HC ou a divisão 1/137, que caracteriza a magnitude da força
eletromagnética.
Ainda em 1916, o físico e químico holandês, Petrus Joseph Wilhelm
Debye (1884-1966, PNQ 1936, MMP-1950) também usaria o modelo BohrSommerfeld para explicar o Efeito Zeeman (efeito dos campos magnéticos
no desdobramento das linhas centrais espectrais, ou, em outras palavras,
efeito do magnetismo sobre a luz).
7.4.3.4 Outros Desenvolvimentos
Nos anos seguintes, haveria um extraordinário interesse pela
Física atômica, refletido nos avanços teóricos e experimentais sobre
radiação, matéria, partícula, Efeito Zeeman e espectro eletromagnético,
entre outros fenômenos. Em 1923, ocorreria a descoberta do chamado
efeito Compton, pelo físico americano Arthur Compton (1892-1962,
74 RIVAL, Michel. Os Grandes Experimentos Científicos.
188
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
PNF-1927) que, em suas pesquisas sobre a natureza dual da radiação
eletromagnética, ou seja, partícula/onda, confirmaria a teoria do quantum
de luz exposta por Einstein em 1905.
A massa de alguns átomos indicava que, além de elétrons e
prótons, deveria haver no interior do átomo alguma outra partícula,
ainda não detectada, sem carga, mas com massa aproximadamente igual
à do próton. Em 1932, o físico inglês James Chadwick (1891-1974), que
trabalhara no Laboratório Cavendish, como assistente de Rutherford
(que aventara a existência de uma partícula neutra no núcleo do átomo),
descobriria o nêutron, partícula eletricamente neutra. Por essa descoberta,
receberia o Prêmio Nobel de Física de 1935. A partir de então, o modelo
de átomo elétron-próton cederia lugar para o atual próton – nêutron –
elétron, no qual o átomo é considerado como possuindo certo número de
prótons, igual ao número atômico (Z), elétrons suficientes para neutralizar
sua carga e tantos nêutrons (A-Z) quantos necessários para completar o
número de massa (A). Deve ser registrado que Walther Bothe (1891-1957,
PNF-1954), em 1930, e o casal francês de físicos Frédérick e Irène JoliotCurie, em 1931, bombardearam elementos leves, como lítio (Li), berílio
(Be), alumínio (Al) e boro (B), com partículas alfa emitidas pelo polônio
(Po), mas não reconheceram a radiação produzida como a partícula
nêutron, mas como raios-Gama. Outros físicos, como Francis Henri Perrin,
Pierre Victor Auger e Wolfgang Pauli, já haviam escrito, também, sobre a
existência de uma partícula neutra no núcleo do átomo.
A estrutura do átomo, conhecida a partir dos primeiros anos
da década de 30, era, assim, a de um núcleo, formado pelas partículas
elementares próton (de carga positiva) e nêutron, e de uma eletrosfera,
com a partícula elementar elétron (de carga negativa). O modelo atômico
de Bohr seria, contudo, substituído pelo modelo orbital da Mecânica
quântica, baseado na Teoria quântica de Planck, na dualidade partícula-onda de Louis de Broglie, na Mecânica ondulatória de Schrödinger, no
modelo matricial e no Princípio da Incerteza de Heisenberg, nos trabalhos
de Max Born e Pascual Jordan, e na Mecânica quântica de Paul Dirac.
Esse modelo quântico do átomo está apresentado no capítulo referente à
Mecânica quântica.
A Física atômica e nuclear continuaria, na década de 30, como uma
das áreas de intensa pesquisa, teórica e experimental, no intuito de entender
a estrutura do átomo e o funcionamento de seus componentes. O irlandês
Ernest Walton (1903-1995, PNF-1951) e o inglês John Cockcroft (1897-1967,
PNF-1951), ambos trabalhando no Laboratório Cavendish, obtiveram,
em abril de 1932, a primeira reação nuclear com aceleradores artificiais.
189
CARLOS AUGUSTO DE PROENÇA ROSA
A importância desse experimento está em ter sido pioneiro no resultado
da história dos aceleradores de partícula, na desintegração nuclear, na
demonstração da validade da teoria do efeito túnel e na verificação da
equivalência entre energia e matéria75. Ainda em 1932, Heisenberg e o russo
Dmitri Iwanenko proporiam, separadamente, a hipótese de que os prótons
e os nêutrons, constituintes do núcleo atômico, se comportavam como
partícula única, denominada núcleon, que interagiam por meio de uma
força atrativa capaz de superar a força repulsiva. No ano seguinte, o físico
húngaro Leo Szilard (1898-1964) adiantaria sua ideia sobre a produção
de energia pela reação nuclear, em que dois nêutrons fracionam dois
átomos de berílio, que liberam mais quatro nêutrons, e assim por diante, e
Patrick Blackett e Giuseppe Occhialini confirmariam, experimentalmente,
a existência do pósitron (antipartícula do elétron), descoberto em 1932,
por Carl Anderson, e já previsto por Dirac, em 1928.
Em 1934, o casal Frédéric e Irène Joliot-Curie apresentou à
Academia de Ciências de Paris o resultado de suas experiências com
o bombardeamento do alumínio (Al) com partículas alfa, tendo sido
observado que o alvo do Al, depois de expelir nêutrons, continuava a
emitir radiações provenientes de um isótopo (radioisótopo) do fósforo,
não encontrado na Natureza. Tratava-se da descoberta da radioatividade
artificial, pela reação nuclear, o que lhes valeu, no ano seguinte, o Prêmio
Nobel de Química. Em maio desse mesmo ano, Enrico Fermi (1901-1954,
PNF-1938, MMP-1954) realizou experiências sobre a radioatividade
induzida, bombardeando, com nêutrons, alguns elementos químicos
em ordem crescente do número atômico, inclusive o urânio. Apesar de
ter obtido a desintegração e a correspondente meia-vida do urânio, não
compreendeu Fermi e seus colaboradores o significado do resultado da
pesquisa. Prosseguindo suas investigações sobre radioatividade induzida,
Fermi descobriu, em outubro, que os nêutrons tinham sua velocidade
reduzida quando atravessavam a parafina. Desenvolveria, então, a técnica
de obtenção de nêutrons lentos ou térmicos, e passou a produzir novos
elementos radioativos artificiais. Fermi e seu grupo de colaboradores
não foram capazes de perceber que tais nêutrons eram a chave da fissão
nuclear76, já que era maior a probabilidade de se obter a fissão do urânio
(U235) para nêutrons lentos do que para nêutrons rápidos.
O físico japonês Hideki Yukawa (1907-1981, PNF-1949) proporia
a existência de uma força nuclear (força forte) de curto alcance entre
os núcleons, mediada por partículas de massa intermediária entre a do
75 76 RIVAL, Michel. Os Grandes Experimentos Científicos.
BASSALO, José Maria Filardo. Nascimentos da Física.
190
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
elétron e a do próton, a que se chamaria méson. Em 1936, Niels Bohr,
para explicar as desintegrações nucleares, divulgaria seu modelo nuclear
conhecido como gota líquida, em que os núcleons (próton e nêutron),
considerados como constituindo uma gota líquida, se encontram em
estado de agitação térmica, movendo-se ao acaso.
7.4.3.5 Fissão Nuclear
Em 1938, os químicos alemães Otto Hahn (1879-1968, PNQ-1944,
MMP-1949) e Fritz Strassmann (1902-1980), e a física austríaca Lise Meitner
(1878-1968, MMP-1949) haviam descoberto, teoricamente, que bombardeando
certos átomos com partículas de materiais radioativos seria possível quebrar
(fissionar) o núcleo daqueles átomos, liberando energia. Estava, assim,
dominado o processo físico fundamental para a geração da energia nuclear:
bombardeado por nêutrons, os núcleos dos isótopos de urânio (U235 e U233)
absorvem as partículas e se tornam instáveis, partindo-se em dois pedaços
espontaneamente. O núcleo do urânio se fragmenta em núcleos mais leves,
chamados de fragmentos de fissão, como bário e criptônio. A energia
correspondente às forças nucleares que uniam os pedaços é subitamente
liberada na forma de energia cinética (energia de movimento) desses
fragmentos e de nêutrons liberados pela fissão. Tratava-se de experiência
análoga às do casal Joliot-Curie e de Fermi, com o bombardeamento do
urânio com nêutrons lentos. Informado por Otto Frisch (1904-1979) de que
ele mesmo e Lise Meitner haviam preparado artigo a ser publicado na revista
inglesa Nature sobre a cisão do urânio nos estudos de Hahn/Meitner/
Strassmann, Bohr, que se encontrava numa conferência internacional de
Física, nos EUA, anunciaria aos participantes a histórica novidade de ter sido
alcançada a fissão nuclear.
A fissão, além dos fragmentos, produz também dois ou três
nêutrons, que são absorvidos pelos núcleos do urânio, os quais se
tornam instáveis, provocando novas fissões e novos nêutrons, que
provocarão novas fissões em novos núcleos, numa reação nuclear
em cadeia. O problema era como estabelecer uma reação em cadeia
controlada para que pudesse ser utilizada na geração de energia.
As pesquisas em Física atômica e nuclear, que avançavam em alguns
centros europeus, como Alemanha, Grã-Bretanha, Dinamarca, França e Itália,
praticamente cessariam com o início do conflito mundial de 1939. As potências
beligerantes passariam a priorizar, no esforço de guerra, a pesquisa voltada para
a maior eficiência de novas e tradicionais armas de guerra (aviões, submarinos,
191
CARLOS AUGUSTO DE PROENÇA ROSA
tanques, carros de combate, porta-aviões, aparelhos de comunicações, radar),
o que não incluía a produção de energia. Em vista da informação do sucesso
da pesquisa na Alemanha quanto à fissão nuclear e temeroso de que o inimigo
estivesse investindo maciçamente no desenvolvimento de uma “bomba
atômica”, o governo dos EUA daria prioridade a um programa secreto, chamado
Projeto Manhattan, de outubro de 1941, cuja pesquisa esteve sob a direção
do físico Julius Robert Oppenheimer, chefe de pesquisa da Universidade de
Chicago. O objetivo não seria energético, mas de fabricação da bomba nuclear.
O projeto teria impulso após o ataque japonês à base naval de Pearl Harbour,
determinante da entrada dos EUA na Guerra contra os países do Eixo. Em
dezembro de 1942, Fermi e seu grupo de 15 cientistas da Universidade de
Chicago produziram a primeira reação nuclear em cadeia controlada. Os
EUA, que acolheram alguns importantes cientistas foragidos da perseguição
nazista e da Guerra (Fermi, Hahn, Leo Szilard, Eugene Wigner, Hans Bethe),
desenvolveria o projeto nos Laboratórios de Los Alamos, no Novo México, e
de Oak Ridge (enriquecimento de urânio), no Tennessee. Em apenas três anos
de intensa investigação, foi possível detonar, em 16 de julho de 1945, no deserto
de Alamogordo, no Novo México, a bomba nuclear chamada de Trinity, a
primeira explosão nuclear da História. Logo em seguida (menos de um mês),
uma bomba de urânio cairia sobre Hiroshima (6 de agosto) e uma de plutônio
(Pu239, material físsil obtido a partir de U238) sobre Nagasaki (9 de agosto).
Com o término da Guerra, o início da corrida armamentista e a
retomada das pesquisas em outros países, o segredo da fabricação de
bomba atômica seria desvendado, restando apenas, para sua fabricação, as
dificuldades para superar as limitações técnicas, financeiras e industriais.
Desde então, o grande avanço teórico e experimental, aliado ao
desenvolvimento de equipamentos de pesquisa, conduziria a importantes
descobertas para melhor conhecimento do interior do átomo. Um novo
campo de investigação, denominado Física das partículas, dedicada ao
estudo dos constituintes mais elementares da matéria e da energia, se
abriria na Física, despertando crescente interesse e atividade no meio
científico.
7.4.4 Física Quântica
A experiência adquirida nos primeiros anos do século XX
atestava a inaplicabilidade de leis e de princípios da Mecânica e da
Eletrodinâmica clássicas ao mundo atômico e molecular. Exemplo nesse
sentido era o modelo atômico de Rutherford em que o elétron, gravitando
192
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
em torno de um núcleo positivo, deveria irradiar continuamente ondas
eletromagnéticas, perdendo, em consequência, energia até cair sobre o
núcleo, o que realmente não acontece. Por outro lado, a Física clássica não
tem como explicar a existência de moléculas, pelo que seria indispensável
a formulação de uma nova Física corpuscular, que descrevesse o
comportamento da matéria em escala reduzida, microscópica.
A partir dos trabalhos pioneiros de Niels Bohr, examinados
anteriormente no capítulo da Física atômica e nuclear, e de Louis de
Broglie, seria desenvolvida, nos anos 1925-28, a chamada Mecânica
quântica, na base das pesquisas e formulações principalmente de Max
Born (1882-1970), Ernst Pascual Jordan (1902-1980), Werner Heisenberg
(Mecânica matricial), Erwin Schrödinger (Mecânica ondulatória),
Wolfgang Pauli e Paul Adrien Maurice Dirac, a qual daria respostas
apropriadas aos fenômenos no mundo atômico e subatômico.
7.4.4.1 Dualidade Partícula/Onda e Outros Desenvolvimentos
Há um reconhecimento generalizado, no meio científico, do papel
pioneiro de Louis de Broglie em iniciar um processo que culminaria na
criação da Mecânica quântica, ao relacionar as propriedades da matéria
com as Teorias dos quanta e da relatividade. Incentivado pelo irmão
Maurice, Louis Victor Pierre Raymond de Broglie, Príncipe de Broglie
(1892-1987), de família aristocrática francesa, formado em História, teria
seu interesse intelectual voltado para a Física, ao estudar os trabalhos
de Planck sobre a Teoria quântica, e de Einstein sobre a relatividade.
Formou-se durante a Primeira Guerra Mundial em Ciências físicas, e,
após o conflito, trabalhou em Física teórica no laboratório de seu irmão,
na pesquisa da estrutura da matéria, utilizando raios-X. Defenderia sua
tese de doutorado (Pesquisa sobre a Teoria dos Quanta) na Sorbonne,
em 1924, com sua revolucionária tese de Mecânica ondulatória, na qual
toda a partícula material estaria associada a uma onda, pelo que o elétron
poderia ser concebido como partícula-onda. Adepto das teorias de Planck
e Einstein, sustentaria de Broglie que, como todos os fenômenos naturais
envolviam certa forma de matéria e de radiação (ondas eletromagnéticas),
toda onda, a exemplo da luz, deveria ter, igualmente, propriedades da
partícula, e toda matéria deveria ter, igualmente, propriedade de onda. É a
extensão da dualidade partícula-onda da radiação (Planck e Einstein) para
a matéria. Nessas condições, de Broglie definiria o elétron como partícula-onda, apesar de não haver, na época, nenhuma evidência experimental
193
CARLOS AUGUSTO DE PROENÇA ROSA
da natureza ondulatória das partículas77. Consta que Paul Langevin
(1872-1946), da banca examinadora, antes de se pronunciar sobre a tese
do jovem Louis de Broglie, teria pedido a opinião de Einstein, que teria
se mostrado entusiasmado com as novas ideias. Por sua contribuição ao
desenvolvimento da Física quântica, de Broglie receberia o PNF em 1929 e
a Medalha Max Planck de 1938. Escreveu os livros Introduction à l’étude de
la mécanique ondulatoire (1930) e Certitudes et Incertitudes de la Science (1966).
A teoria seria confirmada por Clinton Joseph Davisson (PNF-1937)
e Lester Germer (1896-1971), em 1927, quando examinaram a dispersão
dos elétrons lentos por superfícies lisas. Verificaram que a “relação entre o
ângulo da intensidade máxima, a velocidade dos elétrons e o espaçamento
das malhas de crista é a mesma que para uma onda, com a condição de
que se atribua aos elétrons um comprimento de onda, dado pela fórmula
de Louis de Broglie”, ou seja, um feixe de elétrons sofria difração como
acontece com uma onda. Comprovada, assim, a dualidade partícula-onda do elétron, a Mecânica ondulatória ou quântica se desenvolveria em
bases experimentais sólidas. Deve ser registrado que, em 1925, o jovem
físico alemão Walther Elsasser (1904-1991) publicara artigo, que passou
despercebido, no qual interpretara os resultados da experiência de 1923,
de Davisson e Charles Henry Kunsman (1890-1970), do espalhamento de
elétrons lentos por cristais policristalinos (platina e magnésio) como sendo
devidos à difração dos elétrons78.
Quatro outros desenvolvimentos teóricos e experimentais, de 1925,
seriam de especial relevância para melhor compreensão do átomo e para o
desenvolvimento da Mecânica quântica. O físico inglês Patrick Maynard
Stuart Blackett (1897-1974, PNF-1948) publicaria sua experiência com a
câmara de Wilson, havendo fotografado, pela primeira vez, a trajetória
de um próton. A introdução pelos físicos holandeses Samuel Goudsmit
(1902-1978, MMP-1964) e George Uhlenbeck (1900-1988, MMP-1964) de
números quânticos fracionários para explicar o espectro do hidrogênio
e a formulação da hipótese de que os elétrons possuíam uma rotação
intrínseca, a que denominaram spin (giro). O elétron se comportaria
como girando em torno de seu eixo, com propriedades de um ímã, como
se tivesse um momento angular intrínseco (spin) em torno de seu eixo.
Wolfgang Pauli, ao analisar o modelo atômico de Bohr, em que cada
elétron era dotado de três números quânticos (que definem a órbita de
um elétron), propôs um modelo de átomo baseado em elétrons de quatro
números quânticos (o quarto número só poderia ter dois valores: -1/2
77 78 RIVAL, Michel. Os Grandes Experimentos Científicos.
BASSALO, José Maria Filardo. Nascimentos da Física.
194
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
ou 1/2, sob o argumento de que dois elétrons não poderiam ocupar o
mesmo estado quântico, mas dois elétrons poderiam ocupar uma mesma
órbita79). Esse é seu famoso princípio da exclusão, relativo à distribuição
dos números quânticos dos elétrons do átomo.
7.4.4.2 Mecânica Quântica
O austríaco Erwin Schrödinger (1887-1961) recebeu o doutorado
em 1910 da Universidade de Viena, onde exerceria a cátedra de Física. Em
1921, ocupou a cátedra em Zurique, onde continuou seu trabalho sobre
Mecânica estatística dos gases e sobre as Teorias da cor, atômica e quântica.
Em 1924, leu a tese de Louis de Broglie de que as partículas subatômicas
poderiam se comportar, em determinadas circunstâncias, como ondas.
Em dezembro de 1925, Schrödinger inventaria sua conhecida equação
matemática, uma equação de onda, em que o elétron deixaria de ser um
ponto posicionado em vários locais em volta do núcleo do átomo para ser
representado como uma onda vertical, girando em volta e pelo núcleo
em níveis definidos de energia. A teoria Mecânica quântica ondulatória,
com a Equação para ondas estacionárias dos elétrons atômicos, foi exposta
em seis artigos, publicados em 1926 no Annalen der Physik, de Leipzig.
No ano seguinte, sucedeu a Max Planck como professor de Física teórica
na Universidade de Berlim, mas, em 1933, com a ascensão do nazismo,
transferiu-se para a Inglaterra (Oxford), e compartilhou o Prêmio Nobel
de Física com Paul Dirac, e a Medalha Max Planck (MMP) de 1937. Em
1936, regressou à Áustria para ensinar na Universidade de Graz, mas,
com a anexação do país pela Alemanha de Hitler, Schrödinger deixou o
país, e depois de breve período na Itália e EUA, permaneceria na Irlanda
(Dublin), na Escola de Física teórica, até 1956, quando regressaria em
definitivo para a Áustria como professor na Universidade de Viena80.
No mesmo ano de 1925, enquanto Schrödinger concebia a Equação da
onda, o físico alemão Heisenberg estudava o comportamento das partículas
subatômicas e desenvolveria a chamada Mecânica matricial. Werner
Heisenberg (1901-1976) ingressou na Universidade de Munique em 1920,
estudou com Max Born e doutorou-se em 1923. De seus contatos em Göttingen
com Bohr, aceitou o convite para colaborar no Instituto de Física teórica
de Copenhague. Por não conseguir o modelo atômico Bohr-Sommerfeld
justificar certos fenômenos experimentais, Heisenberg buscaria alternativas
79 80 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
PIZA, Antônio F. R. T. Schrödinger & Heisenberg.
195
CARLOS AUGUSTO DE PROENÇA ROSA
teóricas capazes de explicar o que realmente ocorria no mundo subatômico.
Utilizando-se da Álgebra matricial para descrever o elétron, Heisenberg
desenvolveria a Mecânica matricial, para cuja fundamentação matemática
contou com a colaboração dos físicos alemães Max Born (MMP-1948) e Ernst
Pascual Jordan (1902-1980, MMP-1942). O trabalho no qual “quantizaram”
o campo de radiação eletromagnético usando a Mecânica matricial seria
publicado em 1926, pouco antes dos artigos de Schrödinger sobre Mecânica
ondulatória. Certa controvérsia surgiria no meio científico diante da aparente
contradição entre as duas Mecânicas (a das ondas e a das partículas), idênticas
quanto aos resultados, mas a dificuldade seria resolvida com a Teoria da
complementaridade de Bohr. Segundo a teoria de Bohr, os conceitos de onda
e de partícula eram duas descrições complementares da mesma realidade,
cada uma sendo apenas parcialmente correta e de âmbito limitado81, ou
seja, apesar de suas estruturas e conceitos diferentes, as duas teorias eram
equivalentes. Heisenberg publicaria em defesa de sua obra, no ano de 1927,
seu famoso artigo Sobre o Conteúdo Intuitivo da Cinemática Quântica e Mecânica,
no qual propôs o Princípio da Incerteza, pelo qual não é possível calcular com
exatidão a posição e o momento linear (isto é, a massa vezes a velocidade
– mv) de uma partícula subatômica, e, portanto, descrever exatamente o
estado de um sistema. Para tanto, Heisenberg formularia equação pela qual
o produto da incerteza da posição pela incerteza do momento linear de uma
partícula não poderá ser menor que o número positivo conhecido como
constante de Planck, isto é, a incerteza nunca pode ser reduzida a zero. O
princípio formulado teria o decidido apoio de Bohr, e seria conhecido como a
“interpretação de Copenhague”, marco do nascimento da Mecânica quântica.
De 1927 a 1941, Heisenberg seria professor de Física da
Universidade de Leipzig, onde trabalhou com Pauli, com quem
desenvolveria a Eletrodinâmica quântica, e permaneceria, durante todo
o período da Segunda Guerra Mundial, na Alemanha, inclusive como
diretor do Instituto Kaiser Guilherme (atual Instituto Max Planck), tendo
falecido de câncer. Heisenberg receberia por suas contribuições para a
Mecânica quântica o Prêmio Nobel de Física de 1932 e a Medalha Max
Planck de 1933.
7.4.4.3 Modelo Atômico Orbital
O modelo atômico de Bohr explica bem os átomos de hidrogênio e o
do hélio ionizado, mas é insuficiente para átomos com mais de um elétron.
81
BRENNAN, Richard. Gigantes da Física.
196
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Não é uma completa descrição quântica, pois agrega algumas condições
quânticas a um tratamento de Mecânica clássica. O modelo determinístico
de átomo de Bohr impunha alguma restrição arbitrária ao movimento do
elétron em torno do núcleo. Em 1926, o físico austríaco Erwin Schrödinger
generalizaria a teoria partícula-onda para abranger partículas ligadas,
como elétrons nos átomos, e formularia sua famosa equação matemática,
que é uma Equação da onda, definidora do comportamento ondular
completo de uma partícula, em três dimensões. A equação contempla os
resultados de Bohr para as energias do átomo de hidrogênio e explica,
igualmente, com grande precisão, as propriedades de todos os átomos.
Este modelo quântico considera o elétron como onda de matéria, e não
como partícula, e adota a Equação de onda de Schrödinger, que serve
para se obter a energia do elétron e sua posição mais provável num dado
instante. Nessa formulação, não era possível determinar a trajetória da
partícula.
O trabalho de Schrödinger reforçava a formulação equivalente,
mas diferente e um pouco anterior, do físico Werner Heisenberg,
segundo a qual, quanto maior a precisão experimental de posição de
um elétron, menor a precisão na determinação de seu momento linear, e
vice-versa. Como ambos os parâmetros são essenciais para se conhecer a
trajetória, Heisenberg descartava, assim, o conceito (válido para partícula
macroscópica) de trajetória, e sustentava que a posição de uma partícula
não poderia ser prevista com exatidão, e só poderia ser determinada por
meio do experimento. Esse é o famoso Princípio da Incerteza, um dos
determinantes fundamentais da Física atual. A aceitação desse princípio
significaria que as informações obtidas só poderiam indicar a região do
espaço mais provável em que se encontraria o elétron, isto é, a probabilidade
orbital, que estaria relacionada com o quadrado do módulo da função de
onda associada ao elétron para uma dada energia. A orbital seria, assim, a
região mais provável do espaço na qual poderia ser encontrado o elétron.
Baseando-se em Heisenberg, o físico alemão Max Born proporia
que “se escolhermos conhecer com pouca incerteza a energia de um elétron
num átomo, então temos que aceitar a correspondente grande incerteza
sobre a sua posição no espaço em relação ao átomo”, e vice-versa. O
modelo deixaria de ser determinístico para ser probabilístico, estatístico.
O modelo quântico atual mantém as sete regiões de níveis de energia, ou
camadas eletrônicas, que para os 92 elementos químicos existentes são K
(2 elétrons), L (8), M (18), N (32), O (32), P (18) e Q (2); os quatro subníveis
de energia (s, p, d, f) estão dentro das camadas, cada com um número
máximo de elétrons (s- 2, p- 6, d-19, f- 14).
197
CARLOS AUGUSTO DE PROENÇA ROSA
DISTRIBUIÇÃO ELETRÔNICA POR ORDEM GEOMÉTRICA
SUBNÍVEIS
CAMADASELÉTRONS
1s2
K2
2
6
2s , 2p L
8
3s2, 3p6, 3d10
M
18
4s2, 4p, 4d10, 4f14
N
32
5s2, 5p6, 5d10, 5f14
O
32
6s2, 6p6, 6d10 P
18
7s2
Q
2
No desenvolvimento da Mecânica quântica, o matemático e físico
inglês Paul Adrien Maurice Dirac (1902-1984) ocupa um lugar especial
por suas extraordinárias contribuições. Graduou-se Dirac em Engenharia
elétrica e Matemática na Universidade de Bristol, sua cidade natal, e, em
1923, ganhou uma bolsa para pesquisa no St. John’s College, em Cambridge,
onde estudou as Teorias atômica e quântica e conheceu Niels Bohr. Sua
tese de doutorado em Física, em 1926, foi sobre a Mecânica matricial de
Heisenberg. Visitou Göttingen, em Copenhague, e participou, em 1927,
da V Conferência de Solvay, em Bruxelas, onde apresentou sua Teoria da
transformação, mostrando a equivalência das abordagens de Heisenberg
e Schrödinger. Ao aplicar a função de onda da Equação de Schrödinger ao
campo eletromagnético, Dirac trouxe o campo de força eletromagnético para
o domínio da Mecânica quântica, o que o torna pioneiro no desenvolvimento
da Eletrodinâmica quântica. Em 1928, Paul Dirac formularia, com a
incorporação de conceitos da Teoria da relatividade (Teoria relativística
do elétron), sua famosa equação (Equação de Dirac) para descrever o
comportamento do elétron, uma deficiência da Equação de Schrödinger,
por não contemplar o spin do elétron, descoberto, em 1925, por Uhlenbeck e
Goudsmit. Baseado em sua Equação, chegaria, em 1930, à conclusão de que
a emissão beta poderia ser explicada por uma nova partícula subatômica
com a mesma massa do elétron, mas com carga positiva equivalente.
A proposta da existência de uma antimatéria (no caso um elétron
positivo), nova e revolucionária, seria recebida com ceticismo e tida como
absurda no meio científico. A Equação de onda de Dirac para o elétron
relativístico não só determinava os níveis energéticos, mas também
introduzia, automaticamente, o spin do elétron, aperfeiçoando, assim,
a Teoria ondulatória não relativística do elétron com spin, de Wolfgang
Pauli82. Pouco depois (1932), no entanto, o pósitron seria descoberto
82 SCHENBERG, Mario. Pensando a Física.
198
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
por Carl Anderson (1905-1991), em sua pesquisa de raios cósmicos,
confirmando, assim, a previsão de Dirac. Por seu trabalho, que, aplicável
a todas as partículas, acrescentou uma nova dimensão de matéria, a
antimatéria, ao Universo, Dirac dividiria com Schrödinger o Prêmio
Nobel de Física de 1933 e a Medalha Max Planck de 1952. Dirac é autor
das importantes obras Quantum Theory of the Electron (1928) e Principles of
Quantum Mechanics (1930), além de ter escrito muitos artigos e proferido
conferências sobre Mecânica quântica, Relatividade, Cosmologia. Foi
professor de Matemática da Universidade de Cambridge de 1932 a 1969,
e, em 1971, assumiu a cátedra de Física da Universidade do Estado da
Flórida.
7.4.4.4 Controvérsia Einstein-Bohr. O Paradoxo EPR
Uma das mais famosas e longas controvérsias científicas
seria travada, nas décadas de 20, 30 e 40, entre dois campos opostos,
surgidos na Física a partir da formulação da chamada interpretação de
Copenhague sobre o modelo probabilístico da Mecânica quântica. Foi
nesse contexto que Einstein proferiu seu famoso argumento de que “Deus
não joga dados”, a que Bohr teria retrucado: “pare de dizer o que Deus
pode ou não pode fazer”. Apesar de ter sido um dos responsáveis pelo
desenvolvimento e aceitação da Teoria quântica, Einstein não concordava
com seu caráter aleatório, e se oporia à interpretação de Heisenberg/Bohr
de que a realidade era criada pelo observador. De seu lado, se colocariam,
além do próprio criador da Hipótese quântica, Planck, físicos como Marie
Curie, Schrödinger, von Laue, Rosen, David Bohm. Em apoio à nova
Mecânica, Bohr e Heisenberg contariam com o apoio de Born, Pauli, Dirac,
entre outros.
Num primeiro momento, a crítica de Einstein se concentraria na
acusação de que a interpretação de Copenhague recolocava o Homem no
centro do Cosmos, de onde Copérnico o expulsara havia cerca de 500 anos.
Nesse sentido, escreveu: “a crença num mundo externo independente da
percepção subjetiva é a base de todas as Ciências naturais”. Bohr argumentava
que, graças a Einstein, a Ciência adotara a relatividade do Espaço e do
Tempo, dependentes do estado de movimento do observador. Nesse
sentido, a Mecânica quântica apenas estendeu a realidade à dependência
do observador. Forçado a reconhecer que a Mecânica Quântica descrevia
corretamente todas as experiências atualmente concebíveis, Einstein
passaria a alegar ser ela incompleta, pois só faz previsões estatísticas. A
199
CARLOS AUGUSTO DE PROENÇA ROSA
essa crítica, Bohr respondia tratar-se, na verdade, de uma virtude, e não de
fraqueza, porque correspondia à indeterminação que existe no mundo.
Para mostrar que a Teoria quântica era incompleta, Einstein, em
1935, com a colaboração dos físicos Boris Podolsky (1896-1966) e Nathan
Rosen (1909-1995), publicaria um artigo, no Physical Review, intitulado Se
a realidade física descrita pela Mecânica Quântica pode ser considerada completa.
No artigo, os autores afirmavam que “se, sem perturbar um sistema físico,
for possível predizer com certeza (isto é, com a probabilidade igual a um) o
valor de uma quantidade física, então existe um elemento de realidade física
correspondente a essa quantidade física” e apresentavam um “experimento
mental”. Dado que em Mecânica quântica valia a lei da conservação do
momento, num sistema de duas partículas, que tivesse seu momento total
conhecido, bastaria medir o momento de uma delas para saber o da outra,
pois o momento da segunda partícula tem que ser o total menos o momento
da primeira partícula. Dessa forma, se for medido o momento da primeira
partícula, será conhecido o momento da segunda partícula, que não foi
medido. A conclusão é a de que basta fazer uma medição da posição da
segunda partícula para que ela tenha momento e posição conhecidos, o que
violava o Princípio da Incerteza de Heisenberg. Se as partículas estivessem
muito afastadas (uma na Terra e a outra em Andrômeda), ao se medir a
posição da partícula na Terra, qualquer informação sobre seu momento
seria perdida, bem como a do momento da partícula mais distante, pois
a informação não poderia ser instantânea, já que a velocidade máxima
no Universo é limitada à da luz83. Bohr refutou o argumento do que seria
conhecido como paradoxo EPR (sigla formada pelas iniciais de seus três
autores) com seu Princípio da Complementaridade.
A questão da transmissão instantânea continuava pendente de
solução, pois o fenômeno conhecido como entrelaçamento quântico,
previsto pela Mecânica quântica, mostrava que medições realizadas em
partes separadas de um sistema quântico se influenciam mutuamente.
O assunto evoluiria com o físico irlandês John Stuart Bell (1928-1990),
que publicou, em 1964, artigo intitulado Sobre o Paradoxo EPR, com um
teorema, argumentando existir uma grandeza que poderia ser medida,
uma “desigualdade de Bell” que se fosse comprovada, Einstein estaria
certo, e se não fosse, estaria a Mecânica quântica. Experiência levada a
cabo pelo jovem físico francês Alain Aspect (1947), em 1982, mostrou
que a informação quântica pelo fenômeno do entrelaçamento quântico
se propaga instantaneamente, dando, assim, mais uma comprovação
experimental à Mecânica quântica.
83 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
200
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.4.5 Física das Partículas
No início do século XX, a única partícula subatômica então
conhecida era o elétron, descoberto por J. J. Thomson, em 1897, uma
vez que o próton, detectado em 1886, por Eugen Goldstein, só teria
sua comprovação, por Rutherford, em 1911. O grande avanço teórico e
experimental, aliado ao desenvolvimento de equipamentos de pesquisa,
conduziria a importantes descobertas para melhor conhecimento do
interior do átomo. Um novo campo de investigação, denominado Física
das partículas, dedicada ao estudo dos constituintes mais elementares
da matéria e da energia, se abriria na Física, despertando crescente
interesse e atividade no meio científico. Uma intensa investigação teórica
e experimental se desenvolveria nos anos anteriores à Segunda Guerra
Mundial, início de um período fértil em descobertas e avanços tecnológicos,
e prosseguiria em diversos centros de pesquisa nas décadas seguintes, o
que permitiria, na atualidade, um melhor e mais amplo conhecimento,
ainda que incompleto, do complexo mundo subatômico.
O entendimento de que os elétrons, os prótons e os nêutrons,
descobertos respectivamente em 1897, 1911 e 1932, eram os constituintes
elementares, por conseguinte, fundamentais e indivisíveis do átomo, seria
profundamente alterado à medida que progrediram os experimentos.
Desses, apenas o elétron, que não pode ser subdividido em constituintes
menores, continuaria a ser considerado como partícula elementar (do
grupo lépton), porém o próton e o nêutron, com massas praticamente
iguais e 1.836 vezes maiores que o elétron, perderiam essa condição com a
descoberta de serem compostos de partículas mais fundamentais (quarks).
Paralelamente ao avanço teórico e experimental quanto às partículas
elementares e antipartículas, progrediria, também, o conhecimento a
respeito das partículas do campo, intermediárias das quatro interações
fundamentais. O desenvolvimento de grandes e poderosas máquinas
permitiria, a partir dos anos 50, acelerar partículas a altas energias e realizar
colisões de forma controlada. Como as forças da Natureza, conforme o
conhecimento atual, são transportadas por partículas (bósons), a Física
das partículas compreende o exame das partículas elementares e das
interações fundamentais.
7.4.5.1 Desenvolvimento das Pesquisas. Descobertas. Modelos
Da primeira fase da Física das partículas devem ser mencionadas
algumas contribuições essenciais para seu futuro desenvolvimento. A
201
CARLOS AUGUSTO DE PROENÇA ROSA
descoberta, em 1911, pelo físico austríaco Victor Francis Hess (18831964), de que a radiação atmosférica provinha do Espaço cósmico,
seria um passo da maior importância para o desenvolvimento da Física
nuclear e da Cosmologia, porquanto identificou uma fonte na qual
se poderiam pesquisar as partículas subatômicas. O físico americano
Robert Andrews Milikan (1868-1953), que receberia o PNF de 1923,
por seus trabalhos na determinação da carga do elétron e sobre o
efeito fotoelétrico, denominaria de raios cósmicos a mencionada
radiação descoberta por Hess. Ao estudar o desvio dos raios cósmicos
depois de atravessarem uma câmara de Wilson sob um forte campo
magnético, o físico Carl Anderson observaria uma nova partícula
subatômica, de carga positiva igual a do próton, massa igual à dos
elétrons e tão abundante quanto estes, a que chamou de pósitron,
prevista, em 1928, por Dirac. Por essa descoberta, dividiu o Prêmio
Nobel de Física de 1936, com Victor Hess. Em 1933, o inglês Patrick
Blackett (1897-1974, PNF 1948) e o italiano Giuseppe Occhialini (19071993) comprovariam, experimentalmente, a existência do pósitron, a
primeira antipartícula conhecida.
O estudo das partículas elementares se iniciou praticamente
em 1927 com um equipamento multiplicador de voltagem que o inglês
John Douglas Cockcroft (1897-1967) e o irlandês Ernest Thomas Walton
(1903-1995) desenvolveram na Universidade de Cambridge para
criar voltagens elétricas altíssimas com poder suficiente para acelerar
prótons, deixando-os mais energéticos que as partículas alfa existentes
na Natureza. Em 1930, conseguiram acelerar prótons que provinham
da ionização de átomos de hidrogênio, e, em 1932, anunciaram à
Sociedade Real que haviam realizado, no Laboratório Cavendish, a
primeira reação nuclear artificial ao bombardearem um núcleo de lítio
com um feixe de prótons. Por esse trabalho, os dois físicos britânicos
dividiram o Prêmio Nobel de Física de 195184.
Grande avanço experimental ocorreria a partir dos primeiros anos
30 com a invenção de aceleradores de partículas, que aceleram a grandes
velocidades partículas com carga elétrica. Ao serem aceleradas, sua
energia aumenta e as unidades utilizadas para medi-la são indicadas por
MeV (milhão de elétron-volts) e GeV (bilhão de elétron-volts). Com um
GeV, uma partícula pode percorrer num segundo sete vezes o equador
da Terra. Com essas altas energias, adquirem as partículas altíssima
velocidade, próxima da velocidade da luz no vácuo. Há dois tipos
básicos de acelerador: o linear, em que a partícula segue uma trajetória
84 BASSALO, José Maria Filardo. Nascimentos da Física.
202
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
reta, onde a energia final obtida é proporcional à soma das diferenças de
potencial geradas pelos mecanismos de aceleração dispostos na trajetória
da partícula; e o cíclico, no qual a trajetória curva da partícula é causada
pela ação dos campos magnéticos em espiral ou circular. O cíclotron e o
síncroton são os tipos mais utilizados de aceleradores cíclicos, sendo que
os síncrotons de prótons chegam a atingir a energia de 800 GeV, enquanto
o síncroton de elétron atinge no máximo 12 GeV de energia.
Nos EUA, em 1931, os físicos Ernest Orlando Lawrence
(1901-1958) e Milton Stanley Livingston (1905-1986), em artigos
no
Physical
Review,
descreveram
experiências
realizadas
com o cíclotron, um tipo de acelerador circular que haviam
construído, tendo obtido, na primeira experiência, a aceleração
de moléculas de hidrogênio com a energia de 80 mil elétron-volts, na segunda, produziram prótons de 1 MeV (10 6 elétron-volts) e na terceira prótons de 1.22 MeV. Pela invenção do cíclotron,
Lawrence recebeu o Prêmio Nobel de Física de 1939. O cíclotron,
mais eficiente que o equipamento de Cockroft, seria o aparelho
responsável pelo extraordinário progresso nas pesquisas futuras a
respeito das partículas subatômicas, até então limitadas à análise das
reações provocadas pelos raios cósmicos. Assim foram descobertos,
por exemplo, o pósitron e o méson-pi. Os detectores da época eram
câmaras de nuvens ou câmaras de Wilson, que registravam o vapor
condensado provocado pela partícula eletricamente carregada ao
passar dentro dela.
Em 1932, James Chadwick descobriria o nêutron, que com o próton
forma o núcleo do átomo. Wolfgang Pauli, em 1930, sugerira que, durante
o decaimento beta (quando um isótopo instável de algum elemento emite
um elétron e se transforma em outro elemento), outra partícula seria
emitida, a qual teria a energia que desaparecera durante o decaimento.
A essa partícula, sem carga elétrica e sem massa, mas com spin suficiente
para produzir a partícula beta, Enrico Fermi chamou de neutrino, que só
viria a ser observada, pela primeira vez, em 1956, por Frederick Reines
(1918-1998), que, por essa descoberta, dividiu o PNF de 1995 com Martin
Perl, que descobrira, em 1975, a partícula tao (lépton).
Em 1937, Carl Anderson (que, em 1932, descobrira o pósitron) e Seth
Neddermeyer (1907-1988) anunciaram no Physical Review a descoberta de
partícula fortemente ionizada e com a massa prevista por Hideki Yukawa,
em 1935. Essa partícula (méson) é hoje chamada μ múon.
A existência do méson p (Pi), prevista por Yukawa, extremamente
instável, que se transforma em partículas mais leves (uma delas o múon),
203
CARLOS AUGUSTO DE PROENÇA ROSA
mais pesado, porém, que o elétron e de vida média muito curta, seria
confirmada, em 1947, pelo inglês Cecil Powell (1903-1969), que receberia
o PNF de Física de 1950 por essa descoberta e pelos aperfeiçoamentos
do método fotográfico nos processos nucleares. Desse experimento
participaram César Lattes (1924-2005) e Giuseppe Occhialini.
Ainda nos anos 40 e 50, seriam descobertas nos raios cósmicos
partículas com massas (méson K e L) e o híperon (bárion, com mais
massa que o próton e o nêutron). Em 1956, Frederick Reines detectaria a
existência dos neutrinos. A segunda antimatéria, no caso o antipróton, seria
detectada, em 1954, por Emilio Segré (1905-1989) e Owen Chamberlain
(1920).
Ao final da década de 50, eram conhecidas mais de 30 partículas
subatômicas de laboratórios, entre elas os méson p (pi), hoje pion, e µ
(múon), o méson K (káon), Δ (Delta), Σ (Sigma), Ξ (Xi) e Λ (lambda), os
híperons (sigma +,-,0, lambda 0, csi 0) e nos anos 60 mais de 70 partículas,
com a inclusão, entre outras, de η (eta), ρ (rô) e Ω (ômega)85. A descoberta
de tantas partículas, se positiva e animadora, por um lado, para melhor
entendimento da matéria e do átomo, traria, igualmente, problemas,
pelo intrigante comportamento contraditório de algumas, como as que
se formavam em pares e tinham uma vida ou duração por mais tempo
que o previsto, e por isto seriam chamadas de partículas estranhas, como
os káons e os híperons. A estranheza (denominação dada por Murray
Gell-Mann) foi um fator criado para explicar os resultados peculiares
observados nas colisões de partículas subatômicas a velocidade muito
alta.
Uma segunda fase nas pesquisas da Física das partículas pode ser
considerada como inaugurada em meados dos anos 50 com os primeiros
estudos sobre a quebra do Princípio da simetria e a formulação de modelos
de partículas elementares.
A teoria da simetria das partículas elementares, paradigma
da Física e da Cosmologia, considera três princípios – de paridade, de
carga e de tempo –, que simplificam cálculos matemáticos e geram leis
de conservação. O Universo é, contudo, composto, predominantemente,
pela matéria, e não por quantidades iguais de matéria e antimatéria,
como deve ter ocorrido nos primeiros momentos de sua formação. As
observações astronômicas comprovam essa assimetria, que, já nos anos
de 1950, os físicos procuravam uma explicação para esse mistério. Um
grande avanço teórico se daria em 1956, com a predição de que a lei da
preservação da paridade não seria aplicável no mundo subatômico, ou,
85 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
204
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
em outras palavras, que o Princípio da simetria não seria válido no caso
das interações fracas entre as partículas. Essa controvertida proposição
de Tsung-Dao Lee (1926), da Universidade de Colúmbia, e Chen-Ning
Yang (1922), da Universidade de Princeton, chineses radicados nos EUA,
seria confirmada, em 1957, pela física Chien-Shiung Wu (1912), professora
da Universidade de Colúmbia. Lee e Yang receberiam o Prêmio Nobel
de Física de 1957. Em 1964, os físicos americanos James Watson Cronin
(1931) e Val Logsdon Fitch (1923) descobririam “violações dos princípios
fundamentais de simetria no decaimento do méson-k neutro”, o que
lhes daria o PNF de 1980. Os físicos japoneses Yoichiro Nambu (1921),
por descobrir o mecanismo da quebra espontânea da simetria, e Makoto
Kobayashi (1944) e Toshihide Maskawa (1940), pela descoberta da origem
da quebra da simetria, a qual prevê a existência de pelo menos três
famílias, ou gerações, de quarks na Natureza, receberam o PNF de 2008.
Para a situação criada nos anos 1950 e 60, Enrico Fermi chamaria
de um verdadeiro zoológico de partículas. Cresceria na comunidade
científica a compreensão da necessidade de se organizar o complexo e
vasto campo das partículas subatômicas, pelo que muitos pesquisadores
se dedicariam à tarefa de procurar partículas ainda mais fundamentais
e a criar modelos para organizá-las. Dos vários modelos criados, como
o Modelo de dois mésons, de Shoichi Sakata e Mitsui Taketana, de 1942;
o Modelo de Sakata, de 1956; o Modelo de Fermi-Yang, da violação da
paridade; o Modelo de Partons (partículas que constituiriam os hádrons),
de autoria de Feymann, em 1969. O de maior sucesso foi o de Gell-Mann,
chamado de Modelo dos quarks e glúon (1964).
O neutrino múon seria descoberto por Leon Lederman (1922), em
1962, pelo que receberia o PNF de 1988, juntamente com Melvin Schwartz
(1932-2006) e Jack Steinberger (1921)
7.4.5.2 Modelo dos Quarks e Glúons. Gell-Mann
Nascido em Nova York, em 1929, Murray Gell-Mann foi um menino-prodígio, ingressando, com bolsa integral, aos 14 anos, na Universidade
de Yale, onde se doutorou em Física, em 1951, com um trabalho sobre Física
nuclear. Por meio de seu professor, Victor Weisskopf (1908-2002), obteve
posto no Instituto de Estudos Avançados de Princeton, transferindo-se,
no ano seguinte, para a Universidade de Chicago, quando trabalharia
com Fermi em Física das partículas. Estudaria, então, as intrigantes
partículas que, produzidas pela interação forte, eram desintegradas pela
205
CARLOS AUGUSTO DE PROENÇA ROSA
interação fraca; o káon, por exemplo, que deveria ter uma vida de 10-23
segundos, sobrevivia até 10-10 segundos. Gell-Mann proporia (1954) que
tais partículas eram produzidas em pares, e as chamou de estranhas86.
No ano seguinte, foi nomeado professor na Caltech, onde estabeleceria
amizade e colaboração com Feynman. Em 1961, Gell-Mann adotaria
a teoria matemática de grupo de transformações, a SU3 (unidade de
simetria terciária), como instrumento de classificação das partículas, o
que lhe permitiria, como no caso de Mendeleiev com a Tabela periódica
dos elementos, classificar as partículas em famílias e prever as ainda não
observadas87. Cabe indicar que, de forma independente, na mesma época,
o físico israelista Yuval Ne’eman (1925-2006) procedeu a uma classificação
idêntica dos hádrons segundo a SU3. Gell-Mann receberia o PNF de 1969
por sua contribuição e descobertas referentes à classificação de partículas
elementares.
Em 1964, Gell-Mann e George Zweig (1937), de forma
independente, propuseram a existência de partículas subatômicas, os
verdadeiros “a-tomos” ou partículas fundamentais constitutivas de todas
as outras partículas. A elas, daria Gell-Mann o nome de quarks, palavra
retirada do romance de James Joyce, Finnegan’s Wake. Na teoria original,
todas as partículas conhecidas poderiam ser descritas pela combinação
de apenas três quarks: o up (u), o down (d) e o strange (s) para os quais
havia os respectivos antiquarks. A grande novidade da proposta era que
as cargas elétricas dos quarks não eram inteiras, mas fracionárias, sendo
as do “s” e do “d” de -1/3 e a do “u” de 2/3. Três quarks comporiam os
bárions: por exemplo, o próton é composto de dois quarks u e um quark
d (uud), o que dá uma carga total igual a 1, e o nêutron por dois d e um u
(ddu), o que corresponde a uma carga nula88.
No intuito de estabelecer ordem no confuso mundo subatômico,
Gell-Mann, ainda em 1964, no Schematic Model of Baryons and Mesons,
classificaria as partículas pelo peso: as mais leves, como o elétron,
foram chamadas de léptons, e as mais pesadas de hádrons que, por
sua vez, foram divididas em bárions (prótons, nêutrons, lambdas)
e mésons (píons e káons), esses últimos com peso médio. Ainda em
1964, proporia Gell-Mann no The Eightfold Way (Via dos Oito Preceitos)
agrupar as partículas em famílias, chamadas “multipletos”, que
consistiam de 3 (tripletos), 8, 10 ou 27 partículas com características
comportamentais comuns, no caso, as partículas hádrons (bárions e
ROSENFELD, Rogério. Feynman & Gell-Mann.
BERTHON, Maurice-Edouard. Les Grands Concepts Scientifiques et leur Évolution.
88 CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
86 87 206
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
mésons que interagem fortemente). Gell-Mann utilizaria, para tanto,
o grupo SU(3), isto é, unidade simétrica de três dimensões ou simetria
terciária89. Os quarks pertencem ao tripleto.
Segundo esse modelo, os prótons e os nêutrons seriam constituídos
por três quarks e seriam chamados de bárions (pesado, em grego),
enquanto as partículas com dois quarks (quark e antiquark), como o píon
e o káon, seriam chamados de méson. Os quarks poderiam apresentar-se
em três diferentes formas, chamadas de sabores: up (u), down (d) e strange
(s), e teriam spin fracionário (1/2). Assim, o próton seria formado por dois
quarks up e um down (u, u, d) e o nêutron por dois down e um up (u, d, d).
Por serem partículas de spin fracionário, deveriam obedecer ao princípio
de exclusão de Pauli, segundo o qual “duas partículas iguais não podem
ocupar o mesmo estado quântico” (uuu ou ddd), isto é, os três quarks do
mesmo sabor não poderiam existir na mesma partícula. Para resolver o
problema, os físicos Oscar W. Greenberg e Yoichiro Nambu sugeriram,
independentemente, em 1964, que cada sabor dos quarks poderia existir
em três estados diferentes ou “cargas cor” (vermelho, verde ou azul).
Desta forma, os bárions seriam formados por um quark de cada cor, de tal
maneira que o resultado final fosse branco; os mésons, por sua vez, seriam
formados por dois quarks, de cores diferentes, que somadas dariam
branco. Os quarks da mesma cor se repelem, e os de cores diferentes
se atraem. Essa interação entre as cores se daria por meio de uma nova
partícula chamada de glúon (do inglês glue, para cola), responsável pela
união dos quarks, que formam os prótons e os nêutrons. Desta forma, o
glúon seria o mediador da força forte entre os quarks, devido à carga cor,
e seu papel na interação forte seria fazer a troca de cores entre os quarks,
mantendo-os unidos. De acordo ainda com o Modelo dos quarks/glúons,
a partícula mediadora glúon não teria carga elétrica, teria spin inteiro (1)
e seria bicolor (cor e anticor); as anticores seriam: ciano (antivermelho),
magenta (antiverde) e amarelo (antiazul).
Conforme os aceleradores tiveram aumentado seu poder de
aceleração, começariam a surgir as partículas previstas no modelo teórico
de Gell-Mann. Um quarto quark, de letra c, denominado “charm”, foi
proposto, em 1967, por Sheldon Glashow (1932), e descoberto experimental
e independentemente por Samuel Chao Chung Tin (1936) e por Burton
Richter (1931), em 1974, os quais receberiam o PNF de 1977; o quinto
quark foi identificado por Leon Lederman (1922), em 1977, conhecido
como “bottom” (b), e o sexto quark foi descoberto em 1994, pela equipe da
Fermilab, e tem o nome de “top” (t).
89 COTARDIÈRE, Philippe de la. Histoire des Sciences.
207
CARLOS AUGUSTO DE PROENÇA ROSA
Quanto aos léptons, há seis: elétron e neutrino, da 1ª geração;
múon (descoberto em 1937, por Anderson e Neddermeyer) e seu
neutrino, descoberto em 1962, por Leon Lederman, Melvin Schwartz e
Jack Steinberger, da 2ª geração; e tau (descoberto por Martin Perl (1927),
em 1975), e seu neutrino detectado em 2000, por uma equipe da Fermilab,
da 3ª geração.
Assim, no início de 1980, era conhecida a listagem completa das partículas
elementares da matéria, ainda que várias não tivessem sido detectadas, mas
previstas no modelo teórico originalmente sugerido por Gell-Mann.
7.4.5.3 Interações Fundamentais
Até muito recentemente, só se conheciam duas forças da Natureza,
a da gravidade e a eletromagnética. Com o desenvolvimento da Física
das partículas, mais duas forças, no âmbito do núcleo do átomo, seriam
descobertas. A Física atualmente, portanto, na descrição dos fenômenos,
em termos de seus componentes microscópios básicos e suas interações
mútuas, reconhece haver, na Natureza, quatro forças fundamentais, hoje
denominadas de interação:
Interação gravitacional – a Teoria clássica da gravitação é a Lei
de Newton, da gravitação universal, generalizada por Einstein na Teoria
geral da relatividade, segundo a qual ela é consequência da curvatura
do Espaço causada pelas massas, o que altera as geodésicas do Espaço-Tempo, modificando a trajetória de corpos maciços e desviando os raios
luminosos. Esta interação é responsável pelas grandes estruturas, como as
galáxias, as estrelas e os planetas, e pelo movimento dos corpos celestes
no Universo. Sendo a de intensidade relativa mais fraca, a interação
gravitacional é de longo alcance e perde intensidade quanto maior for a
distância entre os corpos; age em todos os corpos com massa (ou energia),
ou seja, todos os corpos com massa experimentam a ação gravitacional,
mesmo quando ela é muito fraca, isto é, quando a energia cinética da
partícula for maior que sua energia potencial gravitacional. Segundo
Einstein, a força gravitacional não é transmitida instantaneamente, mas
à velocidade da luz. Sua partícula mediadora seria o gráviton, ainda não
detectado experimentalmente, e cuja própria existência é puramente
teórica90. Não existe uma formulação quântica da força gravitacional.
Interação eletromagnética – resulta da ação das atrações e
repulsões elétricas e magnéticas, ou seja, os fenômenos elétricos e
90 COTARDIÈRE, Philippe de la. Histoire des Sciences.
208
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
magnéticos estudados na Física clássica pela Eletrodinâmica de James
Clerk Maxwell; somente as partículas que possuem carga elétrica têm
este tipo de interação. Está presente na formação das moléculas. Sua
intensidade depende da carga das partículas, e, como a gravitacional, é
de longo alcance e perde força à medida que as partículas se distanciam.
A interação eletromagnética envolve diretamente todas as partículas
contendo carga. A força eletromagnética é cerca de 1041 vezes maior que
a força da gravidade. A partícula mediadora desta interação é o fóton
(um bóson); sua existência foi proposta por Einstein, em 1905, quando
apresentou sua explicação do efeito fotoelétrico.
Interação fraca – A Teoria de Fermi (1933) sobre a produção da
partícula beta (o elétron) foi pioneira para a futura compreensão da
interação fraca. Uma explicação para o processo de decaimento radioativo
e de partículas nucleares, como o píon, o múon e várias partículas
denominadas estranhas, seria estudada na década de 1950 por Chen Ning
Yang, Tsung-Dao Lee, Feynman e Gell-Mann, entre outros. A chamada
interação fraca, ou força nuclear fraca, age no interior do núcleo atômico
sobre as partículas fundamentais (léptons e quarks) e é responsável pela
transformação espontânea de um nêutron num próton e de um próton
em nêutron. É mediada pelos bósons fracos W+, W- e Z0, descobertos, em
1983, com a participação decisiva de Simon van der Meer (1925) e Carlo
Rubbia (1934), que receberiam o PNF de 1984; na pesquisa, fora utilizado
o Super Próton Síncroton da CERN. Os neutrinos não possuem carga
elétrica, mas possuem massa de valor inferior a 2,2 ev, de acordo com
experimento Mainz (2000), e são apenas afetados pela interação fraca e
pela força da gravidade.
Interação forte – responsável pela coesão do núcleo atômico.
Intrigava a comunidade científica saber como se mantinha a coesão
do núcleo, já que os prótons, sendo positivos, deveriam se repelir, e os
nêutrons estão imunes à força eletromagnética; dessa forma, deveria haver
alguma força, no interior do átomo, que impediria o esfacelamento do seu
núcleo. Em 1935, Yukawa sugeriria que, como a interação eletromagnética
se passa pela troca de fótons entre as partículas com carga elétrica, o
mesmo deveria ocorrer entre prótons e nêutrons, a fim de assegurar
a estabilidade do núcleo; a proposta de Yukawa incluía uma partícula,
o méson, que agiria como o intermediário da força aglutinadora, capaz
de superar a força repulsiva coulombiana, e deveria ter uma massa 200
vezes maior que a do elétron. A teoria física associada à interação forte é a
Cromodinâmica quântica. Interação atrativa, de curto alcance, descoberta
em 1979, atua, por meio de sua partícula transportadora, o glúon,
209
CARLOS AUGUSTO DE PROENÇA ROSA
no sentido de manter os quarks coesos, ou seja, a força forte ocorre através
da troca de glúons entre quarks em diferentes prótons e nêutrons. Sua
duração é extremamente curta, da ordem de 10-24 segundo.
7.4.5.4 Eletrodinâmica Quântica
A Eletrodinâmica quântica (EDQ) descreve os fenômenos
envolvendo partículas eletricamente carregadas interagindo por meio da
interação (força) eletromagnética, ou seja, é a Teoria quântica do campo
eletromagnético pela aplicação da Mecânica quântica e da relatividade.
Em outras palavras, a EDQ é a teoria dos elétrons e dos fótons (partícula
mediadora que transporta a força eletromagnética), isto é, descreve a
interação entre a radiação eletromagnética e a matéria, estuda a emissão
e a absorção de fótons pelos átomos e a sua interação com os elétrons e
outras partículas fundamentais. Dirac, ao aplicar a Teoria da relatividade
restrita ao elétron, seria pioneiro da Eletrodinâmica quântica e referência
para os trabalhos futuros nessa área.
A Equação de onda de Dirac continha, no entanto, parâmetros
infinitos, devido a que o elétron em movimento emitia um campo
eletromagnético que interagia com seu próprio campo. Essa autointeração
infinita levava a uma situação tida como catastrófica no plano matemático,
pois significava que essa interação, por contribuir para a massa e a carga
elétrica do elétron, tornava-as quantidades infinitas, o que era um absurdo.
Esse problema impediria o desenvolvimento da EDQ até o final da
Segunda Guerra, quando seria encontrada a maneira de contorná-lo, mas
não de resolvê-lo. A solução foi a utilização de um artifício, chamado de
“renormalização”, apresentado por Victor Frederick Weisskopf (1908-2003,
MMP-1956) e Hendrik Kramers (1894-1952), que consistia em modificar os
valores de referência para eliminar os infinitos91.
Em 1943, o físico japonês Sin-Itiro Tomonaga (1906-1979, PNF1965) considerou que a força eletromagnética transportada por fótons era
proporcional ao inverso do quadrado da distância, o que significava que
no próprio elétron a força eletromagnética deveria ser infinita. Tomonaga
aplicaria o chamado método da renormalização para evitar o surgimento
dessas quantidades infinitas. Escrito em japonês e durante a Guerra, o
artigo não teve repercussão no meio científico92, vindo a ser conhecido
quando publicado, em 1948, no Physical Review 74. Nos EUA, Julian
91 92 BIEZUNSKI, Michel. Histoire de la Physique Moderne.
CHERMAN, Alexandre. Sobre os Ombros de Gigantes.
210
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Schwinger (1918-1994, PNF-1965) chegaria ao mesmo resultado com o
mesmo método empregado por Tomonaga.
O trabalho de maior impacto sobre o assunto, e considerado,
pela inovação, como marco inicial da Eletrodinâmica quântica, se deve
a Richard Feynman (1918-1988). Formado pelo MIT, em 1939, com a tese
Forças e Tensões nas Moléculas, transferiu-se para Princeton, onde estudou
com John Wheeler (1911), doutorando-se, em 1942, com o trabalho
O Princípio da Menor Ação na Mecânica Quântica. Durante a Segunda
Guerra Mundial, trabalhou no Projeto Manhattan, no Laboratório de Los
Alamos, com Hans Bethe, e, em 1945, foi designado professor assistente
na Universidade de Cornell, voltando, então, a estudar os problemas
decorrentes das quantidades infinitas na EDQ. Em artigos de 1948,
publicados no Reviews of Modern Physics 20 e no Physical Review 74, Feynman
apresentou sua famosa série de diagramas que tornavam possível seguir
os elétrons e os fótons, e a absorção ou emissão desses por aqueles. Em
1965, juntamente com Tomonaga e Schwinger, receberia Feynman o
Prêmio Nobel de Física. Em seu período no Instituto de Tecnologia da
Califórnia (Caltech), desenvolveria, com Murray Gell-Mann, a Teoria geral
da interação fraca, publicada, em 1968, com o título de Teoria da Interação
de Fermi, e contribuiria, igualmente, para a Teoria da cromodinâmica
quântica (CDQ), desenvolvida por Gell-Mann para descrever a força forte
e explicar a estrutura interna das partículas elementares. Seu Curso de
Introdução à Física, na Caltech, seria publicado, em 1963, com o título
de Feynman Lectures on Physics, que obteria grande sucesso, seguido, em
1965, de As Características da Lei Física. Em 1986, participou da Comissão
Rogers, encarregada do inquérito para apurar as causas do desastre do
ônibus espacial Challenger, quando seus seis tripulantes morreram.
Feynman manteve muitos vínculos com o Brasil, tendo trabalhado por
seis semanas, em 1949, no Centro Brasileiro de Pesquisas Físicas (CBPF),
no Rio de Janeiro, retornando, em 1951, para um período de 10 meses, a
convite do Professor Leite Lopes. Voltou ao Brasil em 1953, e colaborou,
com doações, para a reconstrução da biblioteca do CBPF, gravemente
afetada pelo incêndio de 195993.
Sendo a Mecânica quântica probabilística, na qual não existe
certeza absoluta simultaneamente da posição e do momento linear de
objetos, a Equação de Schrödinger descreve a probabilidade, após um
certo tempo, da ocorrência de um estado final como resultado de um dado
estado inicial. Em sua tese de 1942, Feynman sugeriria o princípio da ação
mínima quântica pela “soma ponderada de todos os possíveis caminhos,
93 ROSENFELD, Rogério. Feynman & Gell-Mann.
211
CARLOS AUGUSTO DE PROENÇA ROSA
ou seja, cada caminho contribui com um peso determinado, tendo certa
probabilidade de ser o escolhido pelo sistema”. Esse método ficou conhecido
como “integral de caminho” e é empregado em várias áreas da Física. De
regresso à vida acadêmica, após a Guerra, Feynman se ocuparia, entre
outros assuntos, com a questão das quantidades infinitas decorrentes da
teoria de Dirac. Feynman desenvolveria um método para redefinir massa
e carga das partículas com a eliminação dos infinitos, preservando, ao
mesmo tempo, as equações. O obstáculo da renormalização seria superado
pelos famosos diagramas de Feynman, cujo método de cálculo é fácil de
usar e permite calcular a probabilidade do evento quântico por meio de
gráficos simples, forma de representar o que acontece quando elétrons,
fótons e outras partículas interagem entre si.
Segundo a EDQ, as forças eletromagnéticas entre dois elétrons
surgem pela emissão de um fóton por um dos elétrons e a sua absorção
por outro elétron. Se o elétron emite ou absorve um fóton, estaria, no
entanto, contrariando o princípio da conservação da energia ou do
momento. Graças ao Princípio da Incerteza, de Heisenberg, no mundo de
escala subatômica, o princípio da conservação de energia pode ser violado
para pequenos intervalos de tempo, em que o “sistema” toma emprestada
energia para o elétron emitir um fóton que é devolvido quando o outro
elétron absorve o fóton. Trata-se, assim, de uma troca virtual de um fóton
entre elétrons. Nesse processo de espalhamento de elétrons, ocorrem
mudanças na trajetória dos elétrons pela simples troca virtual de um
fóton. O fenômeno é representado no diagrama de Feynman, no qual as
partículas (elétrons) estão nas linhas retas e os fótons nas linhas sinuosas.
Cada elemento do diagrama corresponde a uma fórmula matemática, o
que permite calcular as probabilidades de ângulos de desvios possíveis.
Em 1949, o físico americano Freeman Dyson (1923, MMP-1969)
mostraria que os três métodos (Tomonaga, Schwinger e Feynman) eram
equivalentes. Em 1965, Tomonaga, Schwinger e Feymann dividiriam o
PNF por suas contribuições para a formulação da Teoria da eletrodinâmica
quântica.
7.4.5.5 Flavourdinâmica ou Teoria da Interação Eletrofraca
A força fraca é a que explica o processo de decaimento radioativo,
como os decaimentos beta, nuclear, do múon, do píon e de várias
partículas “estranhas” (S). A força fraca, por estar restrita ao átomo,
não era conhecida nem contemplada pela Física clássica, sendo sua
212
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
formulação exclusivamente quântica. A primeira teoria das interações
fracas foi apresentada por Enrico Fermi, em 1933, que constatara que
os núcleos que decaiam com emissão beta tinham vida longa, o que
significaria uma interação de pequena intensidade, requerendo muito
tempo para sua desintegração. A essa interação, Fermi daria o nome de
força fraca, a qual atua a distâncias extremamente pequenas, de 10-18 m.
As pesquisas de Fermi seriam aperfeiçoadas nos anos 50 e 60, por Lee,
Yang, Feymann e Gell-Mann. Esses dois últimos físicos mencionados
escreveriam, em 1968, A Teoria da Interação de Fermi, em que exporiam
sua Teoria geral da interação fraca. Os neutrinos (do elétron, do múon e
do tau), cuja existência fora prevista por Pauli, mas detectados em 1956,
sofrem apenas interações fracas e gravíticas. Os físicos Steven Weinberg
(1933), Sheldon Glashow (1932) e Abdus Salam (1926-1996) receberiam
o PNF de 1979 por terem elaborado uma Teoria de gauge não abeliana
que previa a existência das partículas mediadoras (bósons) da interação
fraca. Se confirmada, as interações eletromagnéticas e fracas poderiam ser
consideradas como uma única força, denominada interação eletrofraca94.
A descoberta, em 1983, por uma equipe do CERN, dos bósons W +,
W- e Z0 (de carga zero), partículas mediadoras da interação fraca, que
possuem massa muito maior que os fótons, reforçaria, no meio científico,
a teoria da interação eletrofraca. No particular, vale recordar que o físico
brasileiro José Leite Lopes (1918-2006), em artigo de 1958, no Physical
Review, previu a existência de tais bósons intermediários. O PNF de 1999
seria concedido aos físicos Gerardus‘t Hooft (1946), da Universidade de
Utrecht, e a Martinus J. G. Veltman (1931), da Universidade de Michigan,
por elucidar a estrutura quântica da interação eletrofraca, ao demonstrar
que a teoria era renormalizável. Os físicos Carlo Rubbia e Simon van der
Meer receberiam o PNF de 1984 por suas contribuições que levariam à
descoberta das partículas de campo W e Z, transportadoras da interação
eletrofraca.
7.4.5.6 Cromodinâmica Quântica
A Cromodinâmica quântica (CRQ), parte importante e integrante,
do modelo padrão da física das partículas elementares, é a teoria que
trata da interação nuclear forte, isto é, a força que mantém o núcleo do
átomo unido, responsável, portanto, por sua estabilidade. Embora a
mais forte das interações fundamentais, ela só age no núcleo atômico.
94 BIEZUNSKI, Michel. Histoire de la Physique Moderne.
213
CARLOS AUGUSTO DE PROENÇA ROSA
Os mediadores da força nuclear forte são os glúons, partículas (bósons) sem
massa que interagem com os quarks mantendo-os coesos para formarem
os hádrons. Essas partículas elementares foram sugeridas por Gell-Mann
em seu modelo dos quarks e glúons, de 1964. Na teoria da interação forte,
a chamada carga de cor dos quarks e dos glúons tem o mesmo papel que
a carga elétrica na interação eletromagnética.
Diante do grande progresso nas pesquisas com os aceleradores de
partículas, nos anos 60 (descoberta de quarks, em 1967), que corroborariam
anteriores evidências de subpartículas atômicas, cientistas se dedicariam a
formular uma Teoria quântica de campo da interação forte, a exemplo da
Eletrodinâmica quântica para a força eletromagnética.
Em 1973, David Gross (1941) e Frank Wilczek (1951), de Princeton,
e David Politzer (1949), de Harvard, laureados com o PNF de 2004,
anunciariam uma descoberta que permitiria calcular a forte interação entre
os quarks. De acordo com a teoria, os glúons interagem com os quarks, mas
também, o que é surpreendente, entre eles. A Teoria da cromodinâmica
quântica mostra que, quanto mais próximos se encontram os quarks uns
dos outros, mais fraca é a interação entre eles. Os quarks chegam mais
perto uns dos outros quando a energia aumenta, enquanto a força da
interação decresce com a energia, permitindo que os quarks se comportem
como partículas livres; a isso se dá o nome de liberdade assintótica. Em
contraposição, a força da interação aumenta com a distância, o que impede
ao quark de ser expulso do núcleo atômico ou de qualquer hádron. A
formulação de Gross, Wilczek e Politzer teria confirmação experimental e
daria fundamentação Teórica à cromodinâmica quântica.
7.4.5.7 Unificação das Interações
O matemático e físico escocês James Clerk Maxwell (1831-1879)
estudaria, a partir de 1864, a teoria de Faraday sobre magnetismo e
elaboraria equações para descrever os fenômenos elétricos e magnéticos,
as quais seriam incorporadas a seu Tratado de Eletricidade e Magnetismo, de
1873. Com sua obra, Maxwell unificaria teoricamente as forças elétricas
e magnéticas, como dois diferentes aspectos de um mesmo fenômeno, o
Eletromagnetismo. A descoberta experimental, no século XX, do átomo
e das forças (fraca e forte) atuantes em seu interior, despertaria a ideia
de que seria possível, a exemplo do Eletromagnetismo, unificar as
quatro forças fundamentais (interações) numa só teoria. Desde os anos
30, essa seria uma tarefa a que se dedicariam, sem sucesso, vários físicos,
214
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
inclusive Einstein. Com a unificação teórica das forças eletromagnética e
fraca na interação eletrofraca, as forças da Natureza passariam a três: a
gravitacional, a eletrofraca e a forte, estas duas últimas com formulação
quântica.
7.4.5.8 Bóson de Higgs
O físico inglês Peter Ware Higgs (1929) propôs, em 1964, a
existência de um bóson, o chamado Bóson de Higgs, que teria dado
existência a outras partículas, e seria responsável por conferir massa aos
bósons mediadores da interação eletrofraca, mas igualmente para explicar
a origem da massa das diversas partículas elementares.
Em 2009, entrará em funcionamento definitivo o Grande Colisor
de Hádrons (LHC – Large Hadron Collider), acelerador de partículas da
CERN, localizado em Genebra, com capacidade de gerar energia total de
colisão de dois prótons de 14 TeV. Com esse experimento, se espera poder
observar traços do Bóson de Higgs, além de dimensões extras e partículas
que poderiam constituir a “matéria escura” do Universo. A eventual
confirmação da existência do Bóson de Higgs será o teste definitivo
da correção da Teoria da interação eletrofraca e do Modelo padrão de
partículas elementares.
7.4.5.9 Modelo Padrão das Partículas Elementares
O chamado Modelo padrão das partículas fundamentais pode
ser considerado como tendo sido, inicialmente, formulado nos anos de
1970 e estabelecido empiricamente nos anos de 1980. A confirmação de
uma série de suas previsões daria imensa popularidade e credibilidade
no meio científico ao Modelo, sendo, hoje em dia, aceito como válido,
apesar de persistirem alguns mistérios, como os da origem das massas
das partículas da matéria (léptons e quarks) e a razão de prótons e elétrons
terem a mesma carga elétrica. As três forças (eletromagnética, fraca e
forte) aplicáveis ao microcosmo são explicadas pelo Modelo padrão, que
descreve os quarks, os léptons e os bósons.
De acordo com o Modelo, tudo no Universo é resultado da
combinação das 12 partículas fundamentais, que, unidas pelas quatro
forças fundamentais, formam a matéria. A existência de uma 13ª partícula
foi aventada por Higgs, o chamado Bóson de Higgs, em 1964, na Physics
215
CARLOS AUGUSTO DE PROENÇA ROSA
Revue Letter 13, 508, para explicar a massa das partículas e, desde então,
tem sido pesquisado pelos cientistas sem sucesso.
As partículas fundamentais são agrupadas como férmions ou como
bósons. Os férmions (léptons e quarks) têm spin semi-inteiro (1/2, 2/3,
5/2...) e obedecem à estatística Fermi-Dirac. A denominação desse grande
grupo de partículas foi em homenagem a Enrico Fermi. Os bósons, de
spin inteiro (1, 2, 3...), obedecem à estatística Bose-Einstein, e a designação
homenageia o físico indiano Satyendra Nath Bose (1894-1974) que, em
1924, demonstrou a fórmula de radiação do corpo negro, de Planck, sem
utilizar a estatística de Maxwell-Boltzmann.
Consideram-se, no Modelo padrão95, um total de 16 partículas
fundamentais, das quais 12 (léptons e quarks) são partículas constitutivas
da matéria, e quatro (bósons) são partículas transportadoras das interações
fundamentais. Estão elas assim agrupadas:
Léptons: elétron, elétron-neutrino, múon, múon-neutrino,
tau e tau-neutrino; essas partículas não sofrem a ação da interação forte;
o elétron, o múon e o tau têm carga negativa, e os três neutrinos não têm
carga elétrica; são partículas que viajam sozinhas; a cada uma dessas
partículas corresponde uma antipartícula; os léptons não são influenciados
pela interação forte.
Quarks: Up (u), Down (d), Charm (c), Strange (s), Botton (b) e Top
(t); os quarks u, c e t têm carga elétrica positiva de 2/3, e os demais têm
carga negativa de -1/3; estão confinados no interior de partículas maiores,
e não são encontradas isoladamente, mas aos pares. Cada quark tem três
atributos ou cores (verde, vermelho e azul) e a cada um corresponde um
antiquark.
Bósons: fóton, glúon, bósons vetoriais intermediários (W e Z) e
gráviton.
Três quarks formam um bárion (há mais de 120 tipos de bárions;
exemplos: próton, nêutron lambda, ômega), e um par de quark/antiquark
forma um méson (há mais de 140 tipos; exemplos: píon, káon, eta). Os
bárions e os mésons formam o grande grupo de hádrons. Os léptons
constituem o outro grande grupo, mas não são formados por quarks, e
sim por elétron, múon e tau ou um de seus neutrinos.
A cada partícula corresponde outra com a mesma massa e o mesmo
spin, mas carga elétrica e números quânticos de sinais opostos, chamada
de antipartícula, a qual pode ser produzida em laboratório; assim, por
exemplo, ao próton corresponde o antipróton, ao elétron o pósitron e ao
méson π (pi) positivo o méson π (pi) negativo. O nêutron e o antinêutron,
95 MARTINS, Jader Benuzzi. A história do átomo de Demócrito aos quark.
216
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
apesar de terem carga nula, possuem outros números quânticos de
sinal oposto, mas algumas partículas neutras, como o fóton, são as suas
próprias antipartículas. A primeira antimatéria detectada, postulada
por Paul Dirac, em 1928, foi o pósitron, em 1932, por Carl Anderson, e
a segunda, o antipróton, seria descoberta, em 1954, por Emilio Segré e
Owen Chamberlain.
7.5 Química
Como ocorrido em outros ramos da Ciência (Astronomia, Física,
Biologia, Sociologia, Matemática), a Química seria palco, igualmente, de
extraordinário e renovador desenvolvimento teórico e experimental na
Época Contemporânea. Novos conceitos, princípios e noções se imporiam
para fundamentar as bases teóricas de uma Química em expansão e em
grande atividade, em diversos domínios, em boa parte motivada pelas
crescentes demandas de uma Sociedade, principalmente a partir da
Primeira Guerra Mundial, em processo acelerado de industrialização e
urbanização.
A imensa contribuição da Química, em particular da Química
industrial, ao desenvolvimento econômico e social, como atestam suas
aplicações, por exemplo, na Agricultura, na Indústria, na Biologia e na
Medicina, teria um imediato reconhecimento popular e determinaria
o interesse público e empresarial em seu desenvolvimento e expansão.
O surgimento e desenvolvimento das indústrias petroquímica (plástico,
borracha sintética), de alimentação, farmacêutica, entre outras, para
atender à crescente demanda, comprova a grande contribuição da ciência
química ao bem-estar da população.
As pesquisas se intensificariam, os laboratórios se multiplicariam,
a tecnologia aprimoraria a qualidade dos equipamentos, e a Química
alcançaria âmbito mundial, deixando de ser uma atividade científica
restrita, como em séculos anteriores, praticamente à Europa. Países como
os EUA, Japão, Austrália e Canadá surgiriam, na primeira metade do
século XX, com significativas contribuições para o entendimento dos
fenômenos químicos, que se estenderia, posteriormente, a outros centros,
como a Argentina, Brasil, China, Índia e México. Assim, o fenômeno da
internacionalização, ou da globalização, uma das características da Ciência
no século XX, estaria presente no processo evolutivo da Química.
A significativa herança recebida do século anterior (atomismo,
Química Orgânica, estrutura molecular, Tabela periódica dos
217
CARLOS AUGUSTO DE PROENÇA ROSA
elementos, Bioquímica, noções de valência e de radical, Físico-Química,
Estereoquímica, Análise) não deve, nem pode ser minimizada, uma vez que
tão importantes avanços foram fundamentais para o processo evolutivo
de compreensão dos fenômenos químicos, e decisivos para a notável
expansão de diversos setores da Química. Muitos conceitos e princípios
seriam aperfeiçoados, adaptados, expandidos, revistos ou reformulados,
mas constituíram um formidável conjunto de conhecimento de uma etapa
indispensável e criativa para as inovações teóricas que se seguiram. Dessa
forma, as contribuições de um Dalton, Gay-Lussac, Berzelius, Avogadro,
Wohler, Liebig, Mendeleiev, Berthelot, Kekulé, Pasteur, Würtz, Van’t
Hoff, Emil Fischer, Albrecht Kossel, Arrhenius, Ostwald e Marie Curie,
entre tantos outros, foram marcantes e decisivas para firmar, em bases
positivas, a independência teórica e experimental da ciência química.
Nesse processo de afirmação científica, os estreitos vínculos com
outros ramos da Ciência, em especial a Biologia e a Física, se reforçariam
em mútuo benefício. Nesse sentido, as descobertas do final do século XIX,
dos raios-X, em 1895, por Wilhelm Konrad Roentgen, da radioatividade,
em 1896, por Henri Becquerel e pelo casal Curie, em 1898, do elétron, por
J. J. Thomson, em 1897, do ácido nucleico, em 1869, por Johann Friedrich
Miescher, e da fermentação como agente do processo químico intracelular,
em 1896, por Eduard Buchner, seriam da maior importância, pela
contribuição para o desenvolvimento da Química atual. A Bioquímica,
por outro lado, se caracterizaria como o elo da progressiva aproximação
entre os campos da Química, da Biologia e da Medicina, e se transformou
num dos ramos mais dinâmicos na atualidade. Contribuições importantes
da Química podem ser assinaladas nos campos da Geologia, Climatologia,
Arqueologia, Paleontologia e Meio Ambiente; a concessão do Prêmio
Nobel de Química (PNQ) de 1998 a Paul Crutzen, Mario Molina e Franklin
Rowland, por seus trabalhos sobre a camada de ozônio, é um excelente
exemplo da expansão e diversificação das áreas de atividade da Química.
Uma teoria do âmbito da Física e da Química seria, contudo, a
principal responsável pelo desenvolvimento e caráter revolucionário
da Química no século XX. A conhecida Teoria quântica, formulada pelo
físico alemão Max Planck, em 1900, em seu trabalho Sobre a teoria da lei da
distribuição de energia do espectro contínuo, marca o início de um processo
evolutivo da Química, como no caso da Física, com características
absolutamente distintas daquelas de séculos anteriores. Seu formidável
impacto nas futuras pesquisas nos domínios da Física e da Química,
particularmente no que se refere ao atomismo, seria crescente e amplo, ao
longo do século XX, dando nascimento à Química moderna.
218
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Como Ciência dedicada ao estudo da estrutura, composição,
propriedades e transformações da matéria, a aplicação da Teoria quântica
à Química resultaria numa nova concepção do átomo, cujos modelos
evoluiriam do apresentado por Ernest Rutherford, em 1903 (PNQ de
1908), ao de Niels Bohr, de 1913, e, finalmente, ao da Mecânica quântica
(1926/27), representado pelo modelo atômico orbital (Bohr-Born-Schrödinger-Heisenberg-Pauli-Dirac).
O desenvolvimento subsequente do conhecimento das partículas
atômicas e subatômicas, como o próton, o nêutron e o neutrino; a teoria
da antimatéria, de Paul Dirac (1928), confirmada com a descoberta do
pósitron (1932); a invenção do acelerador de partículas (cíclotron),
por Ernest Orlando Lawrence, em 1931, que permitiria conhecer um
grande número de partículas subatômicas (quarks, tau, múon); e a
formulação do quadro das partículas fundamentais a partir do trabalho
de Murray Gell-Mann, de 1964, atestam, além do estreito vínculo da
Física e da Química, atuantes em domínios afins, o formidável avanço
no conhecimento do mundo subatômico, pelo impacto da Mecânica, da
Cromodinâmica e da Eletrodinâmica quânticas.
O progresso nas pesquisas na área do átomo permitiria, em
curto prazo de tempo, atingir o estágio do desenvolvimento teórico
da fissão nuclear, em 1939, com os trabalhos dos químicos Otto Hahn
e Fritz Strassmann, e da física Lise Meitner, e o desenvolvimento da
bomba atômica (1945), pelo Projeto Manhattan (Enrico Fermi, Robert
Oppenheimer, Leo Szilard).
A estrutura atômica, como definida no Modelo quântico, serve
como instrumento de apoio da descrição dos processos químicos. A
Química quântica se vale, assim, das teorias da Mecânica quântica e
da Física das partículas para o estudo das propriedades da molécula,
isto é, dos elementos e dos compostos químicos, que são, na realidade,
a unidade da atividade química. Se à Física das partículas corresponde
o estudo das alterações da estrutura nuclear atômica, à Química cabe,
fundamentalmente, a análise dos sistemas clássicos de intercâmbios, nos
quais existe uma estrita conservação da massa e da energia em perfeitas
condições de isolamento.
Dado que o desenvolvimento da Teoria quântica e da Teoria atômica
foi uma atividade conjunta e compartilhada por físicos e químicos, por
dizer respeito a esses dois ramos científicos, esses temas foram tratados na
parte deste trabalho sobre a evolução da Física.
Adicionalmente ao progresso no domínio quântico e atômico,
ocorreria, igualmente, grande atividade investigativa com o objetivo
219
CARLOS AUGUSTO DE PROENÇA ROSA
de melhor compreender a molécula, cujo conceito, oriundo de Amedeo
Avogadro, e difundido nos anos de 1860 por Stanislao Cannizzaro,
permitiria significativo desenvolvimento na chamada Química molecular,
em especial em ligações químicas e estereoquímicas, além dos atuais
conceitos de ácidos e bases.
Paralelamente aos avanços investigativos quanto à estrutura,
composição, propriedade e transformações do átomo e da molécula,
prosseguiriam as pesquisas em relação aos elementos e ao preenchimento da
Tabela periódica dos elementos, completada com o total de noventa e dois
(92) elementos naturais, em ordem segundo seus respectivos pesos atômicos,
como proposto por Henry Moseley. Fundamental nesse domínio para o
futuro desenvolvimento da Química seria a descoberta, em 1913, do isótopo,
denominação dada por Frederick Soddy para indicar átomos de um mesmo
elemento, cujo núcleo atômico possui o mesmo número de prótons, mas
diferente número de nêutrons. A partir de 1940 seriam sintetizados os chamados
elementos transurânicos, até agora num total de vinte (20), incorporados à
Tabela periódica, e criados em laboratórios dos EUA, Rússia e Alemanha.
No exame da Química atual, merece especial referência o progresso
realizado no importante campo da Síntese orgânica, setor novo, surgido
na segunda metade do século XIX, que seria extraordinário motor na
busca de inúmeros compostos, de interesse para a moderna Sociedade
humana, como a preparação, em grande escala, de substâncias para fins
terapêuticos; para tanto, seriam inventados diversos tipos de reações
químicas, como hidrogenação catalítica, salificação, hidrólise, esterificação
e halogenação. Nesse processo, as enzimas, proteínas catalisadoras, se
tornaram uma das melhores opções em reações (oxidação, condensação,
redução, síntese, hidrólise) para a realização da Síntese orgânica.
A Bioquímica, nascida no século XX, se tornou, rapidamente,
um dos setores científicos mais ativos e dinâmicos, por sua contribuição
para o conhecimento da química dos processos biológicos. Estreitamente
vinculada com a Biologia molecular, a Genética, a Química Orgânica e
a Físico-Química, a Bioquímica seria fundamental para a expansão e o
aprofundamento dos estudos e pesquisas sobre os compostos químicos e
as reações químicas e das interações químicas nos organismos vivos.
A evolução da Química na atualidade pode ser dividida em duas
grandes fases: uma que se iniciou com a formulação da Teoria quântica, e
terminaria com a obtenção teórica da fissão nuclear e a explosão da bomba
atômica; e uma segunda, que se estenderia desde os anos 50 até os dias
atuais. A primeira fase seria nitidamente europeia, com a Alemanha na
liderança incontestável dos estudos teóricos e das pesquisas laboratoriais,
220
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
posição já alcançada nas últimas décadas do século anterior, devido
à proliferação de institutos de pesquisas em diversas cidades e centros
universitários; Walther Hermann Nernst, Johann Baeyer, Alfred Werner,
Emil Fischer, Wilhelm Ostwald, Eduard Büchner, Otto Wallach, Fritz
Haber, Otto Hahn, Albrecht Kossel, Walther Kossel, Willstatter, Adolf
Windaus, Heinrich Wieland, Otto Diels e Kurt Alder são alguns dos mais
reputados químicos e bioquímicos dessa fase na Alemanha.
Na Inglaterra, o Laboratório Cavendish (Cambridge) alcançaria o
mais alto nível no campo da pesquisa química, bem como seriam da maior
importância os trabalhos desenvolvidos nos centros de investigação em
Londres, Manchester e Oxford; as contribuições de Ernest Rutherford,
James Dewar, Lord Rayleigh, William Ramsay, Nevil Sidgwick, Francis
Aston, Frederick Soddy, Walter Norman Haworth e Henry Moseley, entre
outros, demonstram o papel fundamental dos cientistas britânicos nessa
fase do desenvolvimento da Química.
As Universidades de Leiden, Amsterdã e Delft foram os mais
importantes centros irradiadores das pesquisas na Holanda; de longa
tradição científica, e com um grande número de figuras proeminentes na
história das Ciências, o país continuaria a prestigiar a cultura e a pesquisa,
mantendo o alto nível alcançado no passado. Van’t Hoff, primeiro Prêmio
Nobel de Química e Peter Debye (PNQ de 1936) são as maiores expressões
da Química holandesa dessa fase.
A França, cujo maior centro de pesquisa era Paris, teria em Pierre
Berthelot, Marie Curie, Louis Chaudonnet, Henri Le Chatelier, Paul
Sabatier, François Grignard, André Louis Debierne, Irène e Frédérick
Joliot-Curie importantes pioneiros em diversos setores da Química.
A Suécia, com Svante Arrhenius, Jorgen Lehmann, Theodor
Svedberg (PNQ de 1926), Hans von Euler-Chelpin (PNQ de 1929), Arne
Tiselius e Abraham Langlet; a Áustria, com Fritz Feigl, Otto Perutz,
Carl Auer von Welsbach, Richard Zsigmondy (PNQ de 1925), Richard
Kühn (PNQ de 1938) e Carl Djerassi; e a Bélgica, com Ernest Solvay e
Leo Baekeland contribuiriam, igualmente, para o progresso da pesquisa
química. A Dinamarca ocupa lugar especial no desenvolvimento da
Química, nessa primeira metade do século XX, graças, em parte, às
atividades e trabalhos de Niels Bohr, um dos fundadores da Mecânica
quântica, e do primeiro modelo quântico de átomo; fundador e diretor do
Instituto de Física Teórica, Bohr transformaria Copenhague num dos mais
importantes centros científicos da época. Ejnar Hertzsprung, Johannes
Nicolaus Brönsted, Sören Sörensen e Henryk Dam (PNFM de 1943) são
alguns dos mais proeminentes químicos dinamarqueses dessa fase.
221
CARLOS AUGUSTO DE PROENÇA ROSA
A implantação do regime nazista na Alemanha e a Segunda Guerra
Mundial seriam fatores determinantes da destruição de centros europeus de
investigação e de fuga de cérebros, em especial para os EUA, o que precipitaria
a transferência do centro mundial de estudos e pesquisas científicas para esse
país. Importante assinalar, porém, que os EUA já investiam, desde o século
anterior, na qualidade do Ensino superior, na criação de institutos de pesquisas,
na formação de pessoal qualificado, no recrutamento de professores europeus,
na especialização, no exterior, de recém-formados, na ampliação e melhoria
dos laboratórios, pelo que não se pode creditar unicamente ao ingresso de
pesquisadores europeus na comunidade científica estadunidense o formidável
progresso da investigação teórica e laboratorial nesse país. Os EUA passariam a
contar com um importante número de centros de investigação disseminados em
diversas universidades e vários laboratórios de grandes empresas industriais,
muitas vezes com apoio financeiro governamental, por meio de programas de
pesquisas e bolsas de estudo. Na vanguarda incontestável da pesquisa química,
os EUA são, na atualidade, responsáveis pela maior parte do avanço teórico e
aplicado no campo da Química.
O Japão, a URSS (Rússia) e os países europeus só viriam a se
recuperar a partir da década de 70; na América Latina, Brasil, Argentina
e México são os países de maior avanço no estudo e na pesquisa química.
A concessão do Prêmio Nobel de Química (PNQ), reputado como
a mais importante premiação na área científica, é uma evidência das
relevantes contribuições de determinado químico ao desenvolvimento da
Ciência, e reflete o avanço das pesquisas no respectivo país. Do total de 43
prêmios concedidos na primeira fase (de 1901 a 1945, inclusive), quarenta
foram para nacionais de países europeus, o que ilustra a nítida supremacia
europeia e alemã: dezessete alemães, seis franceses e britânicos, três
suecos e suíços, dois holandeses e um austríaco, húngaro e finlandês;
fora da Europa, apenas três norte-americanos foram laureados. O quadro
para a segunda fase (de 1946 a 2006) seria completamente diferente do
anterior, em que há uma significativa diversificação de nacionais de países
contemplados com a premiação, e, ao mesmo tempo, uma extraordinária
maioria de premiados de nacionalidade americana: cinquenta e dois
americanos, dezoito britânicos, dez alemães, quatro japoneses e quatro
canadenses, três suíços, dois franceses e dois israelitas, e um da URSS,
Tchecoslováquia, Itália, Noruega, Austrália, Bélgica, Dinamarca, Suécia,
Holanda, Egito, Argentina e México, o que significa ter os EUA recebido,
nesta segunda fase, quase o mesmo número (52) de Prêmios Nobel de
Química concedidos (55) a todos os demais países (19). A atual supremacia
americana neste campo é, assim, evidente.
222
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Igualmente prestigiado é o Prêmio Priestley, concedido desde 1923,
pela Sociedade Química Americana (ACS), pelas contribuições relevantes
à Química por pesquisadores americanos, tendo sido agraciados, entre
outros, William Noyes, Melvin Calvin, Harold Urey, Paul Flory, Glenn
Seaborg, Robert Mulliken, Linus Pauling, Carl Djerassi, Elias Corey,
George Olah e George Whitesides.
O reconhecimento da importância da Química nos meios industriais
e universitários de um grande número de países explica a expansão e a
diversificação, em âmbito mundial, ocorrida principalmente a partir dos
anos 70, de instituições nacionais criadas ou reestruturadas com o objetivo
de promover as atividades de pesquisas químicas, de difundir estudos e de
facilitar a cooperação e o intercâmbio científico. Nesse sentido, associações,
sociedades ou institutos, atualmente existentes em quase todos os países,
passariam a ter um papel relevante na promoção da Química em seus
países. A título exemplificativo podem ser citadas as Sociedades de
Química brasileira, chilena, mexicana, americana, argentina, canadense,
dinamarquesa, francesa, sueca, alemã, polaca, portuguesa, britânica, russa
(Mendeleiev), italiana, espanhola, chinesa, japonesa, tailandesa, coreana,
etíope e os Institutos de Química da Irlanda, da África do Sul, da Nova
Zelândia e da Austrália.
Além das instituições de âmbito nacional, seriam, igualmente,
fundadas entidades não governamentais de âmbito mundial, sendo
a International Union of Pure and Applied Chemistry (IUPAC) a mais
importante. Com o objetivo de contribuir com a aplicação da Química para
servir à Humanidade, a IUPAC, fundada em 1919, e membro do Conselho
Internacional para a Ciência (ICSU), tem, atualmente, 49 sociedades
nacionais aderentes, inclusive a Sociedade Brasileira de Química, e 19
associadas; é o órgão aceito internacionalmente com a autoridade para
estabelecer a nomenclatura dos elementos químicos e de seus compostos,
por meio de decisão de sua Comissão Interdivisional de Nomenclatura
e Símbolos, e para dirimir dúvidas quanto à ortografia dos nomes das
substâncias. As regras para a denominação dos compostos orgânicos e
inorgânicos constam de duas publicações, chamadas Livro Azul e Livro
Vermelho, respectivamente. A IUPAC publica, ainda, o Livro Verde, com
recomendações para o uso de símbolos para quantidades físicas, e o Livro
de Ouro, com a definição de um grande número de termos técnicos usados
em Química.
Exemplo de esforço de cooperação e coordenação internacional para
o desenvolvimento da Química é a Academia Internacional das Ciências
Moleculares Quânticas, fundada, em 1967, na cidade de Menton, pelos
223
CARLOS AUGUSTO DE PROENÇA ROSA
professores Raymond Daudet (França), Per Olov Löwdin (Suécia), Robert
G. Parr (EUA), John A. Pople (EUA) e Bernard Pullman (França), sob a
inspiração e apoio de Louis de Broglie. A Academia escolhe para membro
trinta e cinco químicos com idade inferior a 65 anos, e número ilimitado
de cientistas idosos, selecionados dentre os que tenham dado valiosa
contribuição na aplicação da Mecânica quântica ao estudo das moléculas e
macromoléculas. A Academia organiza congressos em Química quântica
a cada três anos, que foram sediados em Menton (1973), Nova Orleans
(1976), Kyoto (1979), Uppsala (1982), Montreal (1985), Jerusalém (1988),
Menton (1991), Praga (1994), Atlanta (1997), Menton (2000), Bonn (2003)
e Kyoto (2006); o 13° Congresso será realizado em 2009, em Helsinque. A
Academia premia anualmente, com medalha, jovens pesquisadores que se
tenham distinguido por suas importantes contribuições; até 2006 já haviam
sido agraciados trinta e sete (37) químicos de várias nacionalidades.
Dentre os conclaves internacionais para o amplo e profícuo debate
científico no campo da Química e da Física devem ser mencionadas
as Conferência Solvay, hoje organizadas pelo Instituto Internacional
Solvay de Física e de Química, em Bruxelas, cuja primeira Conferência
foi realizada em 1911, convocada pelo industrial e químico belga Ernest
Solvay (1838-1922). A 1ª Conferência, presidida por Hendrik Lorentz,
teve como tema principal “Radiação e os Quanta”; a mais famosa é a
5ª (elétrons e fótons), de 1927; e a mais recente (23ª) foi realizada em
Bruxelas, em dezembro de 2005, sobre “A estrutura quântica do Espaço
e do Tempo”.
Diversas publicações especializadas divulgam semanal, quinzenal
ou mensalmente, artigos de elevado nível científico sobre desenvolvimento
da pesquisa nos diversos campos da Química. Essa ampla rede de jornais
e revistas técnicas tem contribuído para a divulgação dos avanços nas
pesquisas dos fenômenos químicos e favorecido a disseminação do
conhecimento científico. Do grande número de publicações editadas
atualmente nos diversos países, mas com circulação internacional,
caberia citar, a título de exemplo, a Chemical Abstracts, a Chemical Reviews
e o Journal, publicados pela ACS; a Chemical Science e a New Journal of
Chemistry pela RSC do Reino Unido; a Journal of Chemical Research, com
o apoio das Sociedades Químicas alemã, francesa e inglesa; a Angewandte
Chemie e Chemkon, alemãs; a italiana Annalli di Chimica; a European
Journal of Organic Chemistry e a European Journal of Inorganic Chemistry; a
suíça Helvetica Chimica Acta; a Canadian Journal of Chemistry; a austríaca
Monatshefte für Chemie/Chemical Monthly; a Comptes Rendus de Chimie, da
coleção Comptes Rendus, da Academia de Ciências da França; a Annales de
224
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Chimie – Science des Matériaux, o Journal of Chemical Physics, publicado pelo
Instituto Americano de Física, e o Journal of Biology Chemical, da Sociedade
Americana de Bioquímica e Biologia Molecular; desde 1978, a Sociedade
Brasileira de Química publica, numa base bimestral, a revista Química
Nova.
Na área específica da Bioquímica, podem ser mencionadas duas
publicações especializadas de grande renome no meio científico: a
centenária Biochemical Journal e o Journal of Biology Chemistry, com artigos
de elevado nível científico. A Sociedade Brasileira de Bioquímica e Biologia
Molecular (SBBq), que realizou, em maio de 2007, sua 36ª Conferência
Anual em Salvador, Bahia, (a anterior foi em Lindoia em julho de 2006),
publica a Revista Brasileira de Ensino de Bioquímica e Biologia Molecular,
dedicada à publicação de contribuições originais e significativas para o
avanço no conhecimento da pesquisa.
Apesar do amplo campo de atividade da Química, sua evolução no
período será tratada, a seguir, de acordo com as cinco grandes disciplinas
(ou ramos) mais características de sua ação na atualidade: Química
analítica, Físico-Química, Química inorgânica, Química Orgânica e
Bioquímica.
7.5.1 Química Analítica
No início do século XX, ainda prevaleciam os procedimentos
gravimétricos e volumétricos, os métodos clássicos de pesquisa dos
cationtes e aniontes e as técnicas da acidimetria e da alcalimetria
desenvolvidos no período anterior para a análise qualitativa e quantitativa
de grande número de substâncias minerais; eram empregadas, desde então,
com sucesso, técnicas para análise de carbono, hidrogênio, nitrogênio,
halogênios e enxofre nos compostos orgânicos96. Os procedimentos
analíticos, desenvolvidos empiricamente, e os instrumentais utilizados
se mostravam, contudo, inadequados para contribuir com o avanço
das pesquisas químicas, como requerido pelos estudos e pela demanda
industrial. Tratava-se, na realidade de análise química, correspondente a
um conjunto de técnicas com o objetivo de conhecer a composição química
de uma substância ou de uma mistura de substâncias. A introdução de
técnicas instrumentais com o emprego da eletricidade (potenciometria,
polarografia, voltametria, condutometria, coulometria) desde o começo do
século XX, contribuiria de maneira decisiva para o extraordinário progresso
96 TATON, René. La Science Contemporaine.
225
CARLOS AUGUSTO DE PROENÇA ROSA
na Química analítica; graças, ainda, à Eletroquímica, se desenvolveriam
técnicas de microanálise, a cromatografia e a espectografia de massa.
A Química analítica, ramo científico, pode ser considerada como
surgida na atualidade, com o objetivo de estudar os meios para determinar a
composição de uma substância. Inicialmente, deve ser lembrada a pioneira
contribuição do químico alemão Karl Remegius Fresenius (1818-1897),
autor do manual Anleitung zur qualitativen chemischen Analyse (1841) e
do Anleitung zur quantitativen chemischen Analyse (1846), cujo laboratório,
fundado em 1848, se converteria, igualmente, em local de ensino e pesquisa
para seus estudantes97. Com a publicação, em 1912, de As Bases Científicas
da Química Analítica, de autoria de Wilhelm Ostwald, o novo conceito de
definição de pH (índice da acidez, neutralidade ou alcalinidade de uma
solução; pH é a abreviatura de pondus hidrogenii ou hidrogênio potencial),
criado em 1906, pelo bioquímico dinamarquês Sören Sörensen (18681939), e a titulação ácido-base, por Joel Henry Hildebrand (1881-1983),
especializado em soluções não eletrolíticas, ainda na primeira década
do século, correspondem a marcos importantes e iniciais na evolução da
Química analítica.
Ganharia relevância e popularidade o método de microanálise
quantitativa, com o aperfeiçoamento e disseminação de equipamentos
de análise de proporções reduzidas, a partir dos trabalhos do austríaco
Friedrich Emich (1860-1940). No campo da microanálise, devem ser
ressaltados os trabalhos do austríaco Fritz Feigl (1891-1971), descobridor
da “prova de toque” (spot test), residente no Brasil desde 1940, onde viria
a falecer, e autor de Spot Tests in Inorganic Analysis, Spot Tests in Organic
Analysis e Chemistry of Specific, Selective and Sensitive Reactions (1939), e as
pesquisas do esloveno Fritz Pregl (1869-1930), que ganharia o PNQ de
1923 por sua contribuição à microanálise quantitativa orgânica, inclusive
pelo aperfeiçoamento da técnica da combustão para a determinação da
composição dos compostos químicos. O Prêmio Fritz Pregl seria instituído
em 1931, pela Academia de Ciências da Áustria, para ser concedido,
anualmente, a cientistas austríacos que se tenham distinguido no campo
da Química.
Em pouco tempo, estariam difundidos os métodos de microanálise
para substâncias orgânicas, devido às vantagens para certas análises de
natureza biológica.
Os estudos de fenômenos radioativos tornariam indispensável a
introdução de métodos analíticos novos, ultramicro, o que redundaria na
fabricação de novos instrumentos apropriados.
97 IHDE, Aaron J. The Development of Modern Chemistry.
226
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A Espectrofotometria se desenvolveria a partir dos anos 30, com o
abandono dos métodos colorimétricos tradicionais, de natureza empírica,
e a difusão do espectrofotômetro; o emprego de células fotoelétricas
permitiria medir a intensidade da luz transmitida com uma precisão
muito superior àquela do mero exame visual. Pequenos instrumentos
permitiriam, igualmente, a utilização de procedimentos além do espectro
visual, especialmente o ultravioleta e o infravermelho.
O espectroscópio infravermelho seria de especial utilidade para a
Química Orgânica e para o estudo dos compostos minerais. A difração dos
raios-X seria também um método útil para o estudo das estruturas dos cristais.
O físico alemão Max von Laue (1879-1960) estudou nas
Universidades de Estrasburgo, Göttingen e Munique, obteve seu
doutorado, em 1903, pela Universidade de Berlim, onde ensinou Física
teórica de 1919 até 1943, quando se transferiu para Göttingen para
assumir a direção do Instituto Max Planck. Estudioso da Teoria da
relatividade, seu mais importante trabalho, contudo, foi a descoberta,
em 1912, da difração dos raios-X, comprovando sua natureza
eletromagnética, o que lhe valeria o PNF de 1914. A nova técnica teria
imediata aceitação nos meios científicos, e seria empregada na análise
de complexas moléculas orgânicas, uma vez que moléculas grandes
apresentavam uma regularidade interna suficiente para difratar
os raios-X. Em 1915, William Henry Bragg (1862-1942) construiria o
primeiro espectrômetro de raios-X, dando início, com seu filho William
Lawrence Bragg (1890-1971), à pesquisa em cristalografia, que lhes
valeria o PNF de 1915, ano em que os Bragg introduziriam na análise
dos cristais a Análise de Fourier. Novo procedimento com a utilização
de pó seria desenvolvido em 1916 e 1917, por Peter Debye e Paul
Scherer, em Göttingen, o que permitiria o uso de cristais de mínimas
dimensões para difratar os raios-X.
Importante contribuição para as pesquisas em macromoléculas,
confirmando os trabalhos de Staudinger, seria a invenção e a utilização da
ultracentrifugação, em 1924, pelo físico-químico sueco Theodor Svedberg
(1884-1971), como nova técnica na investigação do peso molecular de
proteínas em solução, bem como a estrutura molecular dos coloides.
Recebeu, em 1926, o PNQ por “seus trabalhos em sistemas dispersos”.
A bioquímica inglesa, nascida no Cairo, Dorothy Crowfoot
Hodgkin (1910-1994), com doutorado pela Universidade de Cambridge,
em 1937, sobre a difração dos raios X, ao passar por cristais da enzima
digestiva chamada pepsina, se dedicaria em investigar com esta técnica as
estruturas orgânicas complexas. Em 1949, publicaria o resultado de suas
227
CARLOS AUGUSTO DE PROENÇA ROSA
pesquisas sobre estrutura tridimensional da penicilina, em 1956 esclareceu
a estrutura da vitamina B12, e, em 1960, a da insulina. Por seu trabalho
pela determinação da estrutura de compostos necessários ao combate de
anemia perniciosa, utilizando técnica com os raios-X, Dorothy Hodgkin
ganharia o PNQ de 1964.
A Espectrometria de massa, que permitia a fotografia dos íons de
mesma massa em linha, seria desenvolvida (1919) pelo físico e químico
inglês Francis William Aston (1877-1945), com a qual estabeleceria a
existência dos dois isótopos do neônio na Natureza, descoberta que lhe
valeria o PNQ de 1922, e que seria de grande importância nas pesquisas
da Física atômica. Com seu novo espectógrafo, Aston daria valiosa
contribuição no campo do peso atômico, ao esclarecer que os isótopos não
estariam restritos aos elementos radioativos, mas seriam encontrados em
outros elementos da Tabela periódica.
O método seria usado nos laboratórios para a identificação de
pequenas moléculas, até os trabalhos dos químicos John Fenn (1917)
e Koichi Tanaka (1959), que receberiam metade do PNQ de 2002
pelo desenvolvimento do método de espectrografia de massa para
macromoléculas, como as proteínas98.
A outra metade do PNQ de 2002 seria concedida ao químico
suíço Kurt Wuthrich (1938) que desenvolveu o método da ressonância
magnética nuclear (NMR) para sua aplicação em macromoléculas. A
primeira observação do efeito da ressonância magnética nuclear se deu em
1939 durante os trabalhos de Isidor Isaac Rabi (1898-1988), que receberia
o PNF de 1944 pelo “método de registro de propriedades de ressonância
magnética de núcleos atômicos”. As investigações seriam retomadas
depois da Guerra em alguns centros dos EUA. Por suas pesquisas
pioneiras em 1945 e 1946, Félix Bloch (1905-1983), da Universidade de
Stanford, e Edward Mills Purcell (1912-1997), da Universidade de Harvard,
receberiam o PNF de 1952 “pela medição precisa do magnetismo nuclear
e descobertas afins”. Os espectrômetros de NMR surgiriam no mercado a
partir de 1953, com elevada resolução e grande sensibilidade. Essa técnica
é usada em Medicina e Biologia como meio para formar imagens internas
de corpos humanos e animais. O químico suíço Richard Ernst (1933)
receberia o PNQ de 1991 por suas contribuições para o desenvolvimento
na espectroscopia, em especial da metodologia de resolução da NMR.
O tcheco Jaroslav Heyrovsky (1890-1967), professor de Física da
Universidade Carlos de Praga, de 1919 a 1954, receberia o Prêmio Nobel
de Química de 1959 pela descoberta e desenvolvimento de métodos de
98 Comunicado de Imprensa - Prêmio Nobel de Química de 2002.
228
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
análise polarográficos, que descrevera em 1922. Essa técnica de análise é
considerada como uma das mais versáteis e de ampla utilização no meio
científico99.
No grande avanço de técnicas espectroscópicas ampliadas depois
da Segunda Guerra Mundial deve ser registrado o estudo desenvolvido
por Gerhard Herzberg (1904-1999), físico e químico-físico, alemão de
nascimento que emigrou em 1935 para o Canadá, que lhe permitiria
pesquisar a estrutura eletrônica e a geometria das moléculas; por suas
contribuições, Herzberg receberia o PNQ de 1971.
Herbert Aaron Hauptman (1917), físico-matemático, e Jerome
Karle (1918), com doutorado em Química pela Universidade de Michigan,
dividiriam o Prêmio Nobel de Química de 1985 pelo “desenvolvimento
de excelente método para a determinação direta da estrutura molecular
dos cristais”. Os dois trabalharam na elaboração de equações matemáticas
para descrever o posicionamento dos numerosos pontos que apareciam
nas fotografias devido à refração dos raios X no cristal. Apesar de
representar avanço significativo no uso da espectrografia de raios X para
estruturas complexas, o método (1949) só viria a ser amplamente utilizado
anos depois, com o emprego de computadores para os complexos cálculos
matemáticos, e seria de extrema utilidade na determinação da estrutura
tridimensional de pequenas moléculas biológicas, inclusive de hormônios,
vitaminas e antibióticos.
Na década de 80 seria desenvolvida por Ahmed Zewail (PNQ de
1999) a Femtoquímica, técnica de espectroscopia com o laser de rápidos
pulsos para exame de ultrarrápidas reações químicas (10-15 de segundo),
tema estudado em outro capítulo (Química Orgânica – reações químicas).
Essa técnica, que permite estudar as reações químicas em todos os seus
detalhes, só pode ser desenvolvida com os lasers de pulsos ultracurtos, de
invenção recente. Por seu trabalho pioneiro nessa área, o egípcio naturalizado
americano Ahmed Zewail (1946), atualmente no Instituto de Tecnologia da
Califórnia e autor de Estudo das fases transitórias e as reações químicas mediante
espectroscopia ultrarrápida, ganharia o Prêmio Nobel de Química de 1999.
“Por seus estudos sobre os estados de transição das reações químicas
com ajuda da espectroscopia de femtossegundos” demonstrou Zewail ser
possível mostrar com a técnica de laser rápido o processo dinâmico da reação
química. Na espectroscopia de femtossegundo as substâncias originais são
misturadas numa câmara de vácuo, incidindo-se, inicialmente, um pulso
de laser de maior intensidade, que excita a molécula e a faz atingir um
estado maior de energia, e depois outro pulso de laser, menos intenso que
99 IHDE, Aaron J. The Development of Modern Chemistry.
229
CARLOS AUGUSTO DE PROENÇA ROSA
o anterior, para detectar a molécula original ou uma forma alterada dela;
variando o intervalo de tempo entre os dois pulsos, é possível observar
como os átomos de uma molécula se movem durante uma reação química
e a rapidez com que a molécula original é transformada. Por essa razão, a
Real Academia de Ciência da Suécia descreveu a técnica como “a câmera
fotográfica mais rápida do mundo”100.
Caberia citar, finalmente, o novo método de análise espectrométrica
de massa para macromoléculas biológicas, como a proteína, desenvolvido
por Koichi Tanaka (1959) que permite a molécula ser ionizada e vaporizada
por irradiação de laser sem infligir qualquer tipo de dano; por essa
contribuição, Tanaka dividiria metade do PNQ de 2002 com John Fenn
(1917), que desenvolveu processo de investigação e análise estrutural de
macromoléculas biológicas; a outra metade do PNQ de 2002 foi concedida
a Kurt Wuethrich (1938) pela utilização da ressonância magnética nuclear
para melhor detectar a mobilidade das moléculas.
A Cromatografia é uma técnica da Química analítica utilizada para
a separação de substâncias e misturas; é um método físico-químico de
separação. Esta técnica se baseia no princípio da adsorção (tipo de adesão)
seletiva e foi descoberta, em 1906, pelo botânico russo Mikhail Tswet
(1872-1919), através da separação de pigmentos das plantas (clorofila),
adição de extrato de folhas verdes em éter de petróleo, carbonato de cálcio
em pó num tubo de vidro vertical; os diversos pigmentos se moviam em
taxas de velocidades diferentes pela coluna em função de suas diferentes
propriedades adsortivas, deixando marcas coloridas de diferentes
tonalidades (cromatogramas). Tswet chegou a encontrar oito diferentes
pigmentos, quando até então se pensava existir apenas dois pigmentos
de clorofila. Cabe mencionar ter Tswet, em 1901, inventado o papel
cromatográfico para a separação dos pigmentos101.
Richard Willstatter (1872-1942), químico alemão estudioso da
pigmentação das plantas, e, em especial, da clorofila, a partir de 1905,
é considerado um pioneiro da Cromatografia; utilizando a técnica
desenvolvida por Tswet, constataria Willstatter que a clorofila continha
apenas um átomo de magnésio em sua molécula, descoberta que permitiria
a Robert Burns Woodward (1917-1979), PNQ de 1965, sintetizar a clorofila
(1960). Por seu trabalho sobre a pigmentação de plantas, Willstatter
receberia o PNQ de 1915.
O bioquímico sueco Arne Tiselius (1902-1971), professor da
Universidade de Uppsala, receberia o PNQ de 1948 por suas pesquisas
100 101 Comunicado de Imprensa - PNQ de 1999.
IHDE, Aaron J. The Development of Modern Chemistry.
230
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
em Cromatografia de adsorção na separação de proteínas e outras
substâncias; a invenção, em 1930, da eletroforese permitiria a separação
de partículas em suspensão num campo elétrico102, permitindo grande
avanço no estudo dos coloides.
Os bioquímicos ingleses Archer Martin (1910-2002) e Richard
Synge (1914-1994), em suas pesquisas para a separação de aminoácidos,
desenvolveriam, em trabalho conjunto realizado em Leeds, técnica
cromatográfica de partição que se tornaria essencial para as pesquisas
sobre a estrutura das proteínas; por essa importante contribuição, os dois
receberiam o PNQ de 1952103.
Estima-se que 60% das análises envolvam a cromatografia, utilizada
para a identificação e purificação dos compostos e para a separação dos
componentes de uma mistura. Há vários tipos de cromatografia: a gasosa
– normalmente com um gás inerte, como hélio, hidrogênio ou azoto, a
líquida – com o emprego de líquido de baixa viscosidade, e a supercrítica,
normalmente com dióxido de carbono.
7.5.2 Físico-Química
A estreita vinculação da Física e da Química, aliada às pesquisas
teóricas e experimentais na segunda metade do século XIX em áreas
de mútuo interesse como as do calor, energia, eletricidade e mecânica,
explicam os progressos atuais ocorridos no setor chamado de Físico-Química. O desenvolvimento da Mecânica quântica a partir dos anos
de 1920 e de 1930 na Física viria a contribuir, de maneira decisiva, para
o formidável progresso e reorientação das pesquisas dos fenômenos
químicos já que seria utilizada em diversas áreas da Química, como
estrutura e ligações químicas. Embora seja muito ampla a interface dessas
duas Ciências, o desenvolvimento da Físico-Química será examinado
nos seguintes tópicos específicos: Termoquímica, Cinética química,
Eletroquímica, Ácidos e Bases.
Um dos grandes cientistas do final do século XIX e início do século
XX foi o químico alemão Friedrich Wilhelm Ostwald (1853-1932), nascido
em Riga, na Letônia, tendo exercido os cargos de diretor do Instituto de
Físico-Química de Leipzig (1877) e de professor do Instituto Politécnico de
Riga (1881-1887) e de Física da Universidade de Leipzig (1887-1906), cujo
laboratório se transformou num grande centro de pesquisa para o qual
102 103 IHDE, Aaron J. The Development of Modern Chemistry.
Comunicado de Imprensa - PNQ de 1952.
231
CARLOS AUGUSTO DE PROENÇA ROSA
convergiam estudantes e muitos qualificados químicos. A partir dessa
data (1906), Ostwald se dedicaria exclusivamente a pesquisas químicas
e a trabalhos filosóficos. Além de ter criado a primeira publicação
especializada (1887) em Físico-Química, intitulada Zeitschrift für
physikalische Chemie, Ostwald escreveu, em 1885-87, um manual, em dois
volumes, sobre Química geral com o título de Lehrbuch der Allgemeinen
Chemie e traduziu para o alemão, em 1892, as obras do matemático e físico
americano Josiah Willard Gibbs (1839-1903). Defendeu ardorosamente
a “teoria da dissociação eletrolítica” de Svante Arrhenius, contribuindo
com estudos sobre as constantes de afinidades de ácidos e bases e
sobre a velocidade das reações. Pesquisou a eletrólise e aprofundou as
investigações quanto à catálise, processo de aceleração da reação química
induzido por substância que não se altera. Por esse trabalho pioneiro
sobre catálise, velocidade de reações e equilíbrios químicos, Ostwald
seria laureado com o Prêmio Nobel de Química (PNQ) de 1909. Inventou
o viscosímetro, ainda utilizado para medir a viscosidade das soluções, e
desenvolveu o “processo Ostwald”, patenteado em 1902, de oxidação da
amônia para a obtenção do ácido nítrico por meio de catalisador de platina.
Por suas inúmeras e importantes contribuições pioneiras em métodos
e princípios teóricos na área da Físico-Química, Ostwald é reconhecido
como o fundador deste ramo da ciência química.
7.5.2.1 Termoquímica
Dada a importância da Termodinâmica para a análise das reações
químicas, vários cientistas, já no início do XX, dedicariam estudos
sobre a matéria, como Fritz Haber, Van’t Hoff, Richard Abegg, Arnold
Eucken, Kammerlingh Onnes, Owen Richardson e Otto Sackur. Para
muitos autores, a Termoquímica nasceu a partir dos estudos do físico-químico alemão Walther Hermann Nernst (1864-1941), que estudou
nas Universidades de Zurique, Berlim e Graz, e obteve o doutorado em
Würzburg, no ano de 1887. Após trabalhar por três anos como assistente
de Wilhelm Ostwald em Leipzig (onde conheceu Van’t Hoff e Arrhenius),
foi professor de Física e de Química da Universidade de Göttingen de
1891 a 1905, onde fundou o Instituto de Física, Química e Eletroquímica,
da Universidade de Berlim e diretor do Instituto de Física-Química desta
Universidade (1905/1925). Nernst pesquisou em diversos campos, como
a Acústica, Astrofísica, Eletroquímica, Termodinâmica, Termoquímica,
Química do estado sólido e Fotoquímica, desenvolveu uma teoria
232
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
osmótica para explicar e determinar o potencial dos eletrólitos de uma
pilha de concentração; desenvolveu a Equação Nernst para determinar
o equilíbrio da redução de uma meia-célula numa célula eletroquímica;
formulou a lei da distribuição de uma matéria entre duas fases; inventou a
lâmpada de Nernst, cujo filamento poderia resistir até 1000°C; e escreveu,
entre outras obras, em 1893, Theorische Chemie, que durante anos seria
um livro de referência, e, em 1918, O Novo Teorema do Calor. Nernst está
sepultado próximo a Planck, em Göttingen.
Embora tenha Nernst contribuído em diversos campos da Física
e da Química, sua fama decorre, principalmente, por seu trabalho em
Termoquímica. Em suas pesquisas para prever o curso das reações
químicas, Nernst procederia a medições de calores específicos e de calores
da reação, em particular de calores específicos de sólidos a muito baixas
temperaturas e de densidades de vapor a altas temperaturas, aplicando a
Teoria quântica, uma vez que a Mecânica estatística clássica não conseguia
explicar os desvios observados entre a teoria e a experiência. Em 1906,
publicaria artigo no qual “afirmaria que os calores específicos dos sólidos
e líquidos tendem para o valor aproximado de 1.5 cal/mol grau, no Zero
absoluto, isto é T = 0 K”104 e enunciaria seu famoso Teorema do calor: a
entropia de um sistema no Zero absoluto é uma constante universal. O
teorema, com uma redação ligeiramente modificada, é conhecido como
a Terceira lei da Termodinâmica, e pela descoberta receberia Nernst, em
1920, o PNQ.
O crescente interesse pela Termoquímica se refletiria no êxito das
publicações A Termodinâmica das Reações Gasosas (1908), de Fritz Haber
(1868-1934, PNQ de 1918 pela descoberta da síntese do amoníaco), o A
Afinidade Química (1908) e o Manual de Termoquímica e Termodinâmica
(1912) do químico alemão Otto Sackur (1880-1914), obra que serviria
de referência até o aparecimento do livro de Gilbert N. Lewis e Merle
Randall sobre Termodinâmica e a Energia Livre de Substâncias Químicas,
de 1923. Ao mesmo tempo, prosseguiam as investigações laboratoriais
sobre o comportamento das moléculas dos sólidos, líquidos e gases
submetidas a influências externas, como temperatura e pressão. No
particular, merecem especial referência os trabalhos do sueco Heike
Kammerlingh Onnes (1853-1923, PNF de 1913) pela descoberta, em 1911,
de o mercúrio (Hg) se tornar supercondutor no ponto de liquefação do
hélio (4,2 K); as experiências do físico e químico alemão Arnold Thomas
Eucken (1884-1950), que demonstravam variação da condutividade
térmica inversa de vários sais, entre 83 K e 373 K; e os diversos estudos
104 BASSALO, José Maria Filardo. Nascimento da Física.
233
CARLOS AUGUSTO DE PROENÇA ROSA
do holandês Petrus Joseph Wilhelm Debye (1884-1966, PNQ de 1936)
sobre calor em corpo sólido.
A descoberta da 3ª Lei da Termodinâmica por Nernst geraria
um extraordinário interesse no meio científico, o que redundaria em
valiosas contribuições de vários químicos e físicos, como Lewis, Randall,
Guggenheim, Latimer, Onsager, Giauque e Prigogine.
Baseando-se nos trabalhos do físico e químico americano Josiah
Willard Gibbs sobre a tendência das reações químicas ao equilíbrio pela
ação de energia livre (afinidade) das substâncias envolvidas, Gilbert N.
Lewis e Merle Randall (1888-1950), após vários anos medindo cálculos
de energia livre (quantidade de trabalho “útil” que pode ser obtido
de um sistema) de compostos, publicariam, em 1923, a já referida
obra Termodinâmica e a Energia Livre das Substâncias Químicas, na qual
apresentaram os resultados de suas investigações e que serviria como texto
de referência em Termoquímica105. Sobre o assunto, Randal já escrevera,
em 1912, um primeiro trabalho intitulado Estudos em Energia Livre.
William Francis Giauque (1895-1982) receberia o Prêmio Nobel de
Química de 1949 por seus estudos nos anos 20 sobre o comportamento
das substâncias a temperaturas extremamente baixas, próximas ao Zero
absoluto. Em sua preparação para o doutorado, interessou-se Giauque pela
3ª Lei da Termodinâmica. Com o objetivo de demonstrar tratar-se de uma
lei natural básica, procederia, com a ajuda de seus alunos, a numerosos e
variados testes. Em seu trabalho, Giauque se ocupou, principalmente, com
a medição experimental de entropias a baixas temperaturas e se utilizou da
Mecânica estatística para calcular entropias absolutas. Proporia para tanto
um método conhecido como desmagnetização adiabática para alcançar
temperaturas extremamente baixas, tendo desenvolvido um aparelho
de refrigeração magnética. Em 1929, Giauque ultrapassaria o nível mais
baixo de temperatura obtido por Kamerlingh Onnes (0,8K), atingindo o
nível 0,1K.
O físico-químico norueguês Lars Onsager (1903-1976), que, em
1928, emigrou para os EUA e se naturalizou cidadão americano, receberia
o Prêmio Nobel de Química de 1968 por suas contribuições fundamentais,
com a ajuda da Mecânica estatística, no desenvolvimento de uma teoria
geral sobre os processos químicos irreversíveis. Após a elaboração de um
conjunto de equações em 1929, Onsager, em 1931, anunciou a generalização
da “lei das relações recíprocas” dos processos irreversíveis, nos quais há
diferenças de pressão, temperatura ou outros fatores. A importância do
trabalho só seria reconhecida a partir dos anos 50, o que explica a tardia
105 IHDE, Aaron J. The Development of Modern Chemistry.
234
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
concessão do PNQ. Outra importante contribuição de Onsager no campo
da Físico-Química seria sua proposta de modificações na Equação de
Debye e Huckel, de 1923, sobre o comportamento da maioria dos íons
em soluções, levando em consideração o movimento browniano, a fim de
incluir todos os íons em solução. Tal sugestão, inicialmente rejeitada por
Debye, viria a ser pouco depois aceita.
Wendell M. Latimer (1893-1955) publicaria, em 1938, The Oxidation
States of the Elements and Their Potentials in Aqueous Solution, obra reputada
como pioneira sobre Termodinâmica de eletrodos, especialmente de
entropias de íons em soluções aquosas.
Ilya Prigogine (1917-2003) foi laureado com o PNQ de 1977
por seus estudos em Termodinâmica de processos irreversíveis com a
formulação da teoria das estruturas dissipativas. Russo de nascimento,
emigrou, com a família, aos 12 anos de idade para a Bélgica, vindo a obter,
em 1949, a cidadania belga. Estudou na Universidade Livre de Bruxelas,
onde lecionaria como professor de Química de 1947 a 1987. Em 1967,
ajudou a fundar em Austin (Texas), The Center for Complex Quantum
Systems e foi diretor do Centro de Mecânica estatística e Termodinâmica
na Bélgica. Em 1955, Prigogine publicaria sua importante e revolucionária
obra Termodinâmica dos Processos Irreversíveis, na qual apontou a séria
limitação da Termodinâmica clássica de ser restrita a processos reversíveis
e a estados de equilíbrio. Seu principal argumento era que o verdadeiro
estado de equilíbrio não era o normal ou era raramente alcançado, sendo
mais comum o estado obtido no interior da célula, tema já abordado
por Onsager, mas de forma mais restrita, pois se referia a estados muito
próximos do equilíbrio. Para estados distanciados do equilíbrio, Prigogine
desenvolveria o que chamou de estruturas dissipativas. Químico e filósofo
da Ciência, Prigogine é autor, entre outras obras, de As Leis do Caos (1977),
O Fim das Certezas e A Nova Aliança.
7.5.2.2 Cinética Química
O estudo da velocidade das reações químicas e dos fatores que
a influenciam seria objeto de extensa pesquisa experimental e estudos
teóricos, a partir dos trabalhos de Van’t Hoff, Svante Arrhenius e Jean Perrin
na virada do século XIX para o XX. Dado que no exame do progresso nas
pesquisas sobre as reações químicas (ver capítulo da Química Orgânica) é
indispensável tratar do tema em conjunção com a Cinética química, será
suficiente, no momento, mencionar o reconhecimento às contribuições de
235
CARLOS AUGUSTO DE PROENÇA ROSA
William Cudmore McLewis (1885-1956), Frederick Alexander Lindemann
(1886-1957), Francis Owen Rice (1890-?), Eric Keightey Rideal (1890-?), Hugh
Stott Taylor (1890-1974), Michael Polanyi (1891-1976) e Christopher Ingold
(1893-1970) ao desenvolvimento da Cinética química, particularmente nas
primeiras décadas do século passado. Mais recentemente, a entrega de três
Prêmios Nobel de Química a oito pesquisadores demonstra a importância
deste campo para o progresso nas pesquisas sobre o processo das reações
químicas. Os químicos premiados foram: Cyril Hinshelwood e Nikolay
Semenov (PNQ de 1956) por suas pesquisas sobre a cinética das reações
químicas; Ronald Norrish, George Porter e Manfred Eigen (PNQ de 1967)
por pesquisas em reações químicas de alta velocidade, por meio de pulsos
muito curtos de energia; e Yuan Tse Lee, Dudley Robert Herschbach e
John Charles Polanyi (PNQ de 1986) por suas contribuições relativas
à dinâmica de processos químicos elementares. A partir dos anos 80,
quando os químicos passaram a investigar os estágios intermediários
entre os reagentes e os produtos da reação química, surgiu o que se
convencionou chamar de Femtoquímica, relacionada aos fenômenos que
ocorrem a femtossegundos, isto é, em intervalos de tempo extremamente
curtos (10-15 de segundo), técnica desenvolvida com os laseres de pulsos
ultracurtos, de invenção recente (ver os capítulos Química Analítica e
Química Orgânica. Reações Químicas).
7.5.2.3 Eletroquímica. Ligações Químicas
O químico alemão Richard Wilhelm Heinrich Abegg (1869-1910),
com doutorado pela Universidade de Berlim, assistente de Walther Nernst
em Göttingen e professor de Química na Universidade de Breslau, seria
pioneiro no campo da valência química com seu conceito eletrônico (1902-04) do átomo para explicar os elos de valência visualizados por Kekulé
(1829-1896) e Archibald Couper (1831-1892). De acordo com Abegg, a
estabilidade dos gases inertes seria devida à configuração dos elétrons de
seu átomo (dois no mais externo nível de elétrons do hélio e oito no de
outros). É a chamada “regra Abegg”. Gases raros, como o neônio, o argônio,
o xenônio e o criptônio, são pouco reativos, ou seja, são estáveis e possuem
uma camada externa de oito elétrons, pelo que seus átomos não se ligam.
Os elementos halogênios, como flúor, cloro, bromo e iodo, têm sete elétrons
em suas camadas externas, enquanto os metais alcalinos, como o lítio, sódio
e potássio, possuem um elétron a mais que os gases raros. Dessa forma,
um elemento como o cloro, que possui sete elétrons, tenderia a aceitar um,
236
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
enquanto um elemento como o sódio, que possui um a mais, tenderia a
liberá-lo. Assim, um átomo de sódio podia transferir um elétron para um
átomo de cloro, formando um íon de sódio carregado positivamente e um
íon de cloro carregado negativamente, sendo que ambos podiam unir-se
mediante a atração eletrostática. A reação química tornava-se, portanto,
uma transferência de elétrons106. Suas pesquisas seriam interrompidas
bruscamente, devido à sua morte prematura aos 41 anos num acidente de
balão a gás.
Os conceitos de Abegg seriam retomados e desenvolvidos, de
forma independente, pelo físico alemão Walther Kossel (1888-1956) e
pelo químico americano Gilbert Newton Lewis que publicaram, em 1916,
respectivamente, no Annalen der Physik n° 49 e no Journal n° 38 da American
Chemical Society, artigos nos quais sustentavam que a valência química,
isto é, a capacidade de combinação dos elementos químicos se devia a um
par de elétrons que era compartilhado pelos átomos desses elementos. Os
modelos então estabelecidos foram baseados na estabilidade excepcional
da configuração eletrônica.
Gilbert Newton Lewis (1875-1946), um dos mais prestigiosos
químicos americanos da primeira metade do século XX, nasceu em
Massachusetts, estudou em escola pública, aos 14 anos ingressou
na Universidade de Nebraska, transferiu-se três anos depois para a
Universidade de Harvard, onde se formou em 1896 e concluiu o doutorado
em Química em 1899. Após ensinar em Harvard e MIT, transferiu-se (1912)
para a Universidade de Berkeley, na Califórnia, que se transformaria num
dos principais centros de ensino e pesquisa da Química no país. Lewis
concentraria suas atividades no campo da Termodinâmica química, na
Teoria de ácidos e bases e na Teoria da valência em reações químicas,
cujas contribuições seriam decisivas para o avanço no conhecimento da
Química molecular e das ligações químicas. Escreveu diversos artigos
sobre a Teoria da relatividade. Em 1923 escreveu Valence and the Structure
of the Atoms and Molecules, e, com Merle Randall, Thermodynamics and the
Free Energy of the Chemical Substances, e, em 1926, cunhou o termo fóton
para a menor unidade de energia radiada.
Baseando-se no modelo de átomo de Rutherford, introduziria
Lewis o modelo do físico neozelandês na Teoria da estrutura química das
moléculas, com um átomo estático e elétrons imóveis nos oito vértices de
um cubo. Ampliando a explicação de Abegg, procuraria Lewis relacionar
os elétrons do átomo aos elos não eletrolíticos presentes nos compostos
orgânicos, propondo que o elo entre dois elementos poderia ser, além
106 ASIMOV, Isaac. Gênios da Humanidade.
237
CARLOS AUGUSTO DE PROENÇA ROSA
da transferência de elétrons, pela partilha dos elétrons. A ligação seria
formada por um par de elétrons, em que cada átomo, participando da
ligação, pode fornecer um elétron. Esse par de elétrons pertenceria,
portanto, aos dois átomos e essa ligação seria chamada de “covalente”, o
que serviria para explicar a valência quatro do carbono.
Irving Langmuir (1881-1957) teria um papel saliente nessa fase
inicial de pesquisas sobre as ligações químicas. Formado em Engenharia
metalúrgica pela Escola de Minas da Universidade de Colúmbia em 1903,
e doutorado, em 1906, pela Universidade de Göttingen, sob a orientação
de Walther Nernst, foi professor no Departamento de Química do Instituto
de Tecnologia Stevens em Hoboken, Nova Jersey, e transferiu-se três anos
depois (1932) para o laboratório da GE no qual se dedicaria exclusivamente
à pesquisa até sua aposentadoria em 1950. Introduziria importantes
inovações nas lâmpadas incandescentes, como o preenchimento de tais
lâmpadas com gases, a descoberta da formação de hidrogênio atômico no
bulbo da lâmpada, o desenvolvimento de tecnologia para a melhoria dos
bulbos e a fabricação de tungstênio em pasta para a produção de novos
filamentos. Desenvolveu trabalhos sobre descarga elétrica em gases que
resultaria na noção de plasma como o quarto estado da matéria, e, em 1950,
usaria iodeto de prata como agente de nucleação de nuvens para estimular
chuva artificial, o que lhe valeria o apelido de “fazedor de chuva”. Langmuir
receberia o PNQ de 1932 por seus trabalhos em películas monomoleculares
e em química de superfície. Começaria a estudar a questão das ligações
químicas, publicando, em 1921, dois trabalhos no Physical Review 17, nos
quais afirmava que essa ligação poderia ocorrer de dois modos diferentes:
eletrovalência pelo compartilhamento de pares de elétrons entre átomos
combinados ou por covalência, isto é, por intermédio da atração eletrostática
entre íons. Langmuir escreveria, a partir de 1919, 12 artigos sobre a questão.
O modelo criado por ele seria mais bem aceito pelos físicos e químicos que
o formulado por Lewis e chamado como “regra da oitava”.
Ainda nos anos 20 e 30, o químico inglês Nevil Vincent Sidgwick
(1873-1952) desenvolveu importantes pesquisas no campo do conceito
eletrônico da valência, vindo a provar que o conceito de Lewis relativo à
partilha dos elétrons se aplicava além dos domínios da Química Orgânica
e que o par de elétrons divididos poderia provir do mesmo átomo para
formar um elo coordenado. É autor de Química Orgânica do Nitrogênio
(1910), Teoria Eletrônica da Valência (1927) e Os Elementos Químicos e seus
Compostos (1950).
Ocupa especial posição no círculo científico do século XX o químico
e biólogo americano Pauling, cujas significativas contribuições seriam
238
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
decisivas para o avanço em diversos setores da Ciência, em particular da
Química, da Biologia e da Medicina, e cujas desassombradas atitudes em
prol da paz e do entendimento entre os povos seriam alvo de controvérsia
e perseguição. Ganhador de dois Prêmios Nobel (Química e da Paz),
Pauling se notabilizaria por seu espírito científico e dedicação às causas
humanitárias.
Linus Carl Pauling (1901-1994) nasceu em Portland, Oregon,
obteve seu doutorado em Química, em 1925, no Instituto Tecnológico
da Califórnia. Passou os anos de 1926 e 1927 na Europa estudando e
pesquisando com Niels Bohr, Arnold Sommerfeld, Werner Heisenberg,
Max Born e Erwin Schrödinger, entre outros. De volta aos EUA, com
excelente conhecimento da Mecânica quântica, em plena formulação
na Europa, se fixaria na Caltech, onde assumiria a cátedra em 1931.
Em suas pesquisas, Pauling se utilizaria da nova técnica experimental
da “cristalografia dos raios-X”, que permitia estudar o tamanho e a
configuração dos átomos das moléculas e dos cristais.
Seus primeiros trabalhos em Química seriam nos campos da
estrutura molecular e ligações químicas, guiados por três conceitos
centrais: a Mecânica quântica poderia ser utilizada para descrever
e prever as ligações atômicas; as estruturas de substâncias simples
poderiam ser usadas para prever estruturas mais complexas; e a estrutura
química poderia ser utilizada para determinar o comportamento
químico. Adepto da Teoria ondulatória das partículas (dualidade
onda/partícula) de Louis de Broglie, Pauling abandonaria o Modelo de
átomo de Bohr e Lewis e sustentaria o elétron como onda sem posição
determinada no seu movimento orbital em torno do núcleo atômico.
Aplicaria métodos físicos, como os da difração dos raios-X e do elétron
e do efeito magnético para determinar a estrutura da molécula, e
Mecânica quântica para o fenômeno das ligações de compostos químicos.
Mostraria como as propriedades de vários átomos se relacionavam
com seus elétrons na aplicação da mecânica de ondas e desenvolveria
uma série de regras (formação de pares, giro dos elétrons e posição nas
orbitais do átomo) que mostravam, de forma sistemática, a formação das
ligações químicas. Em 1931, Pauling escreveria o primeiro de uma série
de artigos, publicados no Journal da American Chemical Society, sob o
título A Natureza das Ligações Químicas. Em Teoria da Ligação Covalente e da
Ressonância, também de 1931, explicitaria seu conceito de ressonância, já
avançado por Heisenberg, o qual serviria para explicar as propriedades
do benzeno107. Em 1935, escreveu, com E. Bright Wilson, Introdução à
107 COTARDIÈRE, Philippe de la. Histoire des Sciences.
239
CARLOS AUGUSTO DE PROENÇA ROSA
Mecânica Quântica e sua Aplicação na Química. Em 1939 apareceria seu livro
A Natureza das Ligações Químicas e a Estrutura das Moléculas e dos Cristais,
e, em 1947, a obra Química Geral. Em 1954, Pauling receberia o PNQ por
seus trabalhos sobre a estrutura molecular e por suas pesquisas sobre a
natureza das ligações químicas e suas aplicações para a elucidação da
estrutura de substâncias complexas.
Pauling utilizaria, igualmente, seus conhecimentos no estudo das
complexas moléculas dos tecidos vivos. Nesse sentido, foi dos primeiros
a sustentar que as moléculas das proteínas seriam arrumadas em hélice,
estrutura que seria proposta (1953) por James Watson (1928) e Francis
Crick (1916-2004) para os ácidos nucleicos. Em 1963, deixou a Caltech e, de
1969 a 1974, ocupou a cátedra de Química da Universidade de Stanford.
Em 1973, foi cofundador de um instituto de pesquisa na Califórnia sobre
o efeito da vitamina C e outros nutrientes na saúde humana, tendo escrito
diversos artigos sobre o tema, e, de 1973 a 1994, dedicou-se ao estudo
da medicina ortomolecular, contribuindo para a fundação, em 1973, do
Instituto de Medicina Ortomolecular (hoje Instituto Linus Pauling para a
Ciência e Medicina).
A partir de 1945, Pauling seria um ativista em prol do desarmamento
nuclear e um crítico da Guerra Fria, participando de comitês, comícios e
passeatas e escrevendo artigos contra a Guerra. Esteve sob investigação
do FBI, o apoio financeiro para suas pesquisas foi suspenso e, acusado de
ser comunista, foi duramente criticado pela imprensa. Assinou manifestos
contra os testes nucleares, e, em 1960, intimado a comparecer perante a
Subcomissão de Segurança Interna do Senado, prestou depoimento
em duas oportunidades, nas quais recusou dar os nomes daqueles que
o ajudaram a circular a petição (com a assinatura de 11 mil cientistas)
contrária aos testes nucleares. Agraciado com o Prêmio Nobel da Paz
de 1962, Pauling viria a recebê-lo no ano seguinte, tendo obtido seu
passaporte somente nas vésperas da viagem à Suécia.
O método de cálculo da estrutura eletrônica das moléculas,
desenvolvido por Walther Heitler (1904-1981) e Fritz London (1900-1954),
em 1927, tem um valor especial por ter sido a primeira vez que a Mecânica
quântica foi usada para cálculo de ligação de uma molécula, no caso a do
hidrogênio (H2). John Clark Slater (1900-1976) e Linus Pauling ampliariam
o âmbito do método, pelo qual as ligações em qualquer molécula poderiam
ser descritas de modo similar ao da ligação do H2. Esse método, por
corresponder à noção de ligações localizadas entre pares de átomos, seria
chamado de Valência-Ligação, mas também seria conhecido como HLSP
(Heitler-London-Slater-Pauling).
240
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Nessa mesma época, porém, o físico e químico americano Robert
S. Mulliken (1896-1986), que estagiara em 1925-27 na Europa com ilustres
cientistas como Heisenberg, Dirac, Schrödinger, de Broglie, Born e Bothe,
trabalharia com Friedrich Hund (1897-1997), conhecido físico alemão por
seus trabalhos sobre átomos e moléculas, na interpretação quântica do
espectro de moléculas diatômicas. Ainda em 1927, ambos desenvolveriam
a “teoria orbital molecular” de ligações químicas, baseada na ideia de que
os elétrons se movem na molécula no campo produzido pelo núcleo; as
orbitais atômicas de átomos isolados se tornam orbitais moleculares; e
as energias relativas dessas orbitais poderiam ser obtidas dos espectros
da molécula. Para encontrar orbitais moleculares, Mulliken combinaria
orbitais atômicas e mostraria que a energia das ligações poderia ser obtida
pela quantidade de superposição de orbitais atômicas. Existiriam, assim,
tantas orbitais moleculares quantas possam existir orbitais atômicas108.
“Por sua contribuição fundamental sobre ligações químicas e estrutura
eletrônica das moléculas pelo método orbital molecular”, Mulliken
receberia o Prêmio Nobel de Química de 1966.
O matemático inglês John Anthony Pople (1928-2004, PNQ de
1998), da Universidade Northewestern, se tornou conhecido no meio
químico por seu método (1953) de cálculo de orbital molecular do tipo
de ligação covalente, que seria conhecido como método PPP, por ter sido,
desenvolvido igualmente, de forma independente, naquele mesmo ano,
por Rudolph Pariser (1923) e Robert Parr (1921). Com o grande avanço da
indústria de computadores a partir dos anos 60, sua utilização para soluções
matemáticas ao entendimento de fenômenos no campo científico viria a
permitir extraordinário progresso na Química, tendência que deverá ser
confirmada em futuras investigações. Pople se notabilizaria como pioneiro
no desenvolvimento (1970) de um programa computacional, chamado
Gaussiano, que tornou possível o estudo teórico das moléculas, suas
propriedades e como elas agem em reações químicas. Em 1998, dividiria
o PNQ pela relevante contribuição “no desenvolvimento de métodos
computacionais em Química quântica”, por meio dos quais se abriu o
campo da Química computacional109, definida pela IUPAC como aspectos
da pesquisa molecular que são tornados práticos pelo uso do computador.
Ainda neste mesmo campo, o físico Walter Kohn (1923), da Universidade
da Califórnia, dividiria com Pople o PNQ de 1998 por sua contribuição
ao desenvolvimento da Teoria do funcional de densidade (TFD), surgida
como alternativa aos métodos semiempíricos no estudo de propriedades
108 109 COTARDIÈRE, Philippe de la. Histoire des Sciences.
Comunicado de Imprensa – PNQ de 1998
241
CARLOS AUGUSTO DE PROENÇA ROSA
do estado fundamental de sistemas moleculares. A TFD aplica a Mecânica
quântica e é utilizada em Física e Química para investigar a estrutura
eletrônica, em especial, a de moléculas.
7.5.2.4 Ácidos e Bases
O químico sueco Svante Arrhenius (1859-1927) em sua tese
de doutorado na Universidade de Uppsala apresentou, em 1884, sua
revolucionária tese da dissociação eletrolítica, pela qual os compostos
químicos dissolvidos se dissociam em íons, sendo que o grau de
dissociação aumenta com o grau de diluição da solução. Na tese,
Arrhenius formulou o conceito de ácido como o de “toda a substância que
em solução aquosa liberta exclusivamente como cátion o íon hidroxônio
H2O+” e o de base como o de “toda substância que, em solução aquosa,
liberta o íon oxidrila OH- como único tipo de ânion”. Apesar de seu
caráter limitativo ao meio aquoso, a teoria de Arrhenius, inicialmente
rejeitada, viria a ganhar aceitação na comunidade científica, inclusive
o PNQ de 1903 “em reconhecimento dos extraordinários serviços
prestados ao avanço da Química por meio de sua teoria da dissociação
eletrolítica”.
O trabalho de Arrhenius sobre dissociação iônica (incompleta)
em solução seria ampliado pelo físico-químico holandês Peter Joseph
Wilhelm Debye (1884-1966) que sustentaria, em sua teoria de 1923, estar
cada íon positivo cercado por uma nuvem de íons predominantemente
negativos, enquanto cada íon negativo estava rodeado de uma nuvem
de íons positivos, o que fazia a solução parecer não estar completamente
ionizada. Debye seria laureado com o PNQ de 1936 por suas relevantes
contribuições para o conhecimento da estrutura das moléculas.
Ainda no ano de 1923, os físico-químicos Johannes Nicolaus
Brönsted (1879-1947), dinamarquês, professor da Universidade de
Copenhague, e Thomas Marton Lowry (1874-1936), inglês, professor da
Universidade de Cambridge, de forma independente, generalizariam a
definição de Arrhenius com os novos conceitos de ácido como emissor
de íon H+, ou seja, substâncias capazes de ceder prótons, e de base como
receptora desses íons H+110, isto é, substâncias capazes de receber prótons.
Com essas generalizações, inúmeras substâncias passaram a ser incluídas
na categoria de ácidos e bases111.
110 111 VIDAL, Bernard. Histoire de la Chimie.
IHDE, Aaron J. The Development of Modern Chemistry.
242
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Pouco depois, os conceitos de base e ácido seriam ainda mais
generalizados por Gilbert Newton Lewis (1875-1946). De acordo com o
químico americano, o ácido deveria ser entendido como possuindo uma
camada eletrônica externa incompleta, estando, assim, em condições de
aceitar um par de elétrons proveniente de outra molécula e a base como a
substância capaz de ceder um par de elétrons a um ácido.
Deve ser entendido que as teorias de Brönsted e Lewis coexistem
sem conflito, cada uma com capacidade de resolver questões diferentes,
conforme comenta o já mencionado Cotardière.
7.5.3 Química Inorgânica
Sob a denominação genérica de Química inorgânica são
examinadas, neste capítulo, a ampliação ocorrida no século XX do
conhecimento do vasto campo dos 92 elementos naturais, a descoberta
dos isótopos, a produção dos chamados elementos transurânicos e a nova
configuração da Tabela periódica dos elementos.
7.5.3.1 Os Elementos e a Tabela Periódica
O interesse da comunidade química na ampliação do conhecimento
a respeito dos elementos naturais levou a descobertas importantes no final
do século XIX, as quais seriam devidamente valorizadas ainda no início
do século seguinte. Em 1894, os químicos britânicos William Ramsay
(1852-1916) e Johan William Strutt Rayleigh ao estudarem a composição
do ar atmosférico conseguiram identificar, por meio de métodos
espectroscópicos, um novo gás, que se chamaria argônio. Pouco depois,
a partir da destilação fracionada da porção do ar atmosférico liquefeito,
Ramsay conseguiria isolar o neônio, o criptônio e o xenônio. Ramsay já
havia caracterizado a presença do hélio em minerais terrestres, em 1890, ao
repetir uma experiência realizada por William Francis Hillebrand (18531925), químico especializado em análise mineralógica. Por suas pesquisas
na descoberta dos gases nobres e por suas posições na Tabela periódica,
Ramsay ganharia o PNQ de 1904.
Marie Curie (1867-1934), que dividira o PNF de 1903 com seu
marido Pierre Curie e Antoine Henri Becquerel pela descoberta da
radioatividade, receberia o PNQ de 1911 pela descoberta dos elementos
rádio e polônio, o isolamento do rádio e a natureza dos seus compostos.
243
CARLOS AUGUSTO DE PROENÇA ROSA
Prosseguiria, nos primeiros anos do século XX, o interesse dos
químicos em descobrir aqueles elementos indicados como existentes na
Natureza na Tabela periódica de Mendeleiev, ao mesmo tempo em que
se buscava uma solução para os problemas de inserção criados com os
chamados “gases nobres” e “terras raras”. De acordo com a Tabela, faltaria
ainda a descoberta de nove elementos naturais (números 43, 61, 63, 71, 72,
75, 85, 87 e 91), que, à exceção dos números 63, 71 e 91, todos os demais só
seriam descobertos a partir da década de 20.
O primeiro elemento químico natural a ser identificado no século
XX foi o descoberto pelo químico francês Eugène Demarçay (1852-1904)
em 1901. Com o nome de europium (Eu), tem o número atômico 63, massa
atômica de 152 e está incluído no grupo das “terras raras”; encontra-se em
estado sólido e é o mais reativo de seu grupo. Em 1907, Georges Urbain
(1872-1938) descobriria o elemento lutetium (Lu), de número 71, e de
massa 174,99, igualmente do grupo das terras raras; encontra-se em estado
sólido e é o último da série dos lantanídeos. Obtido do urânio, o elemento
protactinium (Pa), de número 91 e massa atômica 91, foi descoberto em 1917
por Otto Hahn (1879-1968) e Lise Meitner (1878-1968); o Pa não existe na
Natureza, mas, produto da fissão do urânio, plutônio e tório, é altamente
radioativo e tóxico; seu nome em grego significa “primeiro raio”112.
Baseando-se na Teoria quântica e contestando a suposição de que se
trataria de um elemento do grupo das terras raras, Niels Bohr (1885-1962),
diretor do Instituto de Física Teórica de Copenhague, proporia a George
von Hevesy (1885-1966) e Dirk Coster, pesquisadores do Instituto, procurar
as raias espectrais do elemento n° 72 no zircônio. O êxito foi alcançado, em
1923, com o isolamento de hafnium (Hf), de massa atômica 178,6, nome que
homenageia a capital dinamarquesa, cuja designação latina era Hafnia.
Em 1925, os químicos alemães Walther Noddack (1893-1960)
e sua esposa Ida Tacke Noddack (1896-1979) e Otto Berg descobririam
o elemento n° 75, massa atômica 183,61; previsto por Mendeleiev, sua
denominação rhenium (Re) é devida ao rio Reno.
O technetium (Tc), de número 43 e massa atômica 98, foi o primeiro
elemento descoberto via artificial (technetos em grego significa artificial),
e já fora previsto por Mendeleiev com o nome de “ekamanganês”. O Tc foi
sintetizado em 1937 por Emilio Segré (1905-1989) e Carlo Perrier.
Ainda no ano de 1937, a química francesa Marguerite Perey (1909-1975), do Laboratório Curie, descobriria o elemento n° 87, de massa atômica
223. O francium (Fr), assim denominado para homenagear a França, fora
previsto por Mendeleiev como “eka-cesio”, e é o mais ativo dos metais.
112 TATON, René. La Science Contemporaine.
244
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O elemento astatine (At), da palavra grega astate para “instável”,
de número atômico 85 e massa atômica 210, previsto por Mendeleiev
como “eka-iodo”, foi obtido pela primeira vez em 1940, bombardeando
o bismuto com partículas alfa, mas apenas confirmada sua existência em
1947. As pesquisas foram efetuadas na Universidade da Califórnia por
D. C. Corson, K. R Mackenzie e Emilio Segré.
As pesquisas (1914) de Henry Moseley indicavam dever existir
entre os elementos neodímio (Nd), de massa atômica 144,24, e samário
(Sm), de massa atômica 150,35, um outro elemento, cuja descoberta fora
anunciada várias vezes, mas não confirmada. Somente em 1947, por via
química, foi extraído dos fragmentos da fissão do urânio o elemento
em forma de isótopo, com massa atômica 145. O novo elemento seria
chamado de prometheum (Pm), nome de Titã da mitologia grega, se
encontra em estado sólido e faz parte do grupo das terras raras e da série
dos lantanídeos.
Com essa descoberta, estaria concluída a relação, num total de
92, dos elementos químicos naturais, constantes da Tabela periódica dos
elementos, da qual quatro elementos – Tc (43), At (85), Fr (87) e Pm (61) –
foram sintetizados.
7.5.3.2 Isótopos
Isótopos são átomos de um elemento cujos núcleos têm o mesmo
número atômico (Z), mas diferentes massas atômicas. Os estudos
das transformações dos elementos radioativos realizados por Ernest
Rutherford e Frederick Soddy, nos primeiros anos do século XX, pareciam
indicar a existência de alguns elementos que possuíam propriedades
químicas idênticas, mas cujos átomos apresentavam pesos diferentes. Em
1902, Otto Hahn, que estagiara com Ernest Rutherford na Universidade
McGill, no Canadá, seria capaz de isolar do elemento rádio um material
altamente radioativo de tório a que chamou de “radiotório”113.
Em 1913, J. J. Thomson observou que gases quimicamente puros
apresentavam valores distintos para a relação carga/massa e que para um
mesmo gás essa relação é constante. Deduziu da pesquisa que o neônio,
gás quimicamente puro, seria constituído por gases de mesma carga,
porém de massa diferente. Frederick Soddy (1877-1956) e George von
Hevesy (1885-1966) na Inglaterra, e o polonês Kasimir Fajans (1887-1975)
na Alemanha, de forma independente, comprovariam pelo estudo das
113 IHDE, Aaron J. The Development of Modern Chemistry.
245
CARLOS AUGUSTO DE PROENÇA ROSA
séries radioativas a existência de isótopos, nome dado por Soddy, cujo
significado em grego é “mesmo lugar” (iso- mesmo, topo- lugar). Pouco
depois, o químico Francis William Aston (1877-1945), em 1919, com um
espectrógrafo que inventara, demonstraria a existência de átomos de um
mesmo elemento com massas diferentes, como o neônio, e que o conceito
de isótopo se aplicava a todos os elementos, e não apenas aos radioativos.
Aston, tendo já suspeitado da existência de dois isótopos de neônio em
1914, ganharia o Prêmio Nobel de Química de 1922 pela descoberta e
determinação da massa de 212 isótopos naturais em 1919 e pela criação da
regra dos números inteiros.
A composição isotópica de alguns elementos estáveis somente veio
a ser encontrada no Pós-Guerra (década dos anos 50), mas a maior parte
dos isótopos estáveis já havia sido descoberta nos anos 20114. O químico
americano William Giauque (1895-1982), interessado na Terceira Lei da
Termodinâmica, e que receberia o PNQ de 1949 por seus trabalhos sobre
as propriedades da matéria a temperaturas próximas do Zero absoluto,
descobriria, em 1929, os isótopos 17 e 18 do oxigênio na atmosfera da
Terra.
No particular, teve especial significado o trabalho desenvolvido
pelo químico americano Harold Clayton Urey (1893-1981), que concluiu
doutorado na Universidade da Califórnia em 1923, estudou Física atômica
com Niels Bohr na Universidade de Copenhague (1923/24) e exerceu
o magistério em diversas Universidades (Montana, Johns Hopkins,
Colúmbia, Chicago e Oxford), e, em colaboração com o físico Arthur
Ruark, escreveu o livro Átomos, Quanta e Moléculas, em que defendeu a
aplicação da Mecânica quântica à Química. Pelo isolamento em 1932 do
deutério, isótopo do hidrogênio, Urey seria laureado com o PNQ de 1934.
A ideia, defendida, entre outros, por Soddy, Rutherford e Aston,
era a de que os isótopos, como átomos de massas diferentes, mas com as
mesmas propriedades químicas, deveriam ser entendidos como pertencente
ao correspondente elemento, pois o que passaria a determinar o elemento
seria seu número atômico. Nesse caso, o elemento e seus isótopos deveriam
ocupar a mesma posição na Tabela115. Essa proposta seria objeto de acirrada
polêmica no meio químico nos anos 20, mas passaria a ser aceitável à
comunidade científica na medida em que a descoberta de novos isótopos
tornava inviável a elaboração de qualquer Tabela periódica. Nesse sentido, a
obtenção pelo casal Frederick (1900-1958) e Irene Joliot-Curie (1897-1956) da
síntese artificial de isótopos radioativos, o que lhes valeria o Prêmio Nobel de
114 115 TATON, René. La Science Contemporaine.
PARTINGTON, J. R. A Short History of Chemistry.
246
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Química de 1935, seria importante marco nessa evolução. Os procedimentos
de transmutação artificial dos elementos químicos resultariam na obtenção
de isótopos artificiais e radioativos na maioria dos elementos conhecidos e
na obtenção de elementos químicos desconhecidos na Natureza116.
Vale esclarecer que, para transformar um elemento num outro, é
preciso alterar a estrutura do núcleo, retirando ou acrescentando prótons
ou nêutrons, o que não ocorre numa reação química, na qual é alterada
apenas a constituição superficial do átomo. Dessa forma, o sonho da
transmutação dos elementos perseguida pelos alquimistas via reação
química era inalcançável.
Finalmente, deve ser registrado que, em 1940, seria descoberto o
isótopo radioativo carbono-14 por Martin David Kamen (1913-2002), após
anos de pesquisas no Laboratório de Radiação, em Berkeley, dirigido
por Edward Lawrence. Utilizando o cíclotron para isolar um isótopo
de carbono radioativo para estudar o processo da fotossíntese, Kamen
conseguiria, em fevereiro de 1940, descobrir o carbono-14, radioisótopo,
cuja meia-vida é de 5.730 anos. Devido a suas ideias políticas, Kamen seria
declarado, em 1944, “risco de segurança”, e seria demitido do Laboratório,
compareceria perante a Comissão de Atividades Antiamericanas da
Câmara e teria seu passaporte apreendido. Por essa descoberta, receberia,
somente em 1995, o Prêmio Enrico Fermi.
Willard Frank Libby (1908-1980), professor da Universidade
de Chicago (1945/54) e da Universidade da Califórnia (1960), autor de
Radiocarbon Dating, de 1952, se tornaria conhecido por ter aplicado (1947)
o carbono-14 como técnica para a determinação da antiguidade de objetos
e materiais até 45 mil anos de idade ao descobrir que a quantidade desse
isótopo nos tecidos orgânicos diminuía a um ritmo constante com o passar
do tempo. Por seu trabalho, da maior importância para as pesquisas em
Geologia, Arqueologia, Paleontologia, Geofísica e Ciências afins, receberia
o PNQ de 1960.
7.5.3.3 Elementos Transurânicos
Os elementos transurânicos são aqueles elementos com peso
atômico superior a 92, que corresponde ao urânio (U). Até a presente
data, já são conhecidos 20 desses elementos, os quais estão incorporados
à atual Tabela periódica. Todos esses elementos foram produzidos
artificialmente, bombardeando átomos pesados com nêutrons produzidos
116 IHDE, Aaron J. The Development of Modern Chemistry.
247
CARLOS AUGUSTO DE PROENÇA ROSA
em reatores nucleares ou com partículas aceleradas, de grande energia,
em cíclotrons ou aceleradores lineares. Os 16 primeiros elementos
transurânicos, conhecidos pelos nomes de netúnio, plutônio, amerício,
cúrio, berquélio, califórnio, einsteinio, férmio, mendelévio, nobélio,
laurêncio e rutherfórdio, mais o actínio, o tório, o protactínio e o urânio,
constituem a série dos actinídeos, quimicamente análogos aos lantanídeos.
O elemento metálico radioativo, de número atômico 93, foi
sintetizado, em 1940, pelos físicos americanos Edwin M. MacMillan
(1907-1991) e Philip H. Abelson (1913-2004). Existente em quantidades
mínimas na Natureza, o elemento 93 está associado ao urânio. O netúnio
(Np), que se encontra em estado sólido, tem massa atômica 237,0482 e são
conhecidos 12 isótopos. MacMillan receberia por seu trabalho o Prêmio
Nobel de Química de 1951.
O plutônio (Pu), de número atômico 94 e massa 244, foi descoberto
em 1940 por Glenn T. Seaborg (1912-1999) e sua equipe de investigadores
da Universidade da Califórnia em Berkeley. Utilizado e produzido em
reatores nucleares, o Pu, do qual se conhecem 15 diferentes isótopos, tem
vida média de 23 mil anos e é o elemento transurânico de maior importância
econômica. Seaborg, por sua grande contribuição ao desenvolvimento da
pesquisa sobre os elementos transurânicos dividiria, com MacMillan, o
PNQ de 1951.
O elemento amerício (Am), criado artificialmente, em 1945, por Glenn
Seaborg e sua equipe de investigadores da Universidade de Chicago, pelo
bombardeamento do urânio por partículas alfa, é de número 95 e massa
243; são conhecidos apenas 5 isótopos. O cúrio (Cm), de número 96 e massa
atômica 245, não existe na Natureza, e foi sintetizado por Glenn Seaborg,
Albert Ghiorso (1915) e Ralph A. James em 1944, tendo recebido o nome em
homenagem ao casal Curie; foi obtido bombardeando plutônio artificial com
partículas aceleradas. São conhecidos na atualidade 8 isótopos, sendo que a
vida média do isótopo mais estável é superior a 500 anos. Criado artificialmente
em 1949 por Seaborg, Ghiorso e Stanley G. Thompson nos laboratórios da
Universidade da Califórnia, em Berkeley, o elemento berquélio (Bk) é de
número 97 e massa 247; seu isótopo mais estável tem vida média de 1.400 anos,
enquanto seu isótopo 243 tem vida média de apenas 4,6 horas. Nos
laboratórios de Berkeley, na Universidade da Califórnia, em 1950, Seaborg,
Ghiorso, Thompson e Kenneth Street Jr criaram o elemento 98 de massa 252,
que receberia o nome de califórnio (Cf); sua vida média é de 35 horas.
O elemento transurânico radioativo, criado artificialmente pelo
bombardeamento de urânio-238 com nitrogênio-14, de número 99 e
massa 254, recebeu o nome einstêinio (Es), em honra ao físico alemão
248
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Albert Einstein. Foi descoberto, em 1952, nos restos de uma explosão
termonuclear. O elemento 100, de massa 257, que recebeu o nome de
férmio (Fm) em homenagem a Enrico Fermi, foi detectado nos restos de
uma explosão de bomba de hidrogênio no Pacífico; o Fm seria criado
artificialmente, em 1953, num reator nuclear bombardeando plutônio com
nêutrons, sendo que o Fm-257, com uma vida de 16 horas, foi detectado
por três equipes em Berkeley, Chicago e Los Alamos117.
O elemento mendelévio (Md), de número 101 e massa 256, foi
criado artificialmente em 1955, em Berkeley, Universidade da Califórnia,
por Glenn Seaborg e sua equipe; obtido pelo bombardeio de einstêinio 253
com partículas alfa aceleradas num cíclotron; seu isótopo mais estável tem
vida média de 54 dias, e pertence à série dos actinídeos.
O nobélio (No), de número 102 e massa 259, é um elemento
metálico radioativo, produzido artificialmente em laboratório. Obtido
pelo bombardeamento de isótopos de cúrio (Cm) com íons de carbono
por equipes da Suécia, Grã-Bretanha e EUA, o No foi anunciado em 1957;
já foram identificados 13 radioisótopos, e seu isótopo mais estável,
No-259, tem vida média de 58 minutos.
O elemento lawrêncio (Lr), de número 103 e massa 262,
provavelmente metálico sólido, é o último da série dos actinídeos.
Designado em honra do físico americano Ernest Orlando Lawrence,
inventor do cíclotron, foi o Lr criado em 1961, no Laboratório Lawrence de
Radiação da Universidade da Califórnia, pelo químico Albert Ghiorso e
sua equipe. O Lr foi obtido pelo bombardeio de isótopos de califórnio (Cf)
por íons de boro; seu isótopo mais estável tem vida média de três minutos.
Entre 1964 e 1977, EUA e a União Soviética anunciaram a produção
artificial de quatro elementos transurânicos. O primeiro deles, denominado
rutherfórdio (Rf) em 1997, de número atômico 104 e massa 261, foi obtido,
em 1964, por Georgii Flerov (1913-1990), num cíclotron de íon pesado, em
Dubna, perto de Moscou, pelo Instituto Conjunto de Pesquisa Nuclear, e,
em 1968, por uma equipe do Laboratório Lawrence Berkeley, chefiada por
Albert Ghiorso; o Rf é presumivelmente um sólido e pertence ao grupo
4 da Tabela periódica118. Em 1968, a equipe de Dubna obteve o elemento
105 e massa atômica 262, que recebeu o nome de dúbnio (Db); metálico
presumivelmente sólido, não é encontrado na crosta terrestre e não tem
aplicação conhecida; seu isótopo mais estável é o Db-268. O elemento de
peso atômico 106 e massa 263, de nome seabórgio (Sg), foi sintetizado em
1974 pela equipe americana utilizando califórnio e oxigênio e a equipe
117 118 JAFFE, Bernard. Crucibles: The Story of Chemistry.
JAFFE, Bernard. Crucibles: The Story of Chemistry.
249
CARLOS AUGUSTO DE PROENÇA ROSA
soviética de Dubna bombardeando isótopos de chumbo em cromo;
provavelmente metálico sólido, são conhecidos 11 isótopos. O elemento
107 de massa 264, obtido em 1977 pela equipe de investigação de Dubna,
chefiada por Yuri Oganessian (1933), recebeu, em 1997, o nome de bóhrio
(Bh); pertence ao grupo 7 da Tabela periódica, e é provavelmente sólido
metálico.
Os cinco seguintes elementos – de número atômico 108 a 112 –
foram criados por pesquisadores alemães no laboratório do Instituto de
Pesquisa de Íons Pesados na cidade de Darmstadt (Alemanha), reputado
centro científico de referência mundial.
O elemento 108 de massa 265 foi sintetizado em 1984 por grupo
de investigadores alemães utilizando o acelerador Unilac, em Darmstadt,
Alemanha, e recebeu, em 1997, o atual nome de hássio (Hs), derivado de
Hessen, região da Alemanha onde está localizado o Laboratório GSI do
Instituto de Pesquisa de Íons Pesados; do grupo 8 da Tabela periódica, seu
estado da matéria é provavelmente sólido119.
A mesma equipe de Darmstadt produziria, em 1982 o elemento 109,
de massa 268, que receberia o nome de meitnério (Mt), em homenagem
a Lise Meitner, física e química austríaca, uma das descobridoras, em
1939, da fissão nuclear, juntamente com Otto Hahn e Fritz Strassmann.
Esse elemento não existe na crosta terrestre e seu estado é provavelmente
sólido120.
O elemento transurânico darmstádio (Ds) de número atômico
110 (110 prótons e 110 elétrons) foi criado em 1994 no “Gesellschaft für
Schwerionenforschung” (GSI), em Darmstadt, pelos pesquisadores Sigurd
Hofmann, Victor Ninov, F. P. Hessberger, Peter Armbuster e H. Folger; o
Ds tem massa atômica 272 e é conhecido apenas um isótopo, de vida de 15
milissegundos. Provavelmente um sólido metálico, pertence ao grupo 10,
período 7, da Tabela periódica. Foi conhecido anteriormente pelo nome
de ununílio (Uun).
O roentgênio (Rg), presumivelmente sólido, foi igualmente
sintetizado no Instituto em Darmstadt, em 1994, pela mesma equipe que
criara o elemento Uun; de número 111 (111 prótons e 111 elétrons) tem
massa atômica de 272; pertence ao grupo 11, da Tabela periódica. Esse
elemento era conhecido como ununúnio (Uuu), nome dado pela IUPAC
(International Union of Pure and Applied Chemistry), mas, em 2004, foi
decidido, por unanimidade em reunião desta organização internacional,
homenagear o físico alemão Wilhelm Conrad Roentgen, nome agora oficial.
119 120 IHDE, Aaron J. The Development of Modern Chemistry.
PARTINGTON, James R. A Short History of Chemistry.
250
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Em 1994 surgiria grave controvérsia entre os três grandes centros
(EUA, Rússia e Alemanha) de pesquisas sobre a denominação desses
novos elementos, de vida curtíssima, criados artificialmente. Após longos
debates, o Conselho da IUPAC decidiu, em agosto de 1997, estabelecer
os seguintes nomes para os seguintes elementos transurânicos: 101 - mendelévio, 102 - nobélio, 103 – lawrêncio, 104 - rutherfórdio, 105 dúbnio, 106 - seabórgio, 107 - bóhrio, 108 - hássio e 109 - meitnério.
A mesma equipe de Darmstadt sintetizaria, em 1996, o elemento
número 112 que recebeu a designação de unúmbio (Uub); de massa
atômica 277 e apenas 2 isótopos conhecidos, é provavelmente um elemento
metálico líquido, pertencente ao grupo 12 da Tabela periódica.
O ununtrio (Uut), elemento sintético de número atômico 113 e
de massa atômica 284, foi descoberto em 2004 por pesquisadores russos
de Dubna e americanos do Lawrence Livermore National Laboratory,
exemplo da retomada da cooperação de institutos de pesquisas de ambos
os países. Pertencente o Uut ao grupo 13, período 7 da Tabela periódica,
sua designação estabelecida pela IUPAC ainda é provisória.
O elemento de número 114 é o ununquádio (Uuq) sintetizado em 1998
por pesquisadores do Instituto de Pesquisas Nucleares de Dubna, na Rússia;
de massa atômica 289, pertence ao grupo 14, período 7, da Tabela periódica, o
Uuq é um elemento transurânico metálico sólido, cujo nome é ainda provisório.
O elemento unumpêntio (Uup), sintético de número atômico 115 com
massa atômica de 288, pertence ao grupo 15 da Tabela periódica. Descoberto
por investigadores russos e americanos em 2004, o Uup ainda aguarda
confirmação para obter um nome definitivo.
O unuhéxio (Uuh), elemento de número 116, foi descoberto em
1999 por Albert Ghiorso e colaboradores, no Laboratório Lawrence
Berkeley na Califórnia e pelos russos do Instituto em Dubna em 2001,
mas a confirmação dos resultados permanece pendente; com massa
atômica 292, o Uuh pertence ao grupo 16 da Tabela periódica. A pesquisa
conjunta EUA-Rússia na criação desse elemento é outro exemplo da atual
cooperação bilateral científica entre os dois países.
Ununséptio (Uus), elemento ainda não descoberto, deverá ter
o número atômico 117 (117 prótons e 117 elétrons) e massa atômica
prevista de 291; pertencente ao grupo 17 da Tabela periódica, o uus será
presumivelmente sólido.
O ununóctio (Uuo) foi sintetizado, em 1999, no Laboratório
Lawrence Berkeley pela mesma equipe de Ghiorso; de número 118, o Uuo,
provavelmente gasoso e de massa atômica 293, ainda aguarda confirmação
de sua descoberta, quando então receberá um nome definitivo.
251
CARLOS AUGUSTO DE PROENÇA ROSA
7.5.3.4 A Tabela Periódica dos Elementos
A configuração atual da Tabela periódica dos elementos é devida
em boa parte à obra pioneira de Moseley ao demonstrar que deveria ser o
número atômico, e não a massa, o critério para a definição de elemento121.
O químico inglês Henry Gwyn Jeffreys Moseley (1887-1915),
nascido em Weymouth, na costa sudoeste da Inglaterra, morreu em agosto
de 1915 em combate nos Dardanelos, durante a Primeira Guerra Mundial.
Após os estudos iniciais em Eton College, cursou, a partir de 1906, o
Trinity College da Universidade de Oxford, graduando-se em 1910. Em
seguida, foi para a Universidade de Manchester, onde trabalharia com
Ernest Rutherford, dedicando-se integralmente à pesquisa.
De seus trabalhos sobre o comprimento de onda da radiação
do espectro dos raios-X dos vários elementos, Moseley verificou que o
comprimento da onda diminuía com o aumento do peso atômico dos
elementos que o emitiam. Estabeleceria, então, uma relação sistemática
entre o comprimento da onda e o número atômico, hoje chamada de lei
de Moseley, segundo a qual as propriedades dos elementos são funções
periódicas de seus números atômicos. Até então o número atômico (Z) era
totalmente arbitrário, pelo que sua ordem na Tabela periódica podia ser
alterada, dado que era baseada na sequência da massa atômica. O grande
mérito da obra de Moseley seria demonstrar ter o peso atômico (Z) uma
base mensurável cientificamente comprovável, correspondente ao número
de cargas positivas (prótons) do núcleo de cada átomo122. Um elemento
químico é um conjunto de átomos com o mesmo número atômico, pelo
que o que difere um elemento do outro é o número de prótons. Contudo,
o número de prótons no núcleo de um determinado átomo era sempre o
mesmo. Em seu trabalho Moseley provaria que a medição das frequências
de linhas espectrais de raios-X de 38 elementos contra a carga do núcleo
relacionava o número atômico Z de um elemento a seu espectro, sendo o
número atômico de um elemento (Z) igual ao número de prótons que o
núcleo do átomo desse elemento contém.
Como o número atômico tinha que ser inteiro, não poderia haver,
por exemplo, um elemento entre o ferro de número 26 e o cobalto de número
27, Moseley deduziria que só poderia haver 92 elementos naturais – do
hidrogênio ao urânio. Moseley identificaria ainda algumas inversões na
ordem correta e lacunas a serem preenchidas (elementos 43, 61, 72 e 75) na
Tabela periódica. Os elementos do grupo das terras raras, difíceis de serem
121 122 PARTINGTON, James R. A Short History of Chemistry.
JAFFE, Bernard. Crucibles: The Story of Chemistry.
252
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
separados e identificados, teriam seus números atômicos – de Z 57 a Z 71
– estabelecidos, e, consequentemente, teriam suas respectivas colocações
na Tabela periódica123. Em 1914, retornaria Moseley à Universidade de
Oxford, mas com o início da conflagração mundial, se alistaria no Exército,
seria mandado ao front na Turquia e aí morreria.
O físico-químico americano Theodore William Richards (1868-1928),
com doutorado em Harvard, onde lecionou a partir de 1901, além de pesquisar
nos campos da Termoquímica, Eletroquímica e Calorimetria, receberia o
Prêmio Nobel de Química de 1914 por seus trabalhos para a determinação do
peso atômico, com quatro cifras decimais, de mais de 25 elementos.
O sistema de numeração dos grupos nas colunas verticais da
Tabela periódica é recomendado pela União Internacional de Química
Pura e Aplicada (IUPAC). Em algarismos arábicos de 1 a 18, a numeração
vai da esquerda para a direita, sendo o grupo 1 o dos metais alcalinos, o
2 dos alcalino-terrosos, os 3 a 13 dos metais de transição, o 14 (formado
pelo carbono, silício, germânio, estanho e chumbo), o 15 (o nitrogênio e o
fósforo são não metais), o 16 (oxigênio e enxofre são os mais importantes),
o 17 são não metais (como flúor e cloro) e o 18 o dos gases nobres; os
elementos são colocados em ordem crescente de número atômico. A
Tabela seria, igualmente, reconfigurada, com a série dos actinídeos – do
número atômico 89 actínio (Ac) até o número 103 laurêncio (La) – abaixo
da série dos lantanídeos, isto é, do número atômico 57 lantânio (La), até o
número 71 lutécio (Lu).
7.5.4 Química Orgânica
O extenso campo da Química Orgânica teria um extraordinário
desenvolvimento nos tempos atuais, apesar de se tratar de uma área
científica criada apenas em meados do século XIX. Em pouco tempo, a
atenção dos químicos se voltaria para esta nova atividade prioritária de
pesquisa, cujas implicações e vínculos com outros ramos da Ciência, como
a Biologia e a Medicina, e setores industriais, como o farmacêutico e o
petroquímico, seriam decisivos para a melhoria das condições de vida do
Homem e da Sociedade. Pela grande abundância de compostos orgânicos,
por seu papel fundamental na química da vida e por sua diversidade
estrutural, a Química Orgânica se transformaria, em consequência,
atualmente, na especialização mais atraente e na mais ampla área de
pesquisa da Química.
123 IHDE, Aaron J. The Development of Modern Chemistry.
253
CARLOS AUGUSTO DE PROENÇA ROSA
É de particular importância no exame da evolução da Química
Orgânica registrar a descoberta, em 1985, do fulereno, nova forma
alotrópica do carbono. Até então, só eram conhecidas as formas cristalinas
do diamante (transparente e duro) e do grafite (opaco e quebradiço), e
o sólido amorfo carvão. Os fulerenos são compostos de carbono obtidos
com a condensação do vapor de carbono em altíssimas temperaturas. Em
escassa quantidade na Natureza, são encontrados na atmosfera, formados
por descarga elétrica dos relâmpagos. Com diferentes quantidades de
átomos de carbono (20, 60, 70, 100, 180, 240 e até 540 átomos), o fulereno,
por exemplo, C60 (forma de bola de futebol) é formado por 12 pentágonos
e 20 hexágonos; o C20 tem 12 pentágonos, mas não possui hexágono, e o
fulereno C70 (forma de bola de rugby).
Em 1985, os americanos Robert Curl Jr. (1933) e Richard E. Smalley
(1943), ambos da Rice University (Houston, Texas), e o inglês Harold
W. Kroto (1939), da Universidade de Sussex, Brighton, na Inglaterra,
receberiam o Prêmio Nobel de Química de 1996 “pela descoberta da
estrutura dos fulerenos, grandes moléculas de carbono de enorme
importância para a indústria química e eletrônica”. Em 1990, Wolfgang
Kratschmer e Nonal Hoffman isolaram e sintetizaram o C60.
A partir das pesquisas em fulerenos, foi obtido, em 1991, um
novo composto de carbono, denominado nanotubo, descoberto pelo
físico japonês Sumio Iijima (1939), pesquisador da NEC e professor da
Universidade Meijo. Campo bastante novo, prosseguirão, no futuro, as
pesquisas em fulerenos e nanotubos com o objetivo de disseminar sua
utilização pela indústria.
7.5.4.1 Estereoquímica
Como ramo da Química relativo ao estudo do arranjo ou
disposição espacial dos átomos nas moléculas, a Estereoquímica trata dos
isômeros compostos com a mesma fórmula molecular, mas estruturas
diferentes. O fenômeno da isomeria se refere à existência de duas ou mais
estruturas para uma mesma fórmula molecular, ou seja, a possibilidade
da existência de mais de um composto com a mesma fórmula molecular.
A área de abrangência da Estereoquímica é enorme, incluindo setores da
Química inorgânica e orgânica, e sua importância é crescente, conforme
demonstram as pesquisas, particularmente na atualidade.
Pioneiro nesta área foi o químico Louis Pasteur (1822-1895), com
seus trabalhos, em 1848, sobre os isômeros, no caso o ácido tartárico e o ácido
254
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
racêmico, nos quais descobriu que alguns compostos químicos eram capazes
de se dividir num componente “direito” e “esquerdo”, sendo um o espelho
do outro. Esse fenômeno molecular, chamado de quiralidade (do grego
kheiros, mão), ocorre quando as imagens opostas não são sobreponíveis, isto
é, quando um objeto não é sobreposto à sua imagem no espelho.
As pesquisas em Estereoquímica prosseguiriam com Jacobus
Henricus Van’t Hoff (1852-1911), primeiro ganhador do Prêmio Nobel
de Química, e Achille Le Bel (1847-1930), em 1874, com a explicação de
arranjo espacial em forma de tetraedro das ligações do carbono, em A
Suggestion Looking to the Extension into Space of the Structural Formulas at
Present Used in Chemistry. Ainda no final do século, deve ser consignada
a contribuição de Emil Fischer (1852-1919), inventando um método de
representar carbonos tetraédricos no papel.
Alfred Werner (1866-1919), Prêmio Nobel de Química de 1913,
químico francês, de origem alemã, residente e cidadão suíço, doutor pela
Universidade de Zurique, pós-graduação em Paris (1890), com Marcellin
Berthelot, autor, entre outras obras, de Uma Nova Concepção da Química
Inorgânica e Lehrbuch der Stereochemie, é considerado por muitos como o
fundador da Estereoquímica. Em sua tese de doutorado, tratou da questão
da disposição espacial de átomos em torno de um átomo central de
nitrogênio e estendeu as ideias de Van’t Hoff a átomos além do carbono,
obtendo compostos opticamente ativos de cobalto, cromo e ródio. Em 1893,
Werner elaboraria sua Teoria da coordenação ou das valências secundárias
da estrutura molecular, pela qual os átomos ou grupo de átomos estariam
distribuídos em torno de um átomo central, de acordo com princípios
geométricos fixos, independente do conceito de ligações de valência simples
para moléculas inorgânicas e covalentes para orgânicas124.
Pela mesma época das investigações de Werner, os químicos
Frederick Stanley Kipping (1863-1949) e seu assistente William Jackson
Pope (1870-1959), na Inglaterra, contribuiriam com suas pesquisas,
particularmente, para o desenvolvimento da estereoquímica dos compostos
opticamente ativos (nitrogênio e silício). Durante a Primeira Guerra Mundial,
Pope desenvolveria métodos para a fabricação de gás de mostarda.
A concessão do Prêmio Nobel de Química, em diversas
oportunidades, na segunda metade do século XX (sem esquecer Van’t Hoff,
o primeiro a recebê-lo), a pesquisadores com importantes contribuições
no desenvolvimento da Estereoquímica, demonstra a importância e o
crescente interesse por uma pesquisa de inestimável valor para a indústria
farmacêutica.
124 PARTINGTON, James Riddick. A Short History of Chemistry.
255
CARLOS AUGUSTO DE PROENÇA ROSA
Derek Harold Richard Barton (1918-1988), químico inglês, PNQ de
1969 “por suas contribuições à Química Orgânica, especialmente sobre as
propriedades das moléculas orgânicas e disposição tridimensional de seus
átomos”, se especializaria na Análise conformacional (1950) de grande
importância no estudo da estrutura e reações dos esteroides, alcaloides
e glucídios. O norueguês Odd Hassel (1897-1997), com doutorado pela
Universidade de Berlim, exerceria diversas funções na Universidade de
Oslo de 1925 a 1964 e dividiria com Derek Barton o PNQ de 1969 por suas
“contribuições em Química Orgânica, especialmente sobre as propriedades
das moléculas orgânicas e disposição tridimensional dos seus átomos”.
Vladimir Prelog (1906-1998), nascido em Sarajevo, na Bósnia e
Herzegovina, receberia o Prêmio Nobel de Química de 1975, “por seus
trabalhos em estereoquímica das moléculas e reações orgânicas”, tendo
estudado, inclusive, a estereoquímica das reações das enzimas. O químico
australiano-britânico John Warcup Cornforth (1917) dividiria o PNQ com
Prelog por suas contribuições nessas mesmas áreas de pesquisa125. As
chamadas regras de Prelog, que definem as relações conformacionais entre
reagentes e produtos, contribuiriam para a compreensão das estruturas de
alcaloides (como quinino, estricnina), e, num trabalho conjunto com Robert
Sidney Cahn (1899-1981) e o inglês Christopher Kelk Ingold (1893-1970),
que lançara a ideia de mesomerismo em 1926, criaria o chamado sistema
CIP (iniciais dos três autores), utilizado para distinguir a estereoquímica
das moléculas.
William S. Knowles (1917), da Universidade de Colúmbia, Ryoji
Noyori (1938), da Universidade de Kyoto, e K. Barry Sharpless (1941), da
Universidade de Stanford, receberiam o Prêmio Nobel de Química de 2001
por seus trabalhos ao “produzirem catalisadores para a síntese assimétrica
de moléculas quirais”. O desenvolvimento da síntese catalítica assimétrica
é de grande valor e de ampla aplicação na área dos fármacos e outras
substâncias ativas com pureza enantiomérica, contribuindo decisivamente
para o avanço na indústria farmacêutica por meio da síntese de muitos
medicamentos, como antibióticos, anti-inflamatórios, etc126.
O químico francês Henri Kagan (1930), professor da Universidade
de Paris, é, igualmente, pioneiro nas pesquisas da catálise assimétrica.
125 126 Comunicado de Imprensa – PNQ de 1975.
Comunicado de Imprensa – PNQ de 2001.
256
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.5.4.2 Reações Químicas
Como transformação da matéria com mudanças qualitativas na
composição química de uma ou mais substâncias reagentes, resultando em
um ou mais produtos, ou seja, quando certas substâncias se transformam
em outras, as pesquisas em reações químicas têm sido uma das mais
importantes atividades dos investigadores na busca de novos processos
e técnicas que permitam avanços nessa área fundamental do processo
químico. As pesquisas ocorridas ao longo do desenvolvimento milenar da
Química se intensificariam no século XIX, beneficiadas com o progresso
na área da Termoquímica (Germain Hess, Julius Thomsen) e da Cinética
química. Adolphe Würtz (1817-1884), Rudolph Fittig (1835-1910), August
Wilhelm von Hofmann (1818-1892), William Henry Perkin (1860-1929) e
Paul Walden (1863-1957), entre outros, dariam importantes contribuições,
ao final do século, ao desenvolvimento de novos reagentes e de novos
processos de compostos orgânicos.
O tema seria prioritário nos estudos teóricos e nas investigações
experimentais desde o final do século XIX e início do século XX, devendo
ser registrada a contribuição de Henri Louis Le Chatelier (1850-1936),
professor no Colégio de França e na Sorbonne, com seu princípio do
equilíbrio, pelo qual uma mudança na temperatura, concentração ou
pressão num sistema em equilíbrio determinará uma mudança no
equilíbrio de forma a minimizar seus efeitos. Le Chatelier contribuiu,
igualmente, para o desenvolvimento da Química inorgânica e da Química
analítica, tendo pesquisado extensamente no campo da metalurgia.
Dois químicos franceses ocupam posição de relevo no estudo das
reações químicas: Victor Grignard (1871-1935), professor nas Universidades
de Nancy e Lyon, iniciou, em 1935, a publicação do Tratado de Química
Orgânica, terminado após sua morte; com a descoberta (1901) dos compostos
organomagnesianos (reativos Grignard), surgiria, na Química Orgânica,
um novo método de síntese, conhecida como reação Grignard; sobre o
assunto escreveu sua famosa tese Sobre as combinações organomagnesianas
mistas, em 1901; e Paul Sabatier (1854-1941), professor da Universidade de
Toulouse (1884-1930), pesquisador de ações catalíticas, tendo descoberto a
catálise seletiva (autor de A Catálise na Química Orgânica, 1912), método de
hidrogenação de compostos orgânicos na presença de metais finamente
divididos, o que viria a permitir a fabricação de sabões mais baratos a
partir do uso de gordura de pescado como matéria-prima, em substituição
a gorduras de outras origens. A utilização do níquel, metal mais barato
que os até então usados (platina, paládio), como catalisador, tornaria
257
CARLOS AUGUSTO DE PROENÇA ROSA
possível a formação de gorduras comestíveis (margarina e manteigas
de plantas oleaginosas não comestíveis) em grandes quantidades, e
com vantagem econômica e comercial127. As contribuições dos químicos
franceses Grignard e Sabatier permitiriam grande progresso na Química
Orgânica, e seriam laureados em 1912 com o Prêmio Nobel de Química.
O alemão Otto Paul Hermann Diels (1876-1954), formado pela
Universidade de Berlim, onde exerceu a cátedra de Química, de 1906 a
1916, e depois, na Universidade de Kiel, até sua aposentadoria, em 1948,
descobriria, em 1906, por acidente, um novo óxido de carbono, o peróxido
de carbono (C3O2), e um método de remover hidrogênio de esteroides
por meio de selênio, utilizando tal método em pesquisa de colesterol.
Em 1928, com seu assistente Kurt Alder (1902-1958), com doutorado pela
Universidade de Kiel, professor na Universidade de Colônia, pesquisador
em síntese de compostos orgânicos e em borracha sintética, descobriria a
reação sintética (conhecida como reação Diels-Alder) na qual dois dienos
(compostos com duas ligações duplas) são combinados, com o objetivo
de formarem um anel de átomos. Essa reação é utilizada na produção
de polímeros128. Por seus trabalhos, receberiam o PNQ de 1950. A reação
Diels-Alder é considerada uma das mais poderosas em Síntese orgânica.
O bioquímico alemão Hans Adolf Krebs (1900-1981), formado em
Medicina pela Universidade de Hamburgo, e assistente de Otto Warburg,
de 1926 a 1939, emigrou para a Inglaterra em 1933, com a ascensão de
Hitler, assumindo a cátedra de Bioquímica da Universidade de Sheffield
(1935/54), e, no ano de 1954, em Oxford, onde permaneceria até sua
aposentadoria, em 1967. Ainda na Alemanha, identificou, em 1932, o
conjunto de reações químicas conhecidas como ciclo da ureia, no fígado.
Prosseguiria as pesquisas de Carl e Gerty Cori sobre a hidrólise do
glicogênio e sua consequente geração de ácido láctico. Usando músculo
peitoral de pombos, integrou os elementos conhecidos do processo num
único esquema coerente, conhecido como ciclo do ácido cítrico ou ciclo de
Krebs. A molécula de dois carbonos (coenzima A) resultante da primeira
fase do ciclo do ácido cítrico (três carbonos), desconhecida de Krebs, seria
estudada por Fritz Lippmann com quem dividiria o PNFM de 1953.
O inglês Christopher Kelk Ingold (1893-1970), professor de Química
Orgânica na Universidade de Leeds (1924-30), e depois da Universidade
de Londres (1930-61), autor de cerca de 400 trabalhos científicos e do
livro Estrutura e Mecanismo em Química Orgânica (1953), dedicou-se à
pesquisa do mecanismo da reação orgânica, particularmente da cinética
127 128 TATON, René. La Science Contemporaine.
WOJTKOWIAK, Bruno. Histoire de la Chimie.
258
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
das reações de substituição e eliminação. Em 1926, apresentou a ideia do
mesomerismo no livro Princípios da Teoria Eletrônica das Reações Orgânicas
(1934), equivalente à teoria da ressonância, de Linus Pauling.
O inglês Cyril Norman Hinshelwood (1897-1967), professor da
Universidade de Oxford (1937-1964), e depois pesquisador do Imperial
College, de Londres, é autor, em 1926, de A Cinética da Mudança Química
em Sistemas Gasosos, em 1934, de A Reação entre Hidrogênio e Oxigênio, em
1951, de A Estrutura da Químico-Física, em 1954, de A Cinética Química da
Célula da Bactéria, e, em 1966, de Crescimento, Função e Regulação em Células
de Bactérias. Tais obras seriam importantes para as futuras pesquisas em
antibióticos e agentes terapêuticos. O russo Nikolay Nikolaevich Semenov
(1896-1986) estudou na Universidade de São Petersburgo, onde trabalhou
até se transferir, em 1944, para a Universidade de Moscou, como chefe
do Departamento de Cinética Química. Contribuiu com pesquisas na área
de reação em cadeia, nos anos 20, demonstrando que tais reações podem
levar à combustão e explosões violentas. Escreveu, em 1934, Cinética
Química e Reações em cadeia. Semenov e Hinselwood dividiriam o PNQ
de 1956 por suas contribuições para o entendimento do mecanismo das
reações químicas, e, especificamente, pelo avanço da Cinética química e
das reações em cadeia.
As pesquisas do químico alemão Karl Ziegler (1898-1973), doutor,
em 1920, pela Universidade de Marburg, professor em Frankfurt, e
depois, em Heidelberg, nos anos 40 e 50, se concentraram nos compostos
orgânicos metálicos, buscando aperfeiçoar as substâncias obtidas por
Grignard. O avanço na fabricação de plásticos esbarrava no caráter
aleatório dos resultados obtidos pelos métodos utilizados, que resultavam
em ramificações na longa cadeia das moléculas, o que enfraquecia o
produto final. Era o caso, por exemplo, do polietileno. Em 1953, Ziegler
foi capaz de usar, como catalisador, resina enriquecida com íons de
metais (alumínio, titânio) para produzir polietileno sem ramificações na
cadeia, o que significava uma resina com alto grau de dureza. Trabalho
na mesma linha seria levado a cabo pelo italiano Giulio Natta (19031979), doutor em Engenharia Química pelo Instituto Politécnico de Milão,
encarregado, pelo governo, de dirigir as pesquisas sobre borracha sintética.
Tendo conhecimento das investigações de Ziegler sobre compostos
organometálicos, Natta trabalharia com propileno, descobrindo que, no
polímero formado, todos os grupamentos metil estavam voltados para o
mesmo lado, e não distribuídos ao acaso. A importância dessas pesquisas
no aperfeiçoamento da polimerização foi reconhecida com a outorga do
PNQ de 1963.
259
CARLOS AUGUSTO DE PROENÇA ROSA
Ronald George Wreyford Norrish (1897-1978), químico inglês,
estudou na Universidade de Cambridge, sua cidade natal, pesquisou
na área de Fotoquímica e Cinética química, e, com antigo aluno, George
Porter, desenvolveu a espectroscopia cinética e a técnica de clarões de luz
ultracurta para a investigação em reação muito rápida com resposta a
curtos pulsos de energia. George Porter (1920-2002), professor de Química
da Universidade de Sheffield (1966-85), e do Imperial College de Londres
a partir de 1987, se dedicaria ao desenvolvimento de técnica de clarões de
luz. Dessa maneira, puderam ser estudadas reações químicas que ocorrem
em tempo não superior a um bilionésimo de segundo. O físico-químico
alemão Manfred Eigen (1927) estudou e se formou (1951) na Universidade
de Göttingen e ingressou, em 1953, no Instituto Max Planck de Físico-Química. Introduziu, em 1954, a técnica de relaxamento para o estudo das
reações extremamente rápidas, sendo a formação da molécula da água a
primeira reação investigada, provando que não era causada pela colisão
dos íons H+ e OH-, mas que o íons reativos eram os H9O4+ e H7O4-. Eigen
dividiria com Porter e Norrish o PNQ de 1967.
Herbert Charles Brown (1912-2004), professor da Universidade
de Purdue (1947-1978), desenvolveu novos reagentes contendo boro,
pesquisou os compostos de boro, tendo descoberto o reagente, hidreto
de boro, muito usado em Química Orgânica para redução, e criou
uma classe de organoboros, também bastante utilizados em Química
Orgânica. E Georg Wittig (1897-1987) descobriria uma classe de reativos
de compostos de fósforo (reação Wittig) e dividiria com Brown o PNQ de
1979. Os trabalhos de Brown e Wittig seriam da maior importância para o
desenvolvimento da Síntese orgânica129.
O químico canadense John Charles Polanyi (1929) formou-se em
1952 pela Universidade de Princeton, transferiu-se pouco depois para a
Universidade de Toronto, onde assumiria a cátedra de Química, em 1962.
Desenvolveria método pelo qual “as moléculas formadas por reações
químicas trabalham sinalizando para nós seu estado de excitação... através
da emissão infravermelha”. O americano Dudley Robert Herschbach
(1932) estudou em Stanford e Harvard, onde concluiu seu doutorado
em 1958, ensinou por quatro anos em Berkeley, e, em 1963, retornou a
Harvard como professor de Química. Investigou extensamente reações
químicas, em especial as moléculas reativas dos feixes luminosos, pelo
que dividiria o PNQ de 1986 com Polanyi e o sino-americano, nascido
em Formosa, Yuan Tseh Lee (1936). Formado pela Universidade de Tsing
Hua, doutorado pela Universidade da Califórnia (Berkeley) em 1965,
129 Comunicado de Imprensa – PNQ de 1979.
260
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Lee começaria a pesquisar, em 1967, na Universidade de Harvard, com
Herschbach, reações entre átomos de hidrogênio e moléculas de álcalis, e a
construção de equipamento para estudo de moléculas de feixes luminosos.
Em 1974, retornou a Berkeley como professor de Química e principal
pesquisador da Lawrence Berkeley National Laboratory. O Prêmio Nobel
de Química lhes foi outorgado por suas contribuições relativas à dinâmica
dos processos químicos elementares130.
A partir dos anos 80, quando os químicos passaram a investigar os
estágios intermediários entre os reagentes e os produtos da reação química,
surgiu o que se convencionou chamar de femtoquímica, relacionada aos
fenômenos que ocorrem a femtossegundos, isto é, em intervalos de tempo
extremamente curtos (10-15 de segundo).
O francês Yves Chauvin (1930) e os norte-americanos Robert H.
Grubbs (1942) e Richard R. Schrock (1945) dividiriam o PNQ de 2005
pelo desenvolvimento de uma reação química que revolucionou a
síntese dos compostos orgânicos, e que foi primordial para aprimorar
procedimentos para a produção em laboratórios de novos medicamentos
e outros compostos de grande interesse industrial. A reação química
desenvolvida por Chauvin, em 1971, já conhecida empiricamente
desde os anos 50, é chamada de metátase (do grego para “mudança de
posição”), que permite, em escala molecular, a “troca de lugar” de átomos
ou grupos de átomos, de maneira a gerar novos compostos. A metátase
das olefinas, moléculas orgânicas, permitiria a síntese simples e direta
de um grande número de moléculas que são dificilmente obtidas por
outros métodos. Grubbs desenvolveu catalisador à base de rutênio que
permite um melhor controle da reação e serve para sintetizar moléculas
mais complexas, e Schrock criou um composto de molibdênio capaz de
acelerar a reação131.
7.5.4.3 Síntese Orgânica
No exame da evolução da Química Orgânica, ocupa lugar de
especial importância e projeção a atividade relacionada com a Síntese
orgânica, ou seja, a da construção de moléculas orgânicas por meio de
processos químicos. Numa primeira fase, a Síntese orgânica, área de
pesquisa abrangente em vista da diversidade estrutural dos compostos
químicos, esteve naturalmente restrita à síntese dos produtos naturais.
130 131 Comunicado de Imprensa – PNQ de 1986.
Comunicado de Imprensa – PNQ de 2005.
261
CARLOS AUGUSTO DE PROENÇA ROSA
Poucas substâncias orgânicas haviam sido obtidas em forma
relativamente pura e a determinação de suas estruturas seria um
grande desafio a vencer entre meados do século XIX e início do século
XX. Poucas substâncias (alcaloides isolados de poções medicamentosas,
ácidos carboxílicos e produtos voláteis de natureza terpênica) isoladas
de plantas eram as únicas fontes de substâncias orgânicas da época. A
fonte principal de compostos orgânicos era, inicialmente, o carvão, sendo
a química dos compostos aromáticos a área mais desenvolvida. Com o
advento dos motores a explosão, o petróleo se tornaria a mais importante
fonte de produtos químicos, e, associado ao gás natural e aos produtos
de fermentação, levaria ao desenvolvimento da química dos compostos
alifáticos. A petroquímica e a carboquímica no início do século forneceriam,
então, novas matérias-primas e assegurariam o progresso espetacular da
indústria química, sendo as indústrias de tintas e corantes dois exemplos.
Menção especial, pelas contribuições pioneiras ao desenvolvimento
da Química, em geral, e da Síntese orgânica, em particular, no final do
século XIX, e início do XX, deve ser feita a três químicos alemães: Victor
Meyer (1848-1897), professor de Química na Universidade de Heidelberg,
sintetizou uma série de novas classes de substâncias orgânicas, descobriu,
em 1882, o composto tiofeno e denominou de Estereoquímica o estudo das
formas moleculares; Johann Friedrich Wilhelm Adolf von Baeyer (1835-1917), professor nas Universidades de Estrasburgo e Munique, descobriu
o ácido barbitúrico, obteve o índigo artificial, elaborou a Teoria dos anéis
de carbono, realizou a primeira Síntese, em 1888, de um terpeno, recebeu
o PNQ de 1905, por seus trabalhos em índigo e corantes aromáticos; Emil
Hermann Fischer (1852-1919), professor nas Universidades de Erlangen,
Würzburg e Berlim, descobriu, em 1874, o reagente fenil-hidrazina, usou
os compostos de hidrazina para isolar açúcares em forma pura, lançou
os fundamentos da Estereoquímica (estudo tridimensional das estruturas
químicas), pesquisou as proteínas, investigou as propriedades de
compostos de purina, que participam da formação dos ácidos nucleicos,
em seu laboratório foi sintetizada a cafeína, a glicose, a frutose e a manose,
em 1907, sintetizou uma molécula proteica (polipeptídeo) composta por
18 aminoácidos e obteve a primeira síntese, em 1914, de um nucleotídeo.
Fischer recebeu, em 1902, o PNQ por seus trabalhos em açúcares e outras
substâncias orgânicas, como as purinas.
A baquelita é uma resina (um polímero sintético) estável e
resistente ao calor, resultante da combinação, por polimerização, do fenol
com o fenoldeído, e desenvolvida, em 1909, pelo químico belgo-americano
Leo Hendrik Baekeland (1863-1944), formado pela Universidade de Gand,
262
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
inventor de um papel fotográfico que vendeu, em 1898, à firma Eastman
Kodak, por 750 mil dólares, soma que financiaria suas futuras pesquisas.
À nova resina, deu seu próprio sobrenome. Apesar de não ter sido o
primeiro plástico (a celulide foi descoberta em 1869, por John Wesley
Hyatt (1837-1920)), a baquelita representou o início da era dos plásticos,
pois, resistente ao calor, uma vez endurecido não amolecia mais com o
aumento da temperatura. Por suas qualidades, seria amplamente usada
para rádios, telefones, diversos artigos elétricos, eletrônicos e de cozinha
e brinquedos.
Richard Willstatter (1872-1942), químico alemão, estudioso dos
pigmentos vegetais e animais, pesquisou a clorofila e a fotossíntese,
investigou os alcaloides (cocaína, atropina), contribuiu para o
desenvolvimento da técnica da cromatografia, sintetizou o ciclo
octatetraeno, em 1915, ano em que recebeu o PNQ por sua contribuição
pioneira no estudo dos pigmentos das plantas, inclusive a clorofila.
O Prêmio Nobel de Química de 1918 seria atribuído a Fritz
Haber (1868-1934), por ter sintetizado a amônia pelo processo HaberBosch, descoberta da maior importância industrial, pois acabaria com
o monopólio chileno do nitrato de sódio, matéria-prima essencial para
a fabricação de explosivos e fertilizantes, da qual dependiam os países
europeus e os EUA. A imagem negativa de Haber decorre de sua atuação
no desenvolvimento e utilização de gases venenosos na Primeira Guerra
Mundial.
O desenvolvimento dos polímeros artificiais, a partir da década dos
anos de 1930, é devido, em boa parte, às contribuições do químico Wallace
Hume Carothers (1896-1937), nascido em Iowa, EUA, e com doutorado, em
1924, na Universidade de Illinois. Dedicado à pesquisa, em particular dos
polímeros, foi escolhido pela companhia Du Pont, em 1928, para chefiar
o departamento que iniciaria programa de pesquisa básica em materiais
artificiais ou sintéticos. Investigou, com Julius Nieuwland (1878-1936),
pesquisador do hidrocarboneto acetileno, as borrachas sintéticas, tendo
verificado que a adição de um átomo de cloro à molécula com quatro
átomos de carbono produzia um polímero bastante parecido com a
borracha. A síntese obtida seria chamada neoprene, uma das primeiras
borrachas sintéticas. O novo produto seria amplamente utilizado para
substituir a borracha natural, cujo suprimento, proveniente do sudeste
da Ásia, fora cortado pelo Japão. Imediatamente após o desenvolvimento
do neoprene, Carothers passaria a pesquisar fibras artificiais com o
intuito de encontrar um substituto para a seda, fibra de relativa escassez
no mercado estadunidense, pelo difícil acesso e elevado preço, por
263
CARLOS AUGUSTO DE PROENÇA ROSA
problemas comerciais com o Japão. Em 1934, seriam obtidos os primeiros
poliésteres e poliamidas (nylon). Fibra considerada de valor estratégico, a
produção do nylon durante a Segunda Guerra Mundial foi praticamente
destinada para fins militares, o que retardaria seu uso generalizado e sua
popularidade entre o público civil. Carothers, que sofria de profunda
depressão, cometeria suicídio, sem ter podido constatar o sucesso de suas
descobertas.
O químico inglês Robert Robinson (1886-1975), professor das
Universidades de Liverpool (1915-20), St Andrews (1921-22), Manchester
(1922-28), Londres (1928-30) e Oxford (1930-55), especializou-se na
pesquisa dos alcaloides, tendo estabelecido a estrutura molecular da
nicotina, da morfina, em 1925, e da estricnina, em 1946, interessou-se por
corantes naturais extraídos de plantas, obtendo a síntese das antocianinas
e das flavonas. Em 1917, conseguiu a síntese total da tropinona. Em 1947,
foi laureado com o Prêmio Nobel de Química por suas investigações em
produtos vegetais de importância biológica, em especial os alcaloides, e,
em 1953, recebeu a Medalha Priestley, da Sociedade Química Americana.
A busca pela cura do beribéri (a vitamina cuja ausência causava
a doença era uma amina) levaria à descoberta de que alguns alimentos
(arroz polido, carne, amendoim, gérmen de trigo, ervilha, gema de ovo)
teriam a capacidade de reduzir os efeitos da doença. Nesse sentido, seria
pioneira a pesquisa do médico holandês Christian Eijkman (1858-1939),
pela qual receberia o PNQ de 1929. Em 1933, o químico americano Robert
Runnels Williams (1881-1961) conseguiu isolar uma substância que, por
conter uma molécula de enxofre do grupo “tio” e amina, seria chamada
de “tiamina”, nome químico da vitamina B1. A síntese da vitamina seria
obtida por Williams em 1937.
É interessante registrar que, devido às evidências de que certas
doenças, como o beribéri, o escorbuto e o raquitismo, ocorriam devido
à ausência de aminas na dieta alimentar dos doentes, o médico polonês,
naturalizado americano, Casimir Funk (1884-1967), sugeriu o nome de
vitamina (aminas da vida) para as substâncias que continham o grupo das
aminas nas moléculas.
O químico inglês Walter Norman Haworth (1883-1950) dedicou-se
ao estudo da estrutura dos açúcares, completando a obra de Emil
Fischer, inclusive representando suas moléculas em forma de anel (em
vez de colocar os átomos de carbono em linha reta). Essa representação
é conhecida hoje como fórmula de Haworth. Em 1929, publicaria A
Constituição dos Açúcares132. Em 1934, sintetizou a vitamina C (ácido
132 IHDE, Aaron J. The Development of Modern Chemistry.
264
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
ascórbico), vindo a receber, em 1937, o PNQ “por suas pesquisas em
carboidratos e vitamina C”. Nessa mesma época, o bioquímico suíço
Tadeus Reichstein (1897-1996, PNFM de 1950) sintetizaria a vitamina C.
Importantes contribuições daria o químico suíço Paul Karrer (1889-1971)
à Química Orgânica com suas pesquisas em carotenoides, flavinas e vitaminas.
Em 1931, esclareceu a estrutura do pigmento vegetal, particularmente do
carotenoide amarelo, o que levaria ao beta-caroteno, principal precursor da
vitamina A, cuja síntese obteve na mesma época do químico alemão Richard
Kuhn (1900-1967, PNQ 1938) e seu grupo. Karrer sintetizaria, em 1935, as
vitaminas B2 (riboflavina) e E (tocoferol). Karrer pesquisou, igualmente, as
flavinas, uma das quais, a lactoflavina, parte do complexo originalmente
chamado de vitamina B2. Escreveu mais de mil artigos sobre as vitaminas A, B2,
C, E e K, e publicou o Manual da Química Orgânica, em 1930.
A cortisona foi isolada, pela primeira vez, em 1936, pelo polonês
Tadeusz Reichstein (1897-1996), o que lhe valeria o Prêmio Nobel de
Fisiologia e Medicina de 1950.
Os biofísicos Henrik Dam (1895-1976) pela descoberta da vitamina
K, e Edward Adelbert Doisy (1893-1986), pesquisador na área dos
hormônios sexuais (tendo isolado estrona, estriol e estradiol, os três mais
importantes estrógenos produzidos no corpo humano), pela descoberta
da sua natureza química, dividiriam o PNFM de 1943. A vitamina K fora
isolada e sintetizada em 1939, por Dam133.
O químico croata Leopold Ruzicka (1887-1976), assistente de
Staudinger em Karlsruhe, acompanhou-o a Zurique, onde daria conferências
e cursos no Instituto Federal de Tecnologia. Em 1926, seria nomeado
professor de Química Orgânica na Universidade de Utrecht, e, após três
anos, retornaria a Zurique para assumir a cátedra de Química do Instituto.
Interessado pelos trabalhos pioneiros de Otto Wallach (1847-1931) sobre
terpenos, hidrocarbonetos encontrados em óleos essenciais de várias plantas
(conífera), Ruzicka pesquisaria a química dos terpenos, de grande interesse
para a indústria de perfumes, o que o colocaria em contato com grandes
empresas do setor (Haarmann & Reimer, da Alemanha, Ciba, da Suíça).
Ainda de grande utilidade industrial seriam suas investigações sobre as
substâncias almíscar e algália, tendo demonstrado que o anel de átomos de
uma continha 16 átomos de carbono e a outra, 17 átomos, o que até então
era considerado impossível, porquanto tornaria o anel demasiado instável134.
Ruzicka receberia o PNQ de 1939 por seus trabalhos sobre polimetilenos e
terpenos superiores.
133 134 IHDE, Aaron J. The Development of Modern Chemistry.
ASIMOV, Isaac. Gênios da Humanidade.
265
CARLOS AUGUSTO DE PROENÇA ROSA
Em 1939, equipe de químicos da Merck, Sharp & Dohme sintetizaria
a vitamina B6 (piridoxina).
Uma etapa importante na evolução da Síntese orgânica está
relacionada com os trabalhos de Robert Woodward. Em 1820, os químicos
franceses Joseph Pelletier (1788-1842) e Joseph Caventou (1795-1877)
isolaram a quinina da casca da chinchona (planta originária do Peru) e
a classificaram como um alcaloide, o que permitiu que a substância fosse
concentrada para a produção de medicamento. Cortado o suprimento
de quinina pela ocupação de Java e das Filipinas, pelos japoneses, e
confiscado o estoque da substância na Europa, ocupada pela Alemanha,
durante a Segunda Guerra Mundial, os governos dos países aliados se
confrontaram com uma situação difícil, na qual centenas de milhares de
soldados no front da África, do Sudeste asiático e do Pacífico Sul foram
vítimas da malária. Sem substituto adequado para a quinina no combate à
doença, tornou-se prioridade a busca da cura da malária.
O anúncio, em 1944, da produção em laboratório, de forma sintética,
de quinina, pelo químico americano Robert Burns Woodward (1917-1979), foi saudado como uma das grandes conquistas da Ciência contra as
enfermidades. Com doutorado no MIT, Woodward é reputado como um
dos mais importantes pesquisadores na área da Síntese orgânica, tendo seu
trabalho representado verdadeiro marco no processo de evolução do tema.
Além de quinina, Woodward sintetizou o colesterol (1951), cortisona (1951),
estricnina (1954), ácido lisérgico (1954), reserpina (1958), clorofila (1960),
tetraciclina (1962), colchicina (1963) e o antibiótico cefalosporina (1965). Em
1965, receberia o PNQ, “por sua extraordinária contribuição no campo da
Síntese Orgânica” e “pela síntese de esteróis, clorofila e outras substâncias
que se supunham produzidas apenas por seres vivos”. Desenvolveu, nos
anos de 1940, técnicas espectroscópicas, de forma a determinar a estrutura de
diversos produtos naturais complexos, como a penicilina (1945), a estricnina
(1947), a patulina (1948), a oxitetraciclina (1952), a cevina (1954), a carbomicina
(1956), a gliotoxina (1958) e a elipticina (1959). Nos anos 60 e 70, Woodward
faria uso da técnica da espectroscopia de infravermelho e da espectroscopia
nuclear de ressonância magnética. Uma de suas contribuições mais famosas e
importantes, com a colaboração do químico suíço Albert Eschenmoser (1925),
foi a síntese total da vitamina B12, em 1973, considerada marco na história da
Química Orgânica, tendo, no mesmo ano, com Roald Hoffmann, estabelecido
as chamadas “regras Woodward-Hoffmann” sobre a estereoquímica de
produtos de reações químicas. Woodward, por suas pesquisas nos anos 50
sobre a estrutura do ferroceno, com o químico inglês Geoffrey Wilkinson
(1921-1996), é pioneiro no campo da química dos compostos organometálicos.
266
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Em 1952, a morfina, fármaco narcótico do grupo dos opioides,
isolada, em 1804, pelo alemão Friedrich Wilhelm Sertuner, seria
sintetizada pelo químico americano Marshall Gates (1915-2003), professor
da Universidade de Rochester. A penicilina, descoberta em 1928 pelo
bacteriologista escocês Alexander Fleming, ao pesquisar os estafilococos,
não despertaria imediato interesse, vindo a ser produzida para fins
terapêuticos somente após as pesquisas do australiano Howard Florey
(1898-1968) e do alemão Ernst Chain (1906-1979) no início dos anos 40,
inaugurando a era dos antibióticos. A penicilina seria sintetizada, em
1957, por John C. Sheehan, professor do MIT.
A síntese do hidrocarboneto cubano, molécula em forma de cubo,
seria obtida, em 1964, pelo professor Philip Eaton (1936), da Universidade
de Chicago, e a síntese total do dodecaedrano seria realizada em 1983,
por Leo A. Paquette (1934) e sua equipe. O controvertido Paquette, do
Departamento de Química da Universidade Estadual de Ohio, é editor
da Enciclopédia de Reagentes para a Síntese Orgânica, volumosa publicação
sobre as diversas reações químicas.
O químico americano Edward Calvin Kendall (1886-1972, PNFM
de 1950) determinaria a estrutura química e obteria a síntese da cortisona,
em 1948.
Especial menção deve ser dada aos trabalhos de Elias James Corey
(1928), considerado como um dos mais brilhantes químicos do final do
século XX, por suas significativas contribuições ao desenvolvimento da
Síntese orgânica no campo da metodologia, reagentes e síntese total.
Nascido em Massachusetts, formou-se, em 1948, e doutorou-se, em 1951,
no MIT. Trabalhou na Universidade de Illinois, e, em 1959, transferiu-se
para Harvard como professor de Química Orgânica. Em 1990, foi laureado
com o Prêmio Nobel de Química pelo “desenvolvimento de teorias e
metodologias de sínteses orgânicas”, por meio de um processo inverso,
que se inicia pela estrutura da molécula alvo, examinando-se as ligações
a serem cortadas, uma a uma, simplificando, assim, sua estrutura, passo a
passo. Conhecidas a estrutura e a síntese de alguns desses fragmentos, se
inicia o processo de volta ao ponto inicial. A síntese da molécula é, agora,
possível135. No livro A Lógica da Síntese Orgânica (1989), Corey explicaria
seu método de análise retrossintética. Em 2004 recebeu a Medalha
Priestley. Corey desenvolveu vários reagentes sintéticos (como o PCC
e o PDC), participou do desenvolvimento de diversas reações, como a
Corey-Fuchs, a Corey-Winter, a Corey-House-Posner-Whitesides, a
Johnson-Corey-Chaykosky, a redução Corey-Bakshi-Shibata e a oxidação
135 Comunicado de Imprensa – PNQ de 1990.
267
CARLOS AUGUSTO DE PROENÇA ROSA
Corey-Kim, e realizou mais de uma centena de sínteses orgânicas, como a
da prostaglandina (1969), longifolene, lactacistina e miroestrol.
A reação conhecida como metátase, desenvolvida por Chauvin,
Grubbs e Schrock, nos anos 70, e que lhes valeria o PNQ de 2005, já foi
comentada na parte relativa às reações químicas.
Em 1982, Kyriacos Costa Nicolaou (1946), químico cipriota
naturalizado americano, obteria a síntese do taxol, substância de molécula
complexa, de uso no tratamento do câncer. A síntese total foi conseguida
em 1994, por Robert A. Holton, professor da Universidade da Flórida.
7.5.4.4 Macromoléculas
O estudo das macromoléculas, longas cadeias de átomos com
radicais diversos e múltiplas ramificações espaciais, que podem ser
criadas continuamente com a adição de novos ingredientes por métodos
de síntese orgânica, adquiriu grande importância na segunda metade do
século XX. Seu campo de aplicação, a indústria de plásticos e de resinas
sintéticas, ampliou-se para áreas da Biologia e da Medicina, estreitamente
vinculadas à determinação da origem elementar da vida. Seu estudo se
aproximou do estudo dos aminoácidos, alguns dos quais compõem as
substâncias presentes nos elementos mais simples dos seres vivos, que
incorporam, também, o código genético da transmissão hereditária. Além
das macromoléculas biológicas (peptídeos, proteínas e moléculas de ossos),
as macromoléculas de síntese resultam da polimerização de monômeros
ou da policondensação de moléculas plurifuncionais136. A pesquisa desse
campo, de crescente interesse e importância, deverá continuar como alta
prioridade da comunidade química no futuro previsível.
A primeira hipótese da existência de macromoléculas foi
desenvolvida em 1877 por Kekulé, que sugeriu poder haver substâncias
orgânicas naturais constituídas de moléculas de cadeias muito longas
com propriedades especiais. Pela originalidade e por contrariar conceitos
firmemente estabelecidos, a ideia não foi aceita pela comunidade científica.
Em 1893, Emil Fischer sugeriria que a estrutura da celulose natural
seria formada por cadeias constituídas por unidades de glicose e que os
polipeptídeos (proteínas) seriam longas cadeias de poliaminoácidos unidas.
O desenvolvimento da pesquisa na área dos plásticos conduziria
à descoberta das macromoléculas. Em 1907, Leo Baekeland desenvolveria
a resina baquelita. O químico alemão Hermann Staudinger (1881-1965),
136 COTARDIÈRE, Philippe de la. Histoire des Sciences.
268
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
que estudou nas Universidades de Darmstadt, Munique e Halle, onde
se formou em 1903, e lecionou em Estrasburgo, Karlsruhe e Zurique,
transferindo-se para a Universidade de Freiburg, em 1926, onde ensinaria
até sua aposentadoria, em 1951, sustentaria, em 1924, que os poliésteres
e a borracha natural possuíam estruturas químicas lineares, e criou o
termo “macromolécula”. Staudinger sustentaria que muitos produtos
naturais e todos os plásticos seriam constituídos por macromoléculas.
Por seus estudos pioneiros em macromoléculas, particularmente sobre
os mecanismos de polimerização de moléculas orgânicas, Staudinger
receberia, em 1953, o PNQ. Ainda nos anos 20 e 30, Wallace Carothers
(1896-1937) desenvolveria estudos sobre os poliésteres, o neoprene (1931)
e as poliamidas (1935).
Prosseguiriam, nas décadas seguintes, grandes avanços na
pesquisa da química dos polímeros, sendo que em 1953 seria descoberta
a polimerização pela reação estereoespecífica, por Karl Ziegler e Giulio
Natta, e o resultante PNQ de 1963. O químico americano Paul John Flory
(1910-1985), que iniciou sua carreira de pesquisador como assistente de
Wallace Carothers na Du Pont, autor, em 1953, do conceituado Princípios
da Química dos Polímeros, proporia a teoria da policondensação, recebendo
o PNQ de 1974 “pelas conquistas fundamentais, teóricas e experimentais,
na química das macromoléculas”.
Em prosseguimento aos trabalhos de Emil Fischer, Donald Cram
(1919-2001), professor da Universidade da Califórnia, Charles Pedersen
(1904-1989), da Du Pont, e Jean Marie Lehn (1939), da Universidade
Louis Pasteur, em Estrasburgo, laureados com o Prêmio Nobel de
Química de 1987 “pelo desenvolvimento do uso de moléculas com
interações estruturais específicas de alta seletividade”, criariam modelos,
em 1952, de indução assimétrica, relativa à formação numa reação
química de um enantiômero, fundamental para a síntese assimétrica.
Isto é, criariam estruturas orgânicas capazes de interagir com cátions
metálicos, mimetizando o comportamento de enzimas e proteínas137. O
químico John Warcup Cornforth (PNQ de 1975 em estereoquímica das
moléculas e reações químicas) criaria, igualmente, modelos sobre indução
assimétrica. A este novo campo de pesquisa, Lehn chamou de química da
supramolécula.
Nos anos 80 e 90, foram descobertas as macromoléculas de carbono,
denominadas fulerenos e nanotubos, que serão objeto de intensa pesquisa
no futuro. Comentários sobre o assunto constam da parte introdutória da
Química Orgânica.
137 Comunicado de Imprensa – PNQ de 1987.
269
CARLOS AUGUSTO DE PROENÇA ROSA
7.5.5 Bioquímica
A Bioquímica, área de interface entre a Química e a Biologia, é
considerada uma Ciência do século XX, uma vez que seu desenvolvimento
dependia diretamente da Química analítica, da Química Orgânica
e da Biologia, cujos avanços teóricos e laboratoriais específicos só
seriam obtidos a partir da segunda metade do século XIX. O grande
interesse despertado pelo assunto na comunidade científica explica seu
extraordinário progresso, alcançado num período relativamente curto, e
de profundo impacto na sociedade atual. O conhecimento da composição
química da célula (carboidrato, lipídio, proteína e ácido nucleico) e o
entendimento do processo vital em termos moleculares pelo estudo do
dinâmico processo químico (ação, reação, transformação) no interior das
células e de suas inter-relações complexas, seriam conseguidos ao longo
do século XX e do atual, por meio de intrincadas e intensas investigações,
em prosseguimento aos estudos pioneiros iniciados no período anterior.
Assim, importantes descobertas do século XIX poderiam ser citadas
como antecedentes da Bioquímica. Dessas significativas pesquisas de
químicos e biólogos, caberia mencionar, a título exemplificativo, a síntese
da ureia, em 1828, por Friedrich Wöhler; do ácido acético, em 1843/44 por
Adolph Kolbe; dos corpos graxos, álcool etílico, ácido fórmico e metano,
nos anos 50, e acetileno, etileno e benzeno, nos anos 60, por Marcellin
Berthelot; os estudos de Michel Chevreul, que demonstrariam serem as
gorduras constituídas de ácidos graxos e glicerol; os trabalhos de Emil
Fischer, no final do século, sobre a estrutura dos açúcares, aminoácidos e
gorduras; as pesquisas de Justus von Liebig sobre a aplicação da Química
na Agricultura e sobre os valores calóricos dos alimentos; a descoberta
do ácido proteico, em 1868, por Johann Friedrich Miescher; a descoberta
de Theodor Schwann, da origem biológica do processo de fermentação,
cuja origem microbiana seria demonstrada (1856/62) por Louis Pasteur;
a descoberta da “zimase”, por Eduard Büchner (PNQ de 1907 por seu
trabalho em fermentação não celular), como prova de a fermentação
ser causada por enzimas, sem necessidade de células vivas; e o uso de
métodos químicos por Claude Bernard para a solução de certos problemas
biológicos. Já no final do período, a teoria do vitalismo não tinha apoio na
comunidade científica, estando assentado que as leis químicas aplicáveis
às substâncias inorgânicas são igualmente válidas para a célula viva138.
A constituição do ramo da Bioquímica se deu ao longo do século
XX, por meio de uma série de formulações teóricas e de descobertas
138 PARTINGTON, James R. A Short History of Chemistry.
270
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
fundamentais para o entendimento do processo químico no organismo
vivo. O apoio recebido de instituições governamentais, de empresas
privadas, de centros de pesquisa e de acadêmicos, da comunidade
científica e do grande público, explica a condição privilegiada, no
período, das atividades de investigação da Bioquímica. A cooperação
entre químicos e biólogos na busca das respostas adequadas aos diversos
questionamentos seria, igualmente, fundamental para o avanço acelerado
do setor. O prestígio das atividades de pesquisa se refletiria na concessão
de prêmios de alto conceito, como os Prêmios Nobel de Química, de
Medicina e de Fisiologia, e a Medalha Priestley, confirmando o crescente
interesse e reconhecimento da Sociedade pelos benefícios advindos dos
trabalhos dos bioquímicos.
A evolução das pesquisas da Bioquímica será apresentada a seguir,
segundo as principais áreas de estudos e investigação, observando-se o
critério cronológico. A evolução das pesquisas sobre o DNA e o RNA será
tratada especificamente, tanto neste capítulo da Bioquímica, quanto no
capítulo da Biologia molecular, uma vez que é um marco fundamental na
evolução do conhecimento de ambas as Ciências.
7.5.5.1 Proteínas e Enzimas
A imensa contribuição do químico alemão Emil Hermann Fischer
(1852-1919) ao desenvolvimento da Química Orgânica se estendeu ao
campo das enzimas, proteínas que agem como catalisadoras em reações
bioquímicas. Suas investigações começaram na década de 1890 com vistas
a esclarecer a relação entre os aminoácidos produzidos pelas proteínas
quando decompostas por ácidos ou por certas enzimas e as proteínas.
Em 1907, ao sintetizar uma unidade de 18 aminoácidos, que chamara
de polipeptídio em razão de seu tamanho, estimou que as moléculas de
proteínas fossem muito grandes, com um limite superior de 5 mil para
seu peso atômico, e formadas por aminoácidos139. Em 1917, o químico
dinamarquês Sören Sörensen (1868-1939) calculou o peso molecular de 35
mil para a molécula de proteína da clara de ovo.
A principal atividade do químico sueco Theodor Svedberg (1884-1971),
professor da Universidade de Uppsala, esteve relacionada com a química dos
coloides e compostos macromoleculares, tendo, para tanto, desenvolvido,
em 1923, uma ultracentrifugadora. As macromoléculas da proteína, embora
entrando em solução, permaneceriam coloidais no que se refere às suas
139 RONAN, Colin. História Ilustrada da Ciência.
271
CARLOS AUGUSTO DE PROENÇA ROSA
propriedades, sedimentariam sem mistura na ultracentrifugadora, o que
permitiria obter, pela primeira vez, o exato peso molecular das proteínas e
conhecer sua estrutura. Para a hemoglobina, o peso molecular é da ordem de
68 mil. Por seus trabalhos em coloides e proteínas, Svedberg seria laureado
em 1926 com o Prêmio Nobel de Química.
Os químicos norte-americanos James Batcheller Sumner (1887-1955) e Wendell Meredith Stanley (1904-1971) “pela descoberta de que
as enzimas podem ser cristalizadas”, e John Howard Northrop (1891-1987), “pela preparação de enzimas e proteínas de vírus em forma pura”,
dividiriam o PNQ de 1946. Wendell Meredith Stanley cristalizou o vírus
mosaico do tabaco em 1935, e o da poliomielite, em 1954. James Sumner,
em 1926, obteria a cristalização da enzima urease (capaz de transformar
a ureia em gás carbônico e amoníaco), constatando ser a enzima uma
proteína, o que seria confirmado por Northrop, no início dos anos 30,
quando isolaria várias enzimas, como pepsina, tripsina, quimotripsina e
ribonuclease.
Outro químico sueco, Arne Wilhelm Tiselius (1902-1971), professor
na Universidade de Uppsala, e, por muitos anos, assistente de Svedberg,
pesquisou o fenômeno da eletroforese (movimento de partículas em
solução ou suspensão sob ação de um campo elétrico) nas proteínas,
em 1937, com um tubo especial em forma de U, que desenhara, no qual
as moléculas de proteínas podiam mover-se e separar-se. Com lentes
cilíndricas apropriadas, pôde Tiselius observar o processo de separação,
inclusive as variações no desvio da luz que passava pela suspensão. Essas
mudanças eram fotografadas, permitindo calcular a quantidade de cada
proteína na mistura. Quando não ocorria separação por eletroforese,
significava pureza da amostra da proteína. Por seu trabalho sobre
eletroforese e análise de adsorção, e, especialmente, pelas descobertas
relativas à natureza complexa das proteínas de soro, Tiselius receberia o
PNQ de 1948.
O bioquímico alemão, naturalizado americano, Fritz Albert
Lipmann (1899-1986), após abandonar a Alemanha, com a ascensão de
Hitler, trabalhou em Copenhague, na Fundação Carlsberg, e depois se
transferiu para os EUA, onde trabalhou em Cornell, em Harvard e no
Hospital Geral de Massachusetts, indo lecionar Bioquímica, no ano de 1958,
no Instituto Rockefeller, onde se aposentaria em 1970. Lipmann dividiria
o Prêmio Nobel de Medicina de 1953 com Hans Krebs, pela descoberta,
em 1947, da coenzima A e de sua importância para o metabolismo, pois,
como substância catalítica, envolve a conversão celular do alimento em
energia.
272
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Linus Pauling, já reconhecido na comunidade científica por seus
estudos pioneiros na área de ligações químicas, se dedicaria, igualmente,
ao exame das moléculas dos tecidos vivos, adiantando ser a estrutura
das moléculas de proteínas fibrosas em forma de hélice, semelhante
à estrutura dos ácidos nucleicos que viria a ser proposta por Watson e
Crick. Pauling estudaria também a estrutura das hemoglobinas anormais,
introduzindo a noção de distúrbios moleculares causados pela estrutura
anormal de uma molécula de proteína. Em 1954, receberia Pauling o PNQ
por seu trabalho em ligações químicas e sua aplicação para a elucidação
da estrutura de substâncias complexas140.
O bioquímico inglês Frederick Sanger (1918) é um dos quatro
cientistas a ter recebido dois Prêmios Nobel, sendo os outros Marie Curie
(Física, 1903, e Química, 1911), Linus Pauling (Química, 1954, e Paz, 1962),
e John Bardeen (Física, em 1956 e 1972). Formado e com doutorado pela
Universidade de Cambridge, Sanger demonstraria interesse por uma linha
de pesquisa para a determinação da estrutura da cadeia de aminoácidos
das moléculas das proteínas. A técnica da cromatografia do papel já estava
descoberta (1944) por Richard Synge e Archer John Martin, o que permitia
obter a separação dos aminoácidos e verificar sua quantidade na molécula
da proteína. O problema a ser resolvido era, agora, determinar a posição
exata de cada aminoácido na cadeia molecular. Tendo descoberto, em 1945,
um composto, conhecido como reagente de Sanger, que se ligava a uma
das extremidades de uma cadeia de aminoácidos, mas não à outra, seria
possível identificar qual aminoácido estivera na extremidade vulnerável,
separando-o pela cromatografia do papel e qual aminoácido tinha o
reagente ligado a ele. Sanger investigaria, então, a molécula da proteína
bovina insulina, isolada pelos fisiologistas canadenses Frederick Banting
(1891-1941) e Charles Herbert Best (1899-1978), em 1922. Constituídas
de cerca de 50 aminoácidos, distribuídos em duas cadeias interligadas,
Sanger identificaria as pequenas cadeias obtidas, estabelecendo a ordem
dos aminoácidos nas cadeias pequenas com o auxílio de seu reagente. Sua
conclusão seria a de que as cadeias maiores só podiam originar aquelas
cadeias mais curtas que ele havia descoberto. Após cerca de oito anos de
trabalho, construiu uma estrutura de longa cadeia, estabelecendo a ordem
exata dos aminoácidos em toda a molécula de insulina. Em 1958, receberia
Sanger seu primeiro PNQ “pela determinação da estrutura molecular de
proteínas, especialmente da insulina”.
O trabalho de Sanger teria um grande e imediato impacto na
química das proteínas, tendo sido decisivo para as investigações dos
140 Comunicado de Imprensa – PNQ de 1954.
273
CARLOS AUGUSTO DE PROENÇA ROSA
bioquímicos Max Ferdinand Perutz (1914-2002) e John Cowdery Kendrew
(1917), que dividiriam o PNQ de 1962 por seus estudos sobre as proteínas
globulares, as chamadas hemoproteínas. O austríaco Perutz, formado pela
Universidade de Viena, abandonaria seu país natal para fugir da ameaça
nazista e se fixaria na Grã-Bretanha, onde, com a ajuda de William Bragg,
trabalhou na Universidade de Cambridge, pesquisando a difração dos
raios-X nas proteínas. Obteve seu doutorado em 1940, mas permaneceria
preso durante toda a Segunda Guerra Mundial. Após o conflito, organizou
o Laboratório de Biologia Molecular da Universidade de Cambridge e se
dedicou ao trabalho de elucidação da estrutura detalhada da hemoglobina.
Depois da descoberta de Sanger, o passo seguinte seria estabelecer
como a cadeia de aminoácidos se ordenava exatamente dentro da molécula
da proteína e a posição exata de cada átomo. Em 1953, descobriria que ao
adicionar a cada molécula de proteína um átomo de um metal pesado
(ouro, mercúrio), alterava bastante o aspecto geral da difração. Dispunha,
agora, dos dados para deduzir, a partir da difração, a posição dos átomos
(a molécula da hemoglobina contém cerca de 12 mil átomos dos quais
metade são átomos de hidrogênio). Enquanto estudava a hemoglobina,
Perutz encarregou Kendrew, que com ele trabalhava em Cambridge desde
1949, de pesquisar a molécula menor de mioglobina, com cerca de 1.200
átomos. Seria mostrado, em 1960, que as proteínas globulares, apesar de
não formarem fibras, tinham, igualmente, moléculas com estrutura básica
em forma de hélice.
O bioquímico americano Robert Bruce Merrifield (1921-2006),
formado pela UCLA, se especializaria em peptídios, escreveria sua
autobiografia, The Golden Age of Peptide Chemistry (1993), escreveu famoso
artigo, em 1963, sobre método de síntese dos peptídios, e obteve, em
1969, a síntese da enzima ribonuclease A, o que provava a natureza
química das enzimas. Merrifield seria laureado com o PNQ de 1984 “pelo
desenvolvimento de um método para a síntese química de proteínas
complexas, numa matriz sólida”141.
Os bioquímicos alemães Johann Deisenhoffer (1943), Hartmut
Michel (1948) e Robert Huber (1937) dividiram o PNQ de 1988 por seus
trabalhos com cristalografia de raios-X sobre a estrutura tridimensional
de certas proteínas essenciais para a fotossíntese. A pesquisa revelaria,
também, certas similaridades dos processos de fotossíntese das plantas e
das bactérias.
Os bioquímicos Paul D. Boyer (1918), professor da Universidade
da Califórnia, e John E. Walker (1941), do Laboratório de Pesquisa de
141 Comunicado de Imprensa – PNQ de 1984.
274
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Biologia Molecular, em Cambridge, dividiriam o Prêmio Nobel de
Química de 1997 “pela descoberta de um mecanismo enzimático que
viabiliza a síntese de trifosfato de adenosina (ATP)”, com o dinamarquês
Jens C. Skou (1918), da Universidade de Aarhus, “pela descoberta
pioneira de uma enzima transportadora de íons ATP sintase ativada por
K+ e NA+”. Os estudos de Boyer e Walker tratam de como a enzima ATP
sintase catalisa a formação de ATP, a fonte mais importante de energia
química para todos os organismos vivos, de bactérias e fungos a seres
humanos. O ATP é produzido durante a respiração, processo pelo qual
as células produzem ATP a partir da energia armazenada em moléculas
provenientes de alimentos. Boyer propôs um mecanismo para a formação
de ATP a partir de ADP (difosfato de adenosina) e de fosfato inorgânico,
e Walker estabeleceu a estrutura da enzima e verificou o mecanismo
proposto por Boyer. Skou descobriu a enzima trifosfato de adenosina
estimulada por sódio e potássio, responsável pelo balanço de íons, sódio e
potássio nas células vivas142.
O americano Irwin Rose (1926), da Universidade da Califórnia, e
os israelitas Avram Hershko (1937) e Aron Ciechanover (1947), ambos do
Instituto de Tecnologia de Haifa, dividiram o Prêmio Nobel de Química
de 2004 pela contribuição para o estudo da degradação das proteínas,
por terem desvendado, em pesquisas realizadas nos anos 80, sobre
como ocorre o processo de degradação celular de proteína mediado por
ubiquitina. As proteínas, quando terminam seu “ciclo de vida”, precisam
ser eliminadas, a fim de evitar erros na multiplicação das células. A
molécula encarregada dessa eliminação é a ubiquitina, que se fixa a elas e
as conduz aos proteossomos, que as destroem. Esse verdadeiro processo
de controle de qualidade no organismo humano assegura seu bom
funcionamento. Quando falha, podem aparecer doenças, como a leucemia
e a fibrose cística.
As células estão separadas entre si e do meio extracelular por uma
membrana composta de uma camada dupla de lipídios, normalmente
impermeáveis à água (o mais abundante componente de todos os
organismos vivos), íons e outras moléculas polares. Em muitas ocasiões,
porém, tais entidades devem ser transportadas através da membrana, em
resposta a um sinal intra ou extracelular. O transporte da água se faz por
canais, encontrados em todos os organismos, da bactéria à espécie humana.
Nas plantas, por exemplo, são essenciais para a absorção de água nas raízes.
E no corpo humano, os canais são fundamentais quando moléculas de
água necessitam ser recuperadas de um fluido corporal, como no caso de
142 Comunicado de Imprensa – Prêmio Nobel de Química de 1997.
275
CARLOS AUGUSTO DE PROENÇA ROSA
concentração de urina nos rins. Estudos do século XIX e primeira metade
do século XX indicavam transporte de água em vários organismos e tecidos,
mas, até 1988, o próprio conceito de canal de água era controverso, e não
fora possível identificar uma proteína canal de água. Nesse ano de 1988,
Peter Agre (1949), bacharel em Química e doutor em Medicina, professor
de Química biológica na Universidade John Hopkins (esteve no Brasil
duas vezes para participar de congressos, em 2000 e 2003) e sua equipe
isolaram uma proteína, encontrada no rim, de função desconhecida. Após a
determinação da sequência de DNA, a conclusão foi a de que a proteína em
questão era um canal de água. A comparação de células com a proteína com
as que não a continham, colocadas numa solução aquosa, mostraria que as
células com a proteína em suas membranas absorviam a água por osmose, o
que não ocorria com as outras células. A partir dessa data, muitas proteínas
canais de água, conhecidas como aquaporinas (poros de água) foram
encontradas. Pesquisas de 2001 e 2002 mostram que somente moléculas de
água passam em fila indiana pelas membranas.
Por outro lado, desde 1925, era aceita e proposta a existência de
estreitos canais de íons, que transportariam sinais elétricos em tecidos
vivos, através da membrana celular. Nos anos de 1950, Alan Hodgkin (19141998) e Andrew Huxley (1917) sugeririam um modelo em forma de bastão
para a transmissão de impulsos elétricos ao longo de tecidos nervosos.
Pelo trabalho, receberiam o PNM de 1963. Estudos posteriores avançaram
no conhecimento de canais de íons, mas a determinação da estrutura da
proteína via método da cristalografia de raios-X se mostrava grande
desafio. Roderick MacKinnon (1956), formado em Química e Medicina,
professor em Harvard (1989) e depois na Universidade Rockefeller (1996),
pesquisador, desde 1997, do Instituto Médico Howard Hughes, começaria
a estudar o assunto nos anos 90, anunciando, em abril de 1998, como um
canal de íons que funcionava em escala atômica. Tais canais só difundem
seletivamente, através de seus poros, certos íons, como de potássio, sódio,
cálcio e cloreto. Tal seletividade no nível celular, resultante de um segmento
de aminoácidos e detectada pela cristalografia de raios-X, é responsável
pela existência de sinais elétricos, importante, assim, para controle do ritmo
cardíaco e da secreção de hormônios na corrente sanguínea e na geração de
impulsos elétricos no sistema nervoso143.
Em 2003, Agre e MacKinnon dividiriam o Prêmio Nobel de
Química pela descoberta de canais em membranas celulares, o primeiro
pelos canais para água em células humanas, e o segundo, pelos estudos da
estrutura e mecanismos dos canais para íons.
143 Comunicado de Imprensa – PNQ de 2003.
276
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.5.5.2 Ácido Nucleico – DNA e RNA
O bioquímico alemão Albrecht Kossel (1853-1927) ocupa
um lugar proeminente na etapa inicial do desenvolvimento da
Bioquímica, assunto a que se dedicara desde 1877, como assistente
de Ernst Félix Hoppe-Seyler (1825-1895), e depois, do fisiologista
Emil Du Bois-Reymond (1818-1896). Em 1879, começou a investigar a
substância nucleína, depois conhecida como ácido nucleico, isolada,
em 1869, pelo bioquímico suíço Johann Friedrich Miescher (18441895), que fora, igualmente, assistente de Hoppe-Seyler. Em suas
pesquisas, Kossel verificaria que a nucleína continha uma porção
de proteína e outra sem proteína pelo que poderia ser considerada
uma nucleoproteína, sendo sua porção sem proteína constituída
pelo ácido nucleico. Quando fragmentados os ácidos nucleicos,
constataria Kossel a presença de purinas e pirimidinas, compostos
que continham nitrogênio. Kossel isolaria duas purinas, a adenina
e a guanina, e três pirimidinas: a timina, a citosina e o uracil. Kossel
pesquisaria, ainda, proteína em espermatozoide, e seria o primeiro
a isolar a histidina, aminoácido codificado pelo código genético, e,
portanto, um componente das proteínas dos seres vivos. Por seus
trabalhos de grande significado para a compreensão da estrutura das
proteínas e do ácido nucleico, Kossel receberia, em 1910, o Prêmio
Nobel de Fisiologia e Medicina.
O bioquímico Phoebus Aaron Theodor Levene (1869-1940)
emigrou, com sua família, da Rússia para os EUA, em 1891, mas
regressaria a seu país natal para concluir o curso de Medicina. De volta
aos EUA, se formaria em Química pela Universidade de Colúmbia,
quando, então, abandonou a carreira de médico para se dedicar
totalmente à Química. Por influência do bioquímico alemão Albrecht
Kossel, passou Levene a se interessar pelos ácidos nucleicos, área na
qual daria importantes contribuições, como ao isolar e identificar
a fração carboidrato da sua molécula. Em 1909, demonstrou que o
açúcar ribose se encontrava em alguns ácidos nucleicos e provaria,
em 1929, que um açúcar, então desconhecido, a desoxirribose (ribose
com menos um átomo de oxigênio), poderia ser encontrada em outros.
Mais nenhum outro açúcar foi encontrado no ácido nucleico. Com
base nesses estudos, Levene sugeriria uma estrutura tetranucleotídeo,
sob as abreviaturas dos dois grupos, ARN (em inglês RNA – ácido
ribonucleico) e ADN (em inglês DNA – ácido desoxirribonucleico),
com os quatro compostos de nitrogênio (adenina, guanina, citosina
277
CARLOS AUGUSTO DE PROENÇA ROSA
e timina) mais carboidrato (açúcar) e fósforo. Com Levene ficaria
estabelecido, igualmente, que o ácido nucleico é uma genuína
molécula, independente da proteína144.
Alexander Todd (1907-1997), professor em Cambridge,
sintetizaria e descobriria a estrutura de todas as bases purina e
pirimidina do ácido nucleico, trabalho importante para confirmar a
sugestão de Levene sobre a base da estrutura tetranucleotídeo. Em
1957, Todd receberia o PNQ.
O bacteriologista Oswald Theodore Avery (1877-1955), em suas
pesquisas sobre as bactérias, descobriria, em 1944, que a substância
transformadora era o DNA, e não a proteína, antecedente importante para
a descoberta de Crick e Watson, nove anos depois, sobre a base química
da hereditariedade.
O bioquímico austríaco-americano Erwin Chargaff (1905-2002),
com doutorado pela Universidade de Viena (1928) e pesquisas no Instituto
Pasteur, em Paris, se dedicaria, após o anúncio de Avery sobre o papel do
DNA na hereditariedade, ao estudo de sua molécula, na suposição de que
deveria haver vários tipos de DNA. Utilizando a técnica da espectroscopia
ultravioleta e da cromatografia em papel, descobriria que o DNA era
constante numa espécie, mas que variava de uma para outra espécie. Em
1950, Chargaff anunciaria que, ao examinar as bases nitrogenadas nas
moléculas de ácido nucleico, constatara que a quantidade de unidades
adenina era equivalente ao de unidades timina, e que o número de
unidades guanina correspondia ao de unidades citosina. Esse trabalho de
Chargaff seria da maior utilidade à descoberta da estrutura do DNA por
Crick e Watson.
O ano de 1953 pode ser considerado marco significativo no processo
evolutivo da Bioquímica pelo esclarecimento da estrutura do DNA por
Francis Crick e James Watson, descoberta que lançaria as bases de uma
nova ciência, a Biologia molecular, misto de Química, Biologia e Física.
Os artigos de 25 de abril e de 30 de maio de 1953, na revista Nature, com a
explicação da estrutura em dupla hélice do DNA, devem ser entendidos
como um dos mais importantes acontecimentos científicos do século XX,
tanto pela culminação de conhecimento acumulado ao longo do caminho
percorrido, desde a descoberta do ácido nucleico por Miescher, em 1869,
com as contribuições decisivas de outros notáveis pesquisadores, como
Levene, Todd, Avery, Chargaff, Pauling, Perutz, Kendrew, Wilkins,
Sanger e Rosalind Franklin, quanto pelo tremendo e imediato impacto no
futuro desenvolvimento científico, em especial da Química e da Biologia.
144 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História.
278
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O americano James Dewey Watson e os ingleses Francis Crick e Maurice
Wilkins dividiriam o Prêmio Nobel de Fisiologia e Medicina de 1962 “pelas
descobertas relativas à estrutura molecular do ácido desoxirribonucleico,
o DNA”145.
Pouco depois, o espanhol naturalizado americano, Severo Ochoa
(1905-1993), da Universidade de Nova York, descobriria, em 1955, a
enzima catalisadora da formação do RNA, o que lhe permitiu criar um
RNA sintético a partir de um só nucleotídeo, e Arthur Kornberg (1918),
diretor do Departamento de Bioquímica da Universidade de Stanford,
que criou moléculas sintéticas de DNA, em 1956, pela ação de uma enzima
que catalisa a formação de polinucleotídeos, dividiriam o PNFM de 1959.
Ainda nos anos 40, o bioquímico de origem alemã, naturalizado
americano, Heinz Fraenkel-Conrat (1910-1999), com doutorado, em
1936, pela Universidade de Edimburgo, se notabilizaria pela pesquisa
em vírus que atacam e danificam a célula viva. Sua investigação sobre
o vírus mosaico do tabaco (TMV) é a mais conhecida. Fraenkel-Conrat
demonstraria que os vírus possuíam ácido nucleico e proteínas, e que
soluções de ácido nucleico podiam modificar certos aspectos físicos de
linhagens bacterianas, o que tornava os RNA, como o DNA, transportadores
das informações genéticas146. Em 1955, desenvolveu técnica para separar,
e depois unir, o ácido nucleico das proteínas virais, sem afetar suas
duas partes constitutivas, o que permitiu provar ser o ácido nucleico o
verdadeiro agente de infecção da célula. No interior da célula infestada,
o ácido nucleico determina o aparecimento de novas moléculas de ácido
nucleico semelhante e provoca o aparecimento de envoltórios proteicos
com as mesmas características das proteínas sintetizadas pela célula
infestada. Em 1960, com Wendell Stanley, anunciou a sequência completa
de 158 aminoácidos no vírus mosaico.
Christian B. Anfinsen (1916-1995), do Instituto Nacional de Saúde,
Bethesda, Maryland (EUA), seria laureado com metade do PNQ de 1972
por “seu trabalho em ribonuclease, referente à conexão entre a sequência
do aminoácido e a conformação biologicamente ativa”, e Stanford
Moore (1913-1982) e William Stein (1911-1980), ambos da Universidade
Rockefeller, em Nova York (EUA), dividiriam a outra metade do Prêmio
“por suas contribuições ao entendimento da conexão entre a estrutura
química e a atividade catalítica do centro ativo da molécula ribonuclease”147.
Anfinsen pesquisaria, desde os anos de 1950, o problema da relação entre
Comunicado de Imprensa – PNQ de 1962.
ASIMOV, Isaac. Gênios da Humanidade.
147 Comunicado de Imprensa – PNQ de 1972.
145 146 279
CARLOS AUGUSTO DE PROENÇA ROSA
função e estrutura nas enzimas. Em 1955, Sanger descobriu a sequência
de aminoácidos de proteína, feito que inspiraria os pesquisadores da
Universidade Rockefeller a investigar uma molécula maior, a da enzima
RNA. No final dos anos de 1960, Moore e Stein determinaram a sequência
de 124 aminoácidos na molécula de RNA, a primeira enzima a ser
analisada.
Conhecidos a estrutura do DNA e o mecanismo de produção de
proteínas, o grande desafio da Bioquímica passaria a ser a descoberta
do código genético. Cada combinação de três nucleotídeos ao longo
da cadeia de DNA equivalia a um aminoácido específico que nela se
inseria por intermédio do RNA-mensageiro. Em 1961, Marshall Warren
Nirenberg (1927), bioquímico americano do Instituto Nacional de Saúde,
utilizando um RNA sintético formou uma proteína que continha apenas
o aminoácido fenilalamina, o que significava o início da decifração do
código genético. Novas correlações seriam logo estabelecidas entre os
64 tripletos de DNA e RNA e os 20 (vinte) aminoácidos (fenilalamina,
treonina, leucina, serina, prolina, isoleucina, metionina, valina, alanina,
cisteína, triptofano, tirosina, arginina, histidina, glutamina, asparagina,
lisina, glicina, ácido aspártico e ácido glutâmico)148, e, na década dos anos
de 1980, já estava conhecido todo o código genético. O químico indiano-americano Har Gobind Khorana (1922-1993) sintetizaria os 64 tripletos de
nucleotídeos e o bioquímico Robert William Holley (1922-1993) anunciaria,
em 1965, ter estabelecido a sequência completa de 77 nucleotídeos de
RNA transportadores. Por essas contribuições ao desenvolvimento de
pesquisas sobre os mecanismos celulares para a herança genética, os três
pesquisadores receberiam o PNM de 1968.
Os avanços na Bioquímica até a descoberta de Crick e Watson,
em 1953, se limitaram ao campo do funcionamento do DNA em nível
molecular. Vinte anos depois, pesquisas levariam ao desenvolvimento do
“DNA recombinante”, isto é, uma molécula de DNA modificada criada
pela combinação do DNA de dois organismos não relacionados. O feito
foi realizado em 1972 pela equipe de Paul Berg, ao combinar o DNA
bacteriano e humano. A data é considerada, normalmente, como a do
início da Biotecnologia. A nova tecnologia e os organismos geneticamente
modificados teriam imediato impacto nos meios científicos e leigos,
suscitando, inclusive, muitos receios e preocupações em diversos setores
da opinião pública. Para debater o assunto, realizou-se a Conferência de
Asilomar, em 1975, na cidade de Pacific Grove, na Califórnia, assistida por
cientistas, advogados e personalidades interessadas no tema. A moratória
148 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História.
280
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
proposta levaria à adoção de mecanismos de controle dessa tecnologia.
Em 1980, receberia metade do PNQ por desenvolver métodos para mapear
a estrutura e função do DNA, isto é, “por seus estudos fundamentais
da bioquímica dos ácidos nucleicos, em particular sobre o DNA
recombinante”149. A outra metade do PNQ de 1980 seria dividida entre
William Gilbert (1932) e Frederick Sanger (1918) “por suas contribuições
relativas à determinação de sequências básicas em ácidos nucleicos”.
Nas décadas seguintes proliferariam, entretanto, os medicamentos
(insulina, reposição de glóbulos brancos, tratamento de hemofilia, combate
à rejeição ao transplante de rim) e os produtos alimentícios (arroz, tomate,
leite, soja, milho) geneticamente modificados, além da clonagem de
animais e mapeamento do genoma humano. A recombinação genética
seria uma tecnologia cada vez mais desenvolvida e aplicada, apesar de
persistirem os argumentos contrários à sua utilização.
As pesquisas sobre a regulação da síntese de enzimas em bactérias
mutantes levariam pesquisadores do Instituto Pasteur à formulação da
teoria sobre a movimentação, quando necessária, dos genes, descobrindo
o RNA-mensageiro, uma molécula intermediária na síntese da proteína,
que faz a intermediação entre o DNA e as proteínas. Nesse processo, seria
estudado o metabolismo das proteínas. Jacques Lucien Monod (1910-1976), André Lwof (1902-1994) e François Jacob (1920) receberiam o PNM
de 1965 “por pesquisas e descobertas relativas às atividades regulatórias
das células”.
O americano Kary Banks Mullis (1944), com doutorado pela
Universidade da Califórnia, Berkeley, e pesquisador, então, da empresa
de Biotecnologia Cetus Corp, por inventar, em 1983, a PCR (Polymerase
Chain Reaction), uma técnica desenvolvida que permite copiar, em
bilhões de vezes, em poucas horas, a sequência do DNA para propósitos
experimentais. Essa técnica é, hoje em dia, por exemplo, a mais utilizada
para investigação de paternidade.
O canadense Sidney Altman (1939), professor da Universidade de
Yale, e o americano Thomas Robert Cech (1947), professor de Bioquímica
da Universidade do Colorado, descobririam, em trabalhos independentes
(1963), propriedades catalisadoras no RNA, e dividiriam o PNQ de 1989.
A descoberta se refere a que o RNA consegue catalisar reações em sistemas
vivos, capacidade que era atribuída, anteriormente, apenas às proteínas e
enzimas.
Por ter descoberto, por meio de imagens de raios-X, como a enzima
RNA-polimerase funciona, ou, em outras palavras, por ter decodificado o
149 Comunicado de Imprensa – PNQ de 1980.
281
CARLOS AUGUSTO DE PROENÇA ROSA
processo de transcrição da informação genética do grupo de organismos
chamados eucarióticos, o bioquímico Roger David Kornberg (1947),
professor da Escola de Medicina da Universidade de Stanford (Califórnia),
recebeu o PNQ de 2006. De acordo com o comunicado de imprensa da Real
Academia de Ciências, o prêmio foi concedido “pelos estudos das bases
moleculares da transcrição celular em eucariotes (organismos de células
com núcleo definido) que explica o processo pelo qual a informação
genética do DNA é copiada pelo RNA”150. O trabalho de Kornberg se
refere à síntese proteica a partir da transcrição genética, e descreve como
a informação genética é copiada do DNA para o RNA-mensageiro, que,
por sua vez, carrega a informação para fora do núcleo da célula de modo
que possa ser usada na construção das proteínas essenciais às células e
ao organismo. O processo é catalisado pela enzima RNA-polimerase. O
trabalho representa importante contribuição para os futuros avanços no
campo da Genética. Seu pai, Arthur Kornberg (1918), dividira, em 1959, o
PNM com Severo Ochoa, por ter descoberto a síntese biológica do DNA.
7.5.5.3 Carboidrato
Dentre as várias e importantes contribuições do químico Emil
Hermann Fischer para o desenvolvimento da Química Orgânica, devem
ser ressaltados seus trabalhos pioneiros e extensos estudos, iniciados na
década de 1880, sobre carboidratos, consequência de suas pesquisas com
as enzimas. A fenilhidrazina, descoberta (1875) que lhe daria fama, seria
usada por Fischer, a partir de 1884, para isolar açúcares em forma pura e
estudar suas respectivas estruturas. Em 1887, obteve a síntese da frutose,
e depois, da manose e da glicose, compostos com a mesma estrutura, mas
com propriedades diferentes, e mostrou como distinguir as 16 formas
diferentes, dependentes das ligações entre os átomos, em que podiam
apresentar-se os açúcares. Em suas pesquisas estereoquímicas, descobriu,
ainda, que havia duas séries de açúcares, a que chamou de açúcar D e
açúcar L, cada qual imagem em espelho da outra. Fischer seria laureado
com o Prêmio Nobel de Química de 1902 por seus trabalhos na estrutura e
síntese de açúcares e outras substâncias orgânicas, como a purina.
Arthur Harden (1865-1940), bioquímico inglês, pesquisou a ação
química das bactérias e a fermentação alcoólica. Estudou as células
da levedura e escreveu uma série de artigos sobre vitaminas. Sobre os
mesmos temas, pesquisou, na mesma época, o bioquímico sueco Hans Karl
150 Comunicado de Imprensa – PNQ de 2006.
282
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
August von Euler-Chelpin (1873-1964), professor de Química Orgânica
da Universidade de Estocolmo (1906-1941) e diretor de seu instituto
de pesquisa, de 1938 a 1948. Pesquisou as enzimas e as coenzimas, em
particular, sua ação na fermentação do açúcar. Em 1914, escreveu um
livro sobre a química da levedura e a fermentação alcoólica, e, em 1934,
uma monografia sobre a Química das Enzimas. Harden e Euler-Chelpin
dividiriam o PNQ de 1929 “por suas pesquisas em fermentação de
açúcares e as enzimas relacionadas”151.
Walther Norman Haworth (1883-1950) “por suas pesquisas sobre
as estruturas químicas dos carboidratos e a vitamina C” e Paul Karrer
(1889-1971) “pelas investigações em carotenoides, flavinas e vitaminas
A e B2” dividiriam o PNQ de 1937. Haworth iniciou suas pesquisas
sobre carboidratos, inclusive açúcar, celulose e amido, em 1915, tendo
descoberto que os átomos de carbono do açúcar têm uma configuração
de anel. Em 1929, publicou A Constituição dos Açúcares, que se tornaria um
texto clássico sobre o assunto.
O casal Gerty Theresa (1896-1957) e Carl Ferdinand Cori (18961984), bioquímicos nascidos em Praga, naturalizados americanos em
1928, dividiriam metade do PNFM de 1947 “pela descoberta da conversão
catalítica do glicogênio”, ou seja, como o glicogênio, um derivado da
glicose, é decomposto e ressintetizado no corpo para servir como fonte de
energia. Durante a pesquisa (década de 1930), descobriram uma substância
– glicose-l-fosfato, responsável pela pouca perda de energia. O argentino
Bernardo Alberto Houssay (1887-1971), médico e farmacêutico, professor
da Faculdade de Ciências Médicas de Buenos Aires, receberia a outra
metade do PNFM pela “descoberta da função do hormônio pituitário no
metabolismo do açúcar”, isto é, descobriu o significado do metabolismo dos
hidratos de carbono em relação ao lóbulo anterior da hipófise. O trabalho de
Houssay seria importante para se avançar na luta contra o diabetes.
Hans Adolf Krebs (1900-1981) descobriria, em 1937, o chamado
ciclo de Krebs, uma continuação do trabalho dos Cori, que mostraram
como carboidratos, no caso o glicogênio, são decompostos no corpo em
ácido láctico. Krebs completaria o processo, pesquisando como o ácido
láctico era metabolizado em dióxido de carbono e água, seguido por uma
série de reações químicas. Por seu trabalho, que resultou na descoberta
do ciclo do ácido cítrico no metabolismo dos carboidratos, Krebs seria
laureado com o PNFM de 1953.
O bioquímico sueco Axel Hugo Theorell (1903-1982), professor
de Bioquímica na Universidade de Uppsala e pesquisador do Instituto
151 Comunicado de Imprensa – PNQ de 1929.
283
CARLOS AUGUSTO DE PROENÇA ROSA
Kaiser Guilherme (1933-35), investigou, com Otto Warburg, as enzimas
que catalisam reações de oxidação, semelhantes à enzima amarela,
descobrindo que consistem de duas partes, e que a coenzima oxida glicose
pela remoção do átomo de hidrogênio. Estabeleceu, ainda, conexão entre
coenzimas e vitaminas. Theorell recebeu o PNM de 1955 pelas pesquisas
sobre a natureza e modo de ação das enzimas oxidantes e seus efeitos.
O bioquímico argentino Luis Frederico Leloir (1906-1987),
pesquisador do Instituto de Biologia e Medicina Experimental de Buenos
Aires, apresentaria, em 1957, um mecanismo de sintetização do glicogênio,
distinto do demonstrado pelos Cori, com quem trabalhou nos EUA
(1944/45). Sua pesquisa daria uma completa explicação do processo de
biossíntese do açúcar e da armazenagem do glicogênio no corpo humano.
Em 1948, identificou uma coenzima fundamental no metabolismo dos
hidratos de carbono, o que lhe permitiria dar uma explicação real e total
de todo o processo. Em 1970, receberia Leloir o PNQ “pelos estudos sobre
a metabolização e a estocagem dos açúcares no organismo humano e suas
regras sobre a biossíntese dos carboidratos”152.
7.5.5.4 Metabolismo
O termo metabolismo, derivado da palavra grega metabolé, troca, é
empregado para denominar um conjunto de funções orgânicas (digestão,
respiração), das quais resulta o fenômeno da vida. Nas células vivas,
(constituídas de água, sais minerais, carboidratos, lipídio (gordura) e
proteína), ocorrem, assim, alterações químicas, um processo dinâmico
de ações, reações e transformações químicas. A estrutura da célula é,
por conseguinte, instável, continuamente em mudança, em desgaste. As
trocas metabólicas suprem a energia e o calor despendidos. As reações
bioquímicas dos seres vivos dependem das enzimas, catalisadores de
natureza proteica que aumentam a velocidade das reações. Todo esse
processo é denominado metabolismo intermediário da célula, área da
Bioquímica de intensa atividade de pesquisa, principalmente na primeira
metade do século XX, com os trabalhos sobre a importância da reposição
calórica e energética proporcionada pelos glicídios, lipídios, proteínas,
sais minerais, vitaminas e hormônios.
O bioquímico alemão Adolf Butenandt (1903-1995) foi laureado
com o PNQ de 1939, junto com o suíço Leopold Ruzicka (1887-1976),
por suas contribuições sobre hormônios sexuais. Isolou a estrona, em
152 Comunicado de Imprensa – PNQ de 1970.
284
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
1929 (no mesmo ano que Edward Adelbert Doisy), um dos hormônios
responsáveis pelo desenvolvimento sexual das fêmeas, o androsterona, em
1931, hormônio sexual do homem, e, em 1934, o hormônio progesterona,
importante no ciclo reprodutivo da fêmea. Ruzicka demonstrou que o
colesterol poderia transformar-se em androsterona, e, com Butenandt,
sintetizou a progesterona e a testosterona.
Otto Fritz Meyerhof (1884-1951), por suas pesquisas em
metabolismo do músculo, em particular a produção de ácido láctico no
tecido muscular como resultado da quebra do glicogênio sem consumo de
oxigênio, dividiria o PNFM de 1922 com Archibald Hilll (1886-1977), por
suas investigações para a determinação da quantidade de calor produzida
durante a ação muscular.
Otto Heinrich Warburg (1883-1970), que desenvolveu (1923) o
manômetro, destinado a medir a taxa de oxigênio ingerido pelo tecido
humano, receberia o PNFM de 1931 por suas pesquisas relativas à
respiração celular, que demonstrariam o papel do citocromo, enzima
respiratória, elucidando a estrutura de certos fatores no processo de
fermentação. Ainda em 1923, estudou o processo metabólico de células
cancerosas, descobrindo que essas células consomem muito menos
oxigênio que as saudáveis.
O húngaro Albert Szent-Gyorgyi (1893-1986), por suas
contribuições para o entendimento dos processos de combustão biológica,
particularmente do papel de alguns compostos orgânicos, em especial da
vitamina C, na oxidação de nutrientes pela célula, receberia o PNFM de
1937153. Em 1928, isolou das glândulas suprarrenais, e da couve e da laranja,
a substância sob estudo que viria a ser chamada de ácido ascórbico. Em
1932, demonstraria ser a substância igual à vitamina C, que fora isolada
por Charles Glen King (1896-1988), mas anunciada duas semanas antes.
Estudou Szent-Gyorgyi a bioquímica da ação muscular e descobriu uma
proteína no músculo a que chamou de actina. Isolou algumas flavonas.
Interessou-se pela glândula timo e demonstrou sua participação no
estabelecimento inicial da capacidade imunológica do corpo.
A demonstração, em 1941, de que o gene afeta quimicamente
a hereditariedade, e de que cada gene determina a estrutura de uma
específica enzima, a qual permite que uma única reação química ocorra,
valeria a George Wells Beadle (1903-1989), geneticista americano, e Edward
Lawrie Tatum (1909-1975), bioquímico americano, o PNFM de 1958. Esse
conceito de “um gene-uma enzima” introduzia a Genética no estudo da
Bioquímica de micro-organismos. Uma mutação ocorria quando um gene
153 Comunicado de Imprensa – PNFM de 1937.
285
CARLOS AUGUSTO DE PROENÇA ROSA
era alterado, não sendo mais capaz de formar uma enzima normal, ou
mesmo nenhuma enzima. Nesses casos, alguma reação química deixava
de ocorrer, rompia-se a sequência de reações e uma mudança radical
poderia ocorrer nas características físicas do organismo. Suas pesquisas
foram com um organismo bastante simples, o mofo chamado neurospora,
vindo a deduzir a sequência de reações químicas que levavam à formação,
dentro do mofo, do composto necessário a seu crescimento. Beadle e
Tatum publicariam, em 1941, O Controle Genético das Reações Químicas no
Neurospora.
O bioquímico polaco-suíço Tadeus Reichstein (1897-1996)
investigaria, nos anos 30, a química da adrenalina. Em 1946, já havia
isolado 29 diferentes esteroides, e, em 1933, sintetizou a vitamina C.
Pelo desenvolvimento de pesquisas sobre os hormônios da glândula
suprarrenal, sua estrutura e efeitos biológicos, e o isolamento da cortisona,
receberia Reichstein o PNFM de 1950, que dividiria com os bioquímicos
americanos Edward Calvin Kendall (1886-1972) e Philip Showater Hench
(1896-1965), que investigaram nessas mesmas áreas.
Feodor Lynen (1911-1979), bioquímico alemão, e Konrad Emil
Bloch (1912-2000), bioquímico alemão, naturalizado americano, que, em
1936, pesquisaram o metabolismo e a biossíntese (síntese natural) do
colesterol e dos ácidos graxos, dividiriam o PNFM de 1964. Ainda com
respeito ao colesterol, os geneticistas moleculares Michael S. Brown (1941)
e Joseph Leonard Goldstein (1940) dividiriam o PNFM de 1985 pela
elucidação do processo do colesterol no corpo humano.
George Wald (1906-1997) estudaria a química da visão, descobriria
que a vitamina A é um ingrediente vital para os pigmentos na retina e que a
cegueira das cores é causada pela falta de um dos três pigmentos sensíveis
à cor azul, amarelo e vermelho. Wald dividiria o PNFM de 1967 com
Haldan Keffer Hartline (1903-1983) por seus estudos sobre os mecanismos
da neurofisiologia da visão, e com Ragnar Arthur Granit (1900-1991),
fisiologista, pelos estudos sobre as mudanças elétricas internas do olho
quando exposto à luz.
Julius Axelrod (1912-2004), bioquímico americano, e Bernard Katz
(1911-2003), fisiologista, alemão de nascimento e naturalizado inglês,
pela identificação da enzima que degrada os transmissores químicos dos
nervos, e o sueco Ulf von Euler (1905-1983), que identificou a noradrenalina,
neurotransmissor chave no sistema nervoso simpático, dividiriam o PNFM
de 1970. As pesquisas dos três foram independentes uma das outras.
A ação dos hormônios foi pesquisada por Earl Wilbur Sutherland
(1915-1974), farmacologista e fisiologista americano. Em 1971, receberia
286
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
o Prêmio Nobel de Fisiologia ou Medicina pelo isolamento, em 1956, do
monofosfato de adenosina cíclico e a demonstração de seu envolvimento
em vários processos metabólicos nos animais.
O endocrinologista Andrew Victor Schally (1926) por isolar e
sintetizar o hormônio sintetizado pela glândula hipotálamo e as atividades
de outras glândulas produtoras de hormônios, e o fisiologista Roger
Charles Louis Guillemin (1924) pelas pesquisas a respeito da produção de
hormônio pelo hipotálamo, dividiriam PNFM de 1977.
A neurologista italiana Rita Levi-Montalcini (1909) e o bioquímico
americano Stanley Cohen (1922) dividiriam o PNFM de 1986 pelas
pesquisas sobre substâncias químicas produzidas no corpo, que
influenciam o desenvolvimento dos tecidos dos nervos e da pele.
7.6 Biologia
A profunda e recente transformação pela qual passou a Biologia
explica sua posição central no processo atual de desenvolvimento
científico. Submetida, durante longo tempo, a teorias, doutrinas e
noções de ordem especulativa e arbitrária, sem qualquer fundamentação
experimental e metodológica para a explicação dos fenômenos biológicos,
a Biologia apenas emergiria recentemente, como uma Ciência estruturada,
dotada de metodologia científica e no processo de expurgar preconceitos
e dogmas de cunho sobrenatural. Somente na segunda metade do
século XIX, seriam formulados princípios, leis e conceitos baseados em
observações, investigações e comprovações, sem resquícios dogmáticos
e pré-determinados, para o entendimento dos fenômenos biológicos. A
Biologia entraria, assim, numa nova era cheia de realizações e importantes
avanços teóricos e experimentais. Por seu impacto na melhoria das
condições de vida da população, suas atividades seriam acompanhadas
com crescente interesse pelo público em geral, o que lhe traria prestígio e
notoriedade.
O exame da evolução recente da Biologia mostra que a característica
diferencial, em relação a épocas anteriores, se deve ao surgimento de
duas novas áreas que revolucionariam não só a Biologia, mas toda a
Ciência, na medida em que influenciariam, por seu desenvolvimento,
o pensamento científico moderno. A Evolução Biológica e a Genética,
contribuições científicas pioneiras de Charles Darwin e Gregor Mendel,
que rivalizariam na História da Ciência com as de um Copérnico, de um
Galileu, de um Newton, de um Lavoisier, de um Planck ou de um Einstein,
287
CARLOS AUGUSTO DE PROENÇA ROSA
marcariam o início de uma nova fase, que transcende ao da Biologia para
significar paradigmas da Ciência Moderna. Esses dois ramos científicos se
constituiriam, de imediato, nos mais fecundos e mais importantes setores
de pesquisa da Biologia na atualidade. Com o famoso título do célebre
artigo Nada em Biologia faz sentido, exceto à luz da Evolução (1973), o biólogo
russo-americano Theodosius Dobzhansky sintetizaria a importância da
Evolução para a Ciência biológica.
Ao dar um tratamento científico à questão da evolução da espécie
animal no planeta, Darwin traria uma explicação, nova e revolucionária,
para um tema até então supostamente pacífico e incontroverso. O
acalorado debate resultante do conflito fundamental entre o criacionismo
e o evolucionismo reflete a confrontação inevitável entre a concepção
teológica e a científica sobre a origem da espécie, a qual perdura por
todo o período, devendo prosseguir ainda por muito tempo. Apesar do
abandono das ideias do vitalismo, da geração espontânea e do fixismo
diante das evidências experimentais, o que representa o sucesso do
espírito positivo sobre o especulativo, o evolucionismo, ou melhor, a
teoria darwinista seria, e continua a ser, alvo de crítica de setores do meio
científico e de grande segmento da opinião popular, ainda influenciados
por considerações religiosas e preconceituosas. O aprimoramento ou
refinamento da teoria darwinista, com os conhecimentos adquiridos por
meio da Genética, resultaria na formulação, nos anos 40, da chamada
Síntese Evolutiva, cujos princípios e conceitos passariam a predominar no
tema da evolução da espécie animal.
O incomparável sucesso da teoria evolucionista não foi capaz,
porém, de vencer a resistência de certos círculos apegados ainda à
metafísica e a forças ocultas para explicar os fenômenos biológicos; dessa
forma, a polêmica atualmente não se refere mais à Evolução biológica
da espécie, mas à sua origem, que alguns círculos da Sociedade ainda
pretendem que seja divina. O debate se transferiu, assim, do campo da
Ciência para o da Metafísica, fora, portanto, do âmbito deste trabalho.
O novo ramo científico, denominado Evolução Biológica, ou
simplesmente, Evolução, por suas características próprias e área de
investigação, teria de adotar metodologia diferente da das chamadas
Ciências Exatas e de outros setores da Biologia, como a Anatomia,
a Fisiologia, a Citologia ou a Embriologia, passíveis de observação,
experimentação, comparação e comprovação. Na impossibilidade de
reproduzir as condições naturais prevalecentes em épocas pretéritas
e adotar a experimentação em suas pesquisas, recorre a Evolução,
principalmente, a conceitos (seleção, filogenia, competição, biopopulação,
288
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
biodiversidade, ecossistema, adaptação, etc.) e ao método comparativo
histórico, de evidências, a fim de estabelecer a teoria capaz de explicar
o processo evolutivo gradual, pela seleção natural, da espécie animal.
Constitui-se a Evolução biológica, por conseguinte, num ramo muito
particular da Biologia.
A redescoberta, em 1900, da obra de Mendel, seria um marco
fundamental na história da Biologia por sua excepcional importância no
esclarecimento de uma série de fenômenos biológicos e por seu impacto
em vários ramos da Ciência e no pensamento científico atual. Fruto de
um paciente e meticuloso trabalho experimental, a Genética se firmaria
no meio científico sem suscitar a controvérsia da teoria darwinista. Além
de estabelecer as leis da hereditariedade (lei da segregação dos fatores e
lei da segregação independente), Mendel seria o primeiro a se utilizar da
estatística em Biologia. Em poucas décadas, se transformaria a Genética
numa das áreas de maior interesse investigativo, e seu progresso teórico e
experimental teria grande impacto na melhoria das condições de vida das
populações, nos hábitos dos indivíduos e na mentalidade de segmentos
sociais; em 100 anos apenas, o trabalho de Mendel evoluiria a ponto, por
exemplo, de viabilizar o desenvolvimento da clonagem do embrião adulto
e a descoberta do sequenciamento do genoma humano. Na segunda
metade do século XX, já era uma das mais importantes áreas de pesquisa
científica, e a extensa premiação, inclusive Nobel de Fisiologia e Medicina
(PNFM), concedida aos seus pesquisadores, demonstra a prioridade
concedida e a importância reconhecida pela comunidade internacional ao
ramo da Genética.
As tradicionais áreas de competência da Biologia continuariam a
ser objeto de investigação, beneficiando-se, inclusive, de avanços em outros
ramos científicos, como na Bioquímica, da inovação e aperfeiçoamento
de instrumentos, como o microscópio eletrônico, e de novas técnicas e
métodos, como a ressonância magnética. Assim, a Fisiologia, a Citologia,
a Embriologia, a Microbiologia e a Taxonomia continuariam a dar
importantes contribuições para a compreensão dos fenômenos biológicos.
Dos diversos sistemas ou aparelhos do corpo humano (digestivo,
respiratório, circulatório, ósseo, muscular e outros), o menos pesquisado,
e, por conseguinte, o menos compreendido, até meados do século XIX,
era o sistema nervoso. Num período histórico considerado como o século
do conhecimento, seria natural que a pesquisa do cérebro viesse a se
transformar numa das prioridades do meio científico. A complexidade do
sistema nervoso (central e periférico) aguçaria ainda mais o interesse pelo
entendimento do funcionamento do cérebro, iniciado, praticamente, com
289
CARLOS AUGUSTO DE PROENÇA ROSA
os trabalhos pioneiros de Franz Josef Gall. Objeto de particular atenção
e prioridade investigativa da Biologia, o exame do sistema nervoso,
de grandes avanços no século XX, mas ainda insuficientes para sua
compreensão adequada, teria como desdobramento e reconhecimento
de sua importância a estruturação de um novo ramo da Ciência, a
Neurociência, o que contribuiria para mobilizar a comunidade científica
num continuado esforço de promissores resultados em curto prazo. A
Genética e a Neurociência serão, provavelmente, as duas grandes áreas de
atividade de pesquisa na Biologia nos próximos decênios.
A nova característica da pesquisa biológica, ao envolver vultosos
recursos financeiros, grandes e dispendiosos laboratórios, técnicos em
diversas disciplinas, explica o mediato deslocamento do principal centro
investigativo, que se localizava, tradicionalmente, na Europa ocidental,
para os EUA, a partir do final dos anos de 1940. Alemanha, França e Grã-Bretanha continuariam na liderança da pesquisa biológica nas primeiras
décadas do século XX, por meio de seus excelentes centros de estudo e
investigação (universidades, laboratórios de empresas, Instituto Kaiser
Guilherme, Instituto Pasteur), servindo, inclusive, como polo de atração
para estudiosos de todo o mundo. Nessa fase, outros países europeus, em
particular a Suécia, os Países Baixos, a Rússia (depois a URSS), a Itália, a
Áustria, a Suíça e a Bélgica dariam, igualmente, contribuições relevantes
em diversos ramos da Biologia; já, então, era significativo o aporte dos
cientistas americanos, principalmente em Genética e Fisiologia.
A implantação do regime nazista na Alemanha, e consequente
fuga de cérebros e destruição da rede de estabelecimentos de
ensino e de pesquisa, durante a Segunda Guerra Mundial, seriam
fatores determinantes para que os EUA assumissem a liderança
na pesquisa biológica, uma vez que dispunha da única, eficiente
e competente infraestrutura capaz de continuar, no curto prazo,
a obra de desenvolvimento científico. A retomada da pesquisa
competitiva
pelos
grandes
centros
europeus
(Alemanha,
Grã-Bretanha, França, Suécia, Países Baixos e URSS) se daria a partir
dos anos de 1970, quando começaria a dar frutos o desenvolvimento
de atividades dos centros de investigação e de ensino devido aos
grandes investimentos, por parte de importante número de empresas,
e à conjugação de esforços em nível empresarial e governamental. O
Japão ingressaria, também, a partir dos anos 70, na lista dos países com
relevantes contribuições à pesquisa biológica, graças a seu extraordinário
esforço para superar o período de reconstrução econômica do Pós-Guerra; o papel das universidades e das grandes corporações seria
290
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
decisivo para colocar o Japão como um dos centros mais avançados
da investigação biológica. O Canadá e a Austrália fariam importantes
investimentos em pesquisas, com excelentes resultados, colocando-se
como centros de referência no ramo da Biologia.
A pesquisa em Biologia não se limitaria aos países antes citados, posto
que se tornaria universal o interesse em desenvolvê-la por sua importância
estratégica, social, econômica e tecnológica. A Índia e a China na Ásia, a
República Sul-Africana, o Brasil, a Argentina e o México, na América Latina,
criariam centros de pesquisa e de estudos, e incentivariam inversões públicas
e privadas com o objetivo de estabelecer uma infraestrutura que permitisse a
formação de biólogos e o desenvolvimento de pesquisa, e, no futuro próximo,
propiciasse sua contribuição, igualmente, para o grande avanço teórico e
experimental em escala universal; nesse sentido, grande progresso foi realizado
nos últimos anos, como atesta a participação de vários centros de pesquisa,
desses países, em projetos de caráter internacional, como o do genoma humano.
Um grande número de países possui, hoje em dia, centros de
pesquisa, muitos de renome internacional, responsáveis, em parte, pelos
avanços experimentais em Biologia. Vários desses laboratórios pertencem
a instituições públicas ou corporações privadas, muitos são dependências
de estabelecimentos de ensino, e diversos estão vinculados a empresas
industriais; alguns centros são de caráter nacional, outros, internacional.
De um grande número de instituições que aqui poderiam ser citadas, a
menção de algumas é suficiente para ilustrar o assunto, como o Instituto
Nacional de Genética, do Japão; o Instituto de Genética e Biofísica Adriano-Buzzati-Traverso (Nápoles); o Instituto de Citologia e Genética (da divisão
da Sibéria, da Academia de Ciências da Rússia); The Institute for Genomic
Research-ITIGR (Rockville, EUA); o Instituto de Genômica, de Pequim;
o Instituto de Ciências Moleculares (Berkeley); o Sanger Institute (Grã-Bretanha); o Instituto Max Planck (Alemanha); o Instituto de Tecnologia
da Califórnia – Caltech (Pasadena); as Carnegie Institutions; o Instituto
Karolinska (Estocolmo); o Instituto de Biologia Molecular (Roma); o Roslin
Institute (Escócia); o Instituto Pasteur (França); o Laboratório Cavendish
(Grã-Bretanha); a Academia de Ciências da Rússia; e a Organização do
Genoma Humano. Dentre as muitas universidades com departamentos
especializados em pesquisa biológica, caberia citar as de Stanford, MIT,
Rockefeller, Harvard, Yale, Princeton, Johns Hopkins, Louvain, Haia,
Oxford, Viena, Gotemburgo, Basileia, Zurique, Paris, Montreal, Tóquio,
Kyoto, Pequim, Xangai e Sydney.
Como nos demais ramos da Ciência, foram criadas, nos diversos
países, associações e sociedades sem fins lucrativos, com o objetivo
291
CARLOS AUGUSTO DE PROENÇA ROSA
de promover o estudo, facilitar a cooperação entre os pesquisadores
e incentivar a participação de associados em seminários e conferências
especializadas sobre temas de Biologia. Como exemplos, são mencionadas,
a seguir, algumas dessas entidades, como a Sociedade Americana de
Microbiologia; a Sociedade Francesa de Biologia Teórica; a Sociedade
Holandesa de Biologia Teórica; a Sociedade Britânica de Biologia do
Desenvolvimento; as Sociedades de Genética da Espanha, de Cuba, da
Argentina, da Colômbia, do Brasil, do México, do Egito, da Tailândia, do
Vietnam, da Grã-Bretanha, da França, da Alemanha e da Austrália; as
Sociedades austríaca, finlandesa, norueguesa, britânica, italiana, romena,
russa, suíça, turca, ucraniana, brasileira, americana, chilena e chinesa de
Fisiologia; e as Sociedades e Associações portuguesa, polonesa, suíça,
alemã, italiana, belga, dinamarquesa, húngara, helênica, russa, brasileira,
canadense, japonesa, coreana e chinesa de Neurologia. Merece especial
referência a Sociedade de Neurociência (SFN), americana, formada em
1969, atualmente com cerca de 38 mil associados, e maior organização
científica dedicada ao estudo do cérebro; suas últimas reuniões anuais
foram em Nova Orleans, em 2003, San Diego, em 2004, Washington D.C.,
em 2005, Atlanta, em 2006, San Diego, em 2007, Washington D.C., em 2008,
e Chicago, em 2009. São membros da Federação Britânica de Biociência
várias sociedades e institutos nacionais, como de Fisiologia, Neurociência,
Bioquímica, Microbiologia, Endocrinologia, Biologia experimental e
Genética, entre outros.
Tem sido crescente o esforço de coordenação internacional das
diversas atividades no campo da Biologia, com vistas a disseminar seu
conhecimento e promover a cooperação entre as entidades nacionais
dos vários países. Algumas dessas instituições estão relacionadas
a seguir: i) União Internacional de Ciências Biológicas (IURS),
de 1919, para a promoção do estudo, coordenação de atividades
científicas e apoio à cooperação internacional; conta com 47 países-membros (Academias de Ciência, Conselhos de Pesquisa, Sociedades
Nacionais) e 80 membros científicos, como a Federação Internacional
de Genética, a Federação Internacional de Biologia Celular, a
Organização Internacional de Biologia Sistemática e Evolucionista, o
Congresso Internacional sobre Fisiologia Comparada e Bioquímica, e
a Sociedade Europeia de Endocrinologia Comparada; ii) Organização
Internacional de Pesquisa do Cérebro (IBRO), de 1960, com sede em
Paris, atua por meio de seis Comitês Regionais (América Latina,
África, Ásia/Pacífico, Europa central/oriental, Europa ocidental, e
Canadá/EUA) e realiza um Congresso Mundial de Neurociência a
292
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
cada quatro anos (IV Congresso em Kyoto, 1995; V, em Jerusalém,
1999; VI, em Praga, 2003; e VII, em Melbourne, 2007); iii) Federação
Internacional de Sociedades de Genética Humana, fundada em 1996,
congrega a Sociedade de Genética da América, a Sociedade Europeia
de Genética Humana (com reuniões do Congresso de cinco em cinco
anos – Washington, D.C., 1991; Rio de Janeiro, 1996; Viena, 2001;
Brisbane, 2006; e programado para Montreal em 2011); a Sociedade
da Australásia de Genética Humana, com sede na Austrália; a Rede
Latino-Americana de Genética Humana e Médica (Relagh), criada
em 1991, com a participação da Sociedade Argentina de Genética,
das Associações Mexicana e Colombiana de Genética Humana e da
Sociedade Brasileira de Genética Clínica; iv) Federação Internacional
de Genética, estabelecida em 1968, com 55 Sociedades associadas,
realiza congressos a cada cinco anos, tendo sido o último celebrado
em 2008, na cidade de Berlim; v) Federação Europeia de Sociedades de
Neurociência, de 1998, com 28 associados; vi) Federação Europeia de
Sociedades de Fisiologia, de 1991, com 27 membros; vii) Sociedade de
Neurologistas da África; viii) União Internacional de Sociedades de
Microbiologia (IUMS), fundada em 1927, conta com os Departamentos
de Bacteriologia e Virologia, que organizam congressos anuais; uma
centena de Sociedades de Microbiologia de 62 países participa da
IUMS; ix) Federação Europeia de Biotecnologia, criada em 1978, sem
fins lucrativos, congrega sociedades, universidades, institutos de
pesquisas, empresas de Biotecnologia e pesquisadores individuais;
conta com 225 membros institucionais e cerca de 5 mil individuais,
de 56 países, e realiza reuniões especializadas ao longo do ano;
e x) Organização do Mapeamento do Cérebro Humano (OHBM),
formalmente criada em 1997, com sede em Minneapolis (EUA), conta
com o patrocínio de empresas de produtos de tecnologia; celebrou
a VIII Reunião anual (2002) em Sendai (Japão); a IX, em Nova York;
a X, em Budapeste; a XI, em Toronto; a XII, em Florença; a XIII, em
Chicago; a XIV em Melbourne (2008); e a XV, em São Francisco (2009).
Uma extensa literatura altamente especializada assegura a
disseminação das ideias e teorias, e a divulgação das pesquisas nos
diversos centros, mantendo o meio científico ao corrente dos progressos
investigativos em curso nas diferentes partes do mundo. Além das
tradicionais revistas Nature e Science, com uma cobertura importante
sobre desenvolvimento nas diversas áreas da Ciência, existe, hoje em dia,
um grande número de publicações com artigos específicos dedicados aos
diferentes ramos da Biologia.
293
CARLOS AUGUSTO DE PROENÇA ROSA
A título exemplificativo, segue uma pequena relação de tais
publicações:
sobre Biologia em geral, a Bioscience (do American Institute
of Biological Science); o The Biological Bulletin, o Journal of
Theoretical Biology;
ii)a Cell Press, da tradicional Elsevier, fundada nos anos de 1880,
com sede em Amsterdã, edita um conjunto, atualmente, de 12
revistas (Cell, Neuron, Immunity, Structure, Chemistry&Biology,
Molecular Cell, Developmental Cell, Cancer Cell, Current Biology,
Cell Metabolism, Host&Microbe e Stem Cell), todas de alto nível de
especialização;
iii) em Neurociência, a Brain Research Bulletin, o Journal of Comparative
Neurology, o International Journal of Developmental Neuroscience
(da International Society of Developmental Neuroscience), a
Neuroscience (da International Brain Research Organization–
-IBRO), a Brain Facts (da Society for Neuroscience), o Human
Brain Mapping (da Organização do Mapeamento do Cérebro
Humano) e o European Journal of Neuroscience (da Federação
das Sociedades Europeias de Neurociência);
iv) em Citologia, Biology of the Cell (pela Sociedade Francesa de
Biologia Celular) e Journal of Molecular Biology;
v) em Microbiologia, Eukaryotic Cell (da American Society for
Microbiology) e Research in Microbiology e Microbes and Infection
(do Instituto Pasteur);
vi) em Fisiologia, Acta Physiologica (da Federação Europeia
das Sociedades de Fisiologia), Comparative Biochemistry and
Physiology, Physiology, American Journal of Physiology e o Journal
of Physiology (da Sociedade Britânica de Fisiologia);
vii) em Genética, Annales de Génétique, o Gene, a Current Genetics, o
The Journal of Genetics, o The American Journal of Human Genetics
(da American Society of Human Genetics) e o European Journal of
Human Genetics (da Sociedade Europeia de Genética Humana);
viii)sobre Evolução Biológica, Evolution (International Journal of
Organic Evolution) da Sociedade para o Estudo da Evolução
(fundada em 1946), o The Journal of Human Evolution, o
International Journal of Systematic and Evolutionary Microbiology
e a Mutation Research Review, e
ix) no campo da Biotecnologia, a Biotechnology Advances, o Journal
of Biotechnology e o Biomolecular Engineering. Caberia mencionar
ainda que a Spriger, da Holanda, publica, trimestralmente, o
prestigioso Journal of the History of Biology.
i)
294
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O exame do desenvolvimento teórico e experimental do extenso
campo (Zoologia e Botânica) da Biologia fugiria ao propósito principal
de enfatizar seu processo evolutivo histórico, o qual se caracteriza, na
atualidade, pela absoluta prioridade das três grandes áreas da Genética, da
Neurociência e da Evolução biológica, na quais ocorreram extraordinárias
inovações e significativos aprimoramentos conceituais e teóricos. O avanço
no conhecimento da Anatomia e Fisiologia dos animais e plantas, ainda
que importantes, não deve desviar a atenção do foco principal, nem diluir
o impacto da grande transformação havida na Biologia atual, em função
do significado dos resultados alcançados nas pesquisas de laboratório e
nos estudos de gabinete.
Em consequência, a evolução recente da Biologia será examinada
sob cinco principais tópicos: Fisiologia, com especial referência à
Neurociência e ao sistema sensorial; Biologia celular e molecular;
Microbiologia; Genética e Evolução.
7.6.1 Fisiologia
O vasto campo da Fisiologia humana abarca tanto as funções
do organismo como um todo quanto as funções dos órgãos e das
células. Dessa forma, todos os sistemas do corpo humano (respiratório,
endócrino, circulatório, nervoso, digestivo, muscular, ósseo e demais)
são objetos de estudo e pesquisa da Fisiologia geral, que procura
integrar, num quadro comum, os dados obtidos nos diversos ramos. Ao
mesmo tempo, nos vários ramos da Biologia (Genética, Embriologia,
Anatomia, Patologia) há implicações fisiológicas, o que mostra sua
amplitude e consequente importância para o entendimento dos
fenômenos biológicos.
Beneficiadas com os significativos avanços nas pesquisas
fisiológicas do período anterior, prosseguiriam, na época atual, as
investigações laboratoriais, com a colaboração decisiva de inovações e
aperfeiçoamentos tecnológicos, além de novos métodos e técnicas de
pesquisas. Substancial progresso foi alcançado no conhecimento do
funcionamento dos diversos sistemas do organismo humano, seguindo-se
uma referência exemplificativa desses avanços mais marcantes.
No que se refere ao sistema respiratório, o escocês John Scott
Haldane (1860-1936) e John G. Priestley (1880-1941) escreveram, em 1905,
trabalho sobre suas pesquisas em regulação da ventilação pulmonar
no Journal of Physiology (a obra completa Respiration foi publicada em
295
CARLOS AUGUSTO DE PROENÇA ROSA
1935) e estudaram a importância do dióxido de carbono na regulação da
respiração, cujo excesso na corrente sanguínea age no centro respiratório
do cérebro. Haldane é autor de The Sciences and Philosophy (1929), The
Philosophical Basis of Biology (1931) e The Philosophy of a Biologist (1935).
O alemão Otto Heinrich Warburg (1883-1970), formado pelas
Universidades de Berlim e Heidelberg, professor do Instituto Max Planck
(Departamento de Biologia) de 1913 a 1970, famoso por seus trabalhos
em processo de oxidação em células vivas, receberia o PNFM de 1931
por suas pesquisas sobre a natureza e a ação das enzimas na respiração e
fermentação. Ele criou um método de medição da quantidade de oxigênio
absorvido por um tecido celular vivo (1923). Seu prêmio foi devido “à
descoberta da natureza e ação da enzima respiratória”. Warburg admitiu,
inicialmente, que um grupo de enzimas, chamadas citocromos, estava
envolvido nas reações que consumiam oxigênio no interior das células.
Ao observar que as moléculas de monóxido de carbono se ligavam aos
citocromos, supôs que elas continham átomos de ferro, provando-se
depois que continham grupo de heme do tipo presente na hemoglobina.
Assim, os grupos de heme da hemoglobina levavam oxigênio às células,
e os grupos de heme dos citocromos captavam o oxigênio, colocando-o
em atividade154. Warburg é autor de Novos Métodos da Fisiologia da Célula
(1962).
O belga Corneille Jean François Heymans (1892-1968), vinculado
à Universidade de Gand, de 1923 a 1963, professor de Farmacologia,
elaborou estudos sobre o aparelho respiratório, e, em particular, pesquisas
sobre como a pressão sanguínea e o oxigênio no sangue são medidos pelo
corpo e transmitidos ao cérebro. Heymans receberia o PNFM de 1938 por
sua contribuição no esclarecimento do papel dos mecanismos dos sinus e
da aorta na regulação da respiração.
Quanto ao sistema digestivo, William Maddock Bayliss (1860-1924), formado pela Universidade de Oxford, particularmente interessado
na fisiologia dos sistemas nervoso, digestivo e vascular, trabalhando em
estreita colaboração com seu cunhado, o fisiologista inglês Ernest Henry
Starling (1866-1927), professor de Fisiologia do University College, de
Londres, descobriria, em 1902, a secretina e sua ação controladora da
digestão. A pesquisa se referia ao processo pelo qual o pâncreas segrega
o suco pancreático desde a entrada no intestino dos componentes ácidos
do alimento ingerido. Ao cortarem a fibra nervosa ligada aos pâncreas,
descobriram Bayliss e Starling que o órgão continuava a desempenhar sua
função secretiva. Terminariam por descobrir que a mucosa do intestino
154 ASIMOV, Isaac. Gênios da Humanidade.
296
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
delgado segrega uma substância (secretina) por estímulo do ácido
gástrico, sendo esta substância a responsável pelo início da secreção do
suco pancreático. Em 1905, Starling sugeriria o nome de hormônio (do
grego “estímulo à atividade”) à substância recém-descoberta155. Em 1915,
Bayliss publicaria Principles of General Physiology, que durante muitos anos
teve grande divulgação no meio científico.
O fisiologista e médico russo Ivan Petrovich Pavlov (1849-1936),
doutor pela Academia de Cirurgia e Medicina de São Petersburgo,
estudou, em 1883, na Alemanha, com Carl Ludwig, professor de Fisiologia
da Academia Médica de 1894 a 1924 e diretor de Fisiologia Experimental
do Instituto de Medicina Experimental. Investigou o sistema circulatório,
mas seu maior interesse era na pesquisa do sistema digestivo. Desenvolveu
técnicas cirúrgicas, e, por seu trabalho sobre as relações entre a atividade
do sistema nervoso e a função digestiva (descreveu a enterocinase,
enzima que ativa a secreção pancreática), receberia o PNFM de 1904 “em
reconhecimento por seu trabalho em fisiologia da digestão, por meio do
qual o conhecimento de aspectos vitais do assunto foi transformado e
ampliado”. Pavlov escreveria, em 1904, The Centrifugal Nerves of the Heart,
e, em 1926, sua principal obra, Reflexos Condicionados, em que exporia sua
famosa teoria do reflexo condicionado (com seus três princípios: o do
determinismo, o da análise e síntese, e o da estrutura), que acreditava estar
relacionada com diferentes áreas do córtex cerebral, abrindo caminhos
para a Psicologia experimental. Pavlov publicou, em 1897, Conferências
sobre as Funções das Principais Glândulas Digestivas.
A Endocrinologia foi fundada em 1855, por Claude Bernard, ao
estabelecer o papel de certas glândulas na manutenção da constituição
química do meio ambiente. A descoberta da função glicogênica do
fígado, primeiro exemplo de secreção interna, será marco fundamental
na evolução da Fisiologia. Ao longo do século XX, a Endocrinologia seria
objeto de muitas pesquisas, das quais resultaria um significativo avanço
no conhecimento do sistema endócrino.
O químico Jokichi Takamine (1854-1922) isolaria e purificaria
o primeiro hormônio, adrenalina, em 1901, com Thomas Bell Aldrich
(1861-1939), a partir da suprarrenal. Emil Theodor Kosher (1841-1917),
suíço, professor da Universidade de Berna, receberia o PNFM de 1909
por seus trabalhos sobre a fisiologia, patologia e cirurgia da glândula
tireoide. Os estudos pioneiros do italiano Guido Vassale (1862-1921) sobre
a glândula tireoide teriam sequência com o bioquímico Edward Calvin
Kendall (1886-1972) que isolaria a tiroxina em 1914, sintetizada pelos
155 ASIMOV, Isaac. Gênios da Humanidade.
297
CARLOS AUGUSTO DE PROENÇA ROSA
químicos George Barger (1878-1939), inglês, professor da Universidade
de Edimburgo, e Charles Robert Harington (1897-1972), do país de
Gales, diretor do Instituto Nacional de Pesquisa Médica. O hormônio da
paratireoide, e identificado por Ivar Victor Sandström (1852-1889) em
1880, seria obtido em 1925, por James Bertram Collip (1892-1965) e Émile
Gley (1857-1930). As funções da hipófise seriam descobertas em 1920.
A insulina, hormônio segregado pelo pâncreas, foi descoberta em
1920, pelo canadense Frederick Banting (1891-1941) e pelo escocês John
James Richard MacLeod (1876-1935), que dividiriam o PNFM de 1923.
Banting daria metade do valor de seu prêmio ao americano Charles
Herbert Best (1899-1978), que muito colaborara com ele na descoberta,
mas que, injustamente, não fora contemplado com o prêmio. Interessante
registrar que MacLeod também dividiria seu prêmio com James Collip,
que colaborara, também, nas pesquisas que redundaram na descoberta da
insulina. Os checos, naturalizados americanos, Carl Ferdinand Cori (1896-1984) e sua esposa Gerty Theresa Cori (1896-1957) e o argentino Bernardo
Alberto Houssay (1887-1971) dividiriam o PNFM de 1947 pela descoberta
do mecanismo da conversão catalítica do glicogênio (os dois primeiros), isto
é, a descoberta da conversão glicogênio-glicose, e Houssay, pelos estudos
sobre a função do hormônio pituitário no metabolismo do açúcar. Edward
Kendall, juntamente com o médico Philip Hench (1896-1965), pesquisador
da Fundação Mayo, e o polonês naturalizado suíço, Tadeusz Richstein
(1897-1996), professor da Universidade da Basileia, dividiriam o PNFM
de 1950 pelas investigações dos hormônios das glândulas suprarrenais,
sua estrutura e efeitos biológicos, especialmente pela descoberta, em
1949, da cortisona. Reichstein sintetizara, em 1933, a vitamina C. Em 1969,
Dorothy Crowfoot Hodgkin (1910-1994), que em 1964 receberia o PNQ
pela determinação da estrutura dos compostos necessários ao combate
da anemia perniciosa, utilizando técnica com os raios X, determinaria a
estrutura da molécula do hormônio insulina.
O fisiologista americano Walter Bradford Cannon (1871-1945)
formularia, em 1926, o princípio da homeostase biológica, conjunto dos
fatores reguladores que asseguram a constância do meio interior, isto é,
a condição na qual o meio interno do corpo permanece dentro de certos
limites fisiológicos.
Herbert McLean Evans (1882-1971), professor de Anatomia da
Universidade da Califórnia (Berkeley), pesquisou hormônios e os sistemas
endócrino e digestivo.
Os andrógenos foram descobertos por Brown-Séquard, em 1889,
e o bioquímico holandês Ernst Laqueur (1881-1947) cunhou a palavra
298
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
testosterona para o hormônio sexual masculino, que, em 1935, isolara do
testículo de um touro. Adolf Butenandt (1903-1995) e Leopold Ruzicka
(1887-1976) receberiam o PNQ de 1939 pela síntese química obtida,
independentemente, em 1935, da testosterona. O americano Vincent du
Vigneaud (1901-1978) ganharia o PNQ de 1955 pela síntese pioneira de
um hormônio polipeptídeo, primeiro hormônio proteico a ser sintetizado,
abrindo o caminho para a síntese de proteínas mais complicadas.
O sueco Ulf Svante von Euler, que ganharia o PNFM de 1970,
por suas pesquisas na área do sistema nervoso, pesquisou, desde 1935,
a prostaglandina e a vesiglandina. Os bioquímicos suecos, ambos do
Instituto Karolinska, Sune Karl Bergström (1916-2004), que purificou
várias prostaglandinas e determinou suas estruturas químicas, e Bengt I.
Samuelson (1934), que pesquisou o metabolismo da prostaglandina
e esclareceu o processo químico da formação de vários compostos
do sistema, e o inglês John Robert Vane (1927), do Wellcome Research
Institute, em Kent, que descobriu a prostaciclina e analisou suas funções
e seus efeitos biológicos, dividiriam o PNFM de 1982, por pesquisas
sobre a prostaglandina e substâncias biologicamente ativas156. Deve-se a
Vane a descoberta de que compostos anti-inflamatórios, como a aspirina,
bloqueiam a formação de prostaglandinas e tromboxanas.
Earl Wilbur Sutherland (1915-1974), nascido em Kansas (EUA),
formado em Medicina e Farmácia pela Universidade de Washington,
se dedicaria à pesquisa sobre os hormônios, especialmente a epinefrina,
descobrindo que elas controlam o funcionamento do corpo regulando o
nível de uma substância chamada monofosfato de adenosina – AMP –,
- a qual, por sua vez, controla a atividade celular de cada órgão. Por esse
trabalho, Sutherland receberia o PNFM de 1971. Roger Guillemin (1924),
fisiologista francês naturalizado americano, formado em Medicina pela
Universidade de Lyon, e doutorado pela Universidade de Montreal, em
1953, interessou-se pela Endocrinologia, concentrando suas pesquisas no
controle hormonal da glândula pituitária, em particular dos hormônios
produzidos pelo hipotálamo, e em neurotransmissores, como as endorfinas.
Guillemin isolou grande número de hormônios, como a somatocrinina
(fator hormonal de crescimento) e a somatostatina, importante para o
entendimento do diabetes. Andrew Victor Schally (1924), fisiologista
polonês, naturalizado americano, professor da Universidade Tulane,
pesquisador do Veterans Administration Hospital, de Nova Orleans,
com trabalhos de síntese do TRH, de isolamento e síntese do LH-RH e
estudos sobre a ação da somatostatina, dividiria com Guillemin metade
156 Comunicado de Imprensa – PNFM de 1982.
299
CARLOS AUGUSTO DE PROENÇA ROSA
do PNFM de 1977, por suas contribuições com os estudos sobre a
produção dos hormônios peptídeos do cérebro. Pelo desenvolvimento de
técnica, a radioimunoensaio, para a determinação dos níveis de insulina
e hormônios no corpo, a pesquisadora e especialista em diabetes Rosalyn
Sussman Yalow (1921) receberia metade do PNFM de 1977157.
No que se refere à Histologia, que trata da estrutura dos tecidos
orgânicos, Ross Granville Harrison (1870-1959), formado pela Universidade
Johns Hopkins, em 1889, onde exerceu o magistério, de 1900 a 1907, quando
se transferiu para Yale como professor de Anatomia e depois de Biologia,
descobriu, em 1907, células nervosas que podiam sobreviver, funcionar e
reproduzir fora do corpo em cultura de tecido in vitro. Harrison estenderia,
posteriormente, suas pesquisas a outros tecidos. Aléxis Carrel (1873-1944),
formado em 1900, em Medicina, pela Faculdade de Lyon, sua cidade
natal, prosseguiria seus estudos na Universidade de Chicago e no Instituto
Rockefeller de Pesquisa Médica, em Nova York. Especializou-se em cirurgia
vascular, e desenvolveu técnica para minimizar danos nos tecidos, infecção e
o risco de coágulos sanguíneos, e receberia o PNFM de 1912. Após a Guerra
de 1914-18, trabalharia na conservação viva de órgãos e tecidos fora do corpo.
Consta que teria mantido vivo em solução nutriente artificial, por mais de 20
anos, tecido do coração in vitro de embrião de pinto. Com o famoso aviador
Charles Lindenberg, desenvolveu um coração artificial, que podia bombear
fluido fisiológico por meio de grandes órgãos, como o coração e o fígado.
Sobre o sistema muscular, o fisiologista alemão Otto Meyerhof
(1884-1951), pelos estudos sobre a correlação entre o consumo de oxigênio
e o metabolismo do ácido lático nos músculos, e o inglês Archibald Viviam
Hill (1886-1977), pelas pesquisas a respeito da produção de calor pelos
músculos após a realização do esforço (1913), dividiriam o PNFM de 1922.
O sistema circulatório seria intensamente pesquisado em todo
este período. O imunologista e patologista austríaco Karl Landsteiner
(1868-1943), formado pela Universidade de Viena, criou, em 1901, os
quatro grupos sanguíneos até hoje em uso: A, B, AB e O. Em 1922, quando
trabalhava para o Instituto Rockefeller, descobriu o fator sanguíneo
Rhesus, conhecido como RH. Pelo conjunto de sua obra, receberia o PNFM
de 1930. Com seu trabalho, foi possível a disseminação da transfusão de
sangue158, que fora proibida, por perigosa, em muitos países europeus,
no final do século anterior. Por volta de 1910, foi descoberto que as
características do sangue são herdadas segundo o Modelo de Mendel, o
que tornava possível o estudo de populações inteiras.
157 158 Comunicado de Imprensa – PNFM de 1977.
TATON, René. La Science Contemporaine.
300
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O fisiologista nascido na Irlanda do Norte, Joseph Barcroft (1872-1947), pesquisou circulação e distribuição do sangue, armazenagem
e liberação do sangue pelo baço, órgão linfático, e estudou, também, o
desenvolvimento fisiológico do feto, em particular relacionado aos
sistemas circulatório e respiratório. O japonês Sunao Tawara (1873-1952),
formado pela Universidade Imperial de Tóquio, em 1901, tendo estudado
na Universidade de Marburgo, seria autor, em 1906, de monografia sobre
o sistema de condução do coração. E Wilhelm His (1831-1904), suíço,
descobriria, na passagem do século, tecido especializado do coração
que transmite impulsos elétricos e ajuda na contração do músculo
cardíaco. Christian Bohr (1855-1911), fisiologista dinamarquês, professor
da Universidade de Copenhague, pai do famoso físico Niels Bohr e do
conhecido matemático Harald Bohr, descreveu, em 1904, o efeito Bohr,
relativo à eficiência da liberação do oxigênio pela hemoglobina nos tecidos.
Foi, igualmente, professor de Schack August Steenberg Krogh (1874-1949),
dinamarquês, professor da Universidade de Copenhague e pesquisador
dos sistemas respiratório e circulatório, que descobriria o mecanismo
regulador do movimento nos vasos capilares, pelo que receberia o PNFM
de 1920. Krogh é autor da monografia Anatomia e Fisiologia dos Capilares,
que teria grande influência nas futuras pesquisas.
Willem Einthoven (1860-1927), fisiologista holandês nascido na
Indonésia, professor da Universidade de Leiden, é considerado o pai do
eletrocardiograma pela descoberta de seu mecanismo. Desde o século
anterior, já eram conhecidas correntes elétricas originadas do coração,
detectadas por um eletrômetro capilar pelo fisiologista inglês Augustus
Waller. No início do século XX, Einthoven aperfeiçoaria o aparelho e
introduziria um sistema de gravação com base em galvanômetro de
cordas, o que lhe permitiria, em 1913, interpretar as linhas traçadas, no
gravador, com um papel padronizado, distinguindo coração sadio de um
enfermo. Por seu trabalho, receberia o PNFM de 1924.
Ernest Starling, já mencionado por seus trabalhos sobre o
sistema digestivo, enunciaria o conceito de equilíbrio, que relaciona
pressão sanguínea a seu comportamento no sistema capilar. Em 1915,
formulou sua lei de que a contração do coração é função da extensão
da fibra muscular.
Pelo desenvolvimento de técnicas operatórias, como a do
cateter, na operação cardiovascular, André Frédéric Cournand
(1895-1988), fisiologista francês, naturalizado americano, da Universidade
de Colúmbia; o alemão Werner Theodor Otto Forsmann (1904-1979),
da Universidade de Mainz; e o americano Dickson Woodruff Richards
301
CARLOS AUGUSTO DE PROENÇA ROSA
(1895-1973), da Universidade de Colúmbia, dividiriam o PNFM de 1956
“por descobertas relativas à cateterização do coração e às alterações
patológicas do sistema circulatório”.
Ainda na área da Fisiologia, caberia mencionar, após os
trabalhos de Hermann von Helmholtz sobre a fisiologia do olho, com
suas investigações sobre a acomodação da visão, a curvatura do olho e
a cegueira à cor, a publicação de seu Manual de Óptica Fisiológica (1867)
e a invenção do oftalmoscópio; além das pesquisas, nos primeiros anos
do século XX, do oftalmologista sueco Allvar Gullstrand (1862-1930),
professor de Oftalmologia da Universidade de Uppsala, de 1894 a 1927,
no campo da dióptrica (refração da luz) do olho humano, que lhe valeria
o PNFM de 1911.
7.6.1.1 Neurociência
Após os trabalhos dos histologistas Camillo Golgi (1844-1926),
italiano, e do espanhol Santiago Ramón y Cajal (1852-1934), que dividiriam
o PNFM de 1906 por suas extraordinárias contribuições acerca da estrutura
do sistema nervoso, o crescente interesse da comunidade científica
por um melhor conhecimento do sistema nervoso, particularmente do
funcionamento do cérebro humano, colocaria seu estudo como área
prioritária da Fisiologia no século XX. Os significativos avanços teóricos e
investigativos obtidos no curto prazo, no campo da Neurologia, levariam
seus pesquisadores a denominá-la de Neurociência, dando-lhe, assim,
um status especial em reconhecimento de sua importância no processo
evolutivo da Biologia atual.
Korbinian Broadmann (1868-1918) estudou Medicina em Munique,
Wurzburg, Berlim, Friburgo e Lausanne. Obteve seu doutorado em
Leipzig (1898). Trabalhou no Laboratório Neurobiológico, em Berlim, com
Oskar Vogt de 1901 a 1910. Autor, em 1909, de Estudos sobre a Localização
Comparativa no Córtex Cerebral, se tornaria famoso por suas pesquisas
que resultaram na definição de 52 partes no córtex cerebral, algumas
associadas a funções nervosas. Seu mapeamento do cérebro humano seria
adotado por autores e especialistas nas décadas seguintes.
Oskar Vogt (1870-1959), com doutorado em Jena, em 1894, que
fundaria um instituto de pesquisa do cérebro, em Berlim, e colaboraria
na criação de um instituto similar em Moscou, foi editor do Journal of
Psychology and Neurology. Casou-se, em 1899, com a neurologista francesa
Cécile Mugnier, colaboradora direta e autora de vários artigos sobre o
302
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
trabalho conjunto do casal, acerca da anatomia e da patologia do córtex
cerebral. Cécile elaborou um mapeamento fisiológico do cérebro de um
macaco, e Oskar foi um dos encarregados do tratamento neurológico
de Lenine, e obteve autorização para o estudo histológico do cérebro do
falecido líder soviético.
O francês Joseph Jules Dejerine (1849-1917) trabalhou no
Hospital Salpêtrière, em Paris, desde 1895, professor de Neurologia
da Escola de Medicina (Paris), foi um dos pioneiros no estudo de
localização das funções no cérebro, tendo sido o primeiro a mostrar
que a perda da habilidade de leitura (cegueira de palavra) resultava
de uma lesão em determinadas áreas do cérebro. Louis Lapicque
(1866-1952), nascido em Paris, fisiologista, especialista em sistema
nervoso, contribuiria para o desenvolvimento da Neurologia com
suas pesquisas sobre os efeitos da corrente elétrica na excitação
nervosa humana.
Charles Scott Sherrington (1857-1952), considerado como um dos
fundadores da Fisiologia nervosa, professor de Fisiologia na Universidade
de Liverpool (1895-1913) e de Oxford (1913 até sua aposentadoria, em
1935), estabeleceria as bases da organização do sistema nervoso central,
com seus estudos sobre reflexos medulares e os três maiores grupos de
órgãos sensoriais do sistema nervoso dos mamíferos, além de contribuir
para a compreensão das funções dos neurônios e para a reconstituição
do tecido dos nervos. Edgar Douglas Adrian (1889-1977), formado
em Medicina no Trinity College, de Cambridge, em 1911, dedicou-se
à pesquisa em eletrofisiologia do sistema nervoso e do cérebro, na
Universidade de Cambridge. Em 1928, descobriria que os neurônios dos
sentidos respondem a estímulos que, quanto mais intensos, mais vezes
o neurônio se descarrega, mas a cada vez o descarregamento é sempre
igual. Os neurônios indicam, assim, presença e intensidade do estímulo
se descarregando mais vezes ou menos vezes, e não um pouco mais ou
um pouco menos. Adrian escreveu, ainda, The Basis of Sensation (1927),
The Mechanism of Nervous Action (1932) e The Physical Basis of Perception
(1947). Sherrington e Adrian dividiriam o PNFM de 1932 por descobertas
relativas às funções dos neurônios.
Hans Berger (1873-1941), formado pela Universidade de Jena, com
doutorado, em 1897, dedicou-se à circulação sanguínea e temperatura
do cérebro e à psicofisiologia. Colaborou com Oskar Vogt e Korbinian
Brodmann em pesquisas sobre a localização das funções no cérebro, e
foi dos primeiros (1924) a utilizar o eletroencefalograma e o primeiro a
descrever a onda alfa, conhecida também, como onda Berger.
303
CARLOS AUGUSTO DE PROENÇA ROSA
Constantin von Economo von San Seff (1876-1931), de origem
grega, dedicou-se ao estudo da anatomia e fisiologia do médio cérebro.
Em 1917, iniciou seu famoso trabalho sobre a encefalite, que lhe traria
fama mundial. O neuropatologista francês Pierre Marie (1853-1940),
pesquisador do sistema nervoso, seria autor de um monumental livro
sobre as doenças da medula espinhal.
Otto Loewi (1873-1961), farmacologista alemão, especialista na química
dos impulsos nervosos, e o fisiologista inglês Henry Hallett Dale (1875-1968),
diretor do Instituto Nacional de Pesquisa Médica, de Londres (1914/42), e da
Instituição Real da Grã-Bretanha (1942/46), pesquisador do fungo ergotina, do
qual isolou um composto chamado acetilcolina, dividiriam o PNFM de 1936
pelas contribuições sobre transmissão química dos impulsos nervosos. Loewi
demonstrou, em 1921, que o impulso nervoso não era apenas de natureza
elétrica, conforme suas experiências, ao trabalhar com nervos ligados ao
coração de uma rã. Substâncias químicas liberadas sempre que se estimulava
o nervo podiam ser empregadas para estimular outro coração diretamente,
sem a intervenção de qualquer atividade nervosa. Os fisiologistas americanos
Joseph Erlanger (1874-1965), professor da Universidade de Washington, em
St. Louis, e Herbert Spencer Gasser (1888-1963), professor da Universidade de
Cornell e do Instituto Rockefeller para Pesquisas Médicas, investigariam, nos
anos 20 e 30, com oscilógrafo adaptado por Erlanger, propriedades elétricas
dos filamentos nervosos, determinando a maneira pela qual diferentes
filamentos conduziam seus impulsos a distintos ritmos médios, observando
que a velocidade do impulso variava diretamente em razão da grossura do
filamento. Receberiam o PNFM de 1944 por “pesquisas de raios catódicos
sobre funções diferenciadas das fibras nervosas simples”.
Walter Campbell (1868-1937), pesquisador australiano, formado
pela Universidade de Edimburgo, escreveria o conhecido Estudos
Histológicos sobre a Localização das Funções do Cérebro, obra clássica de
referência, e elaboraria mapeamento do cérebro humano, de ampla
divulgação em livros de neuroanatomia. Campbell daria importante
contribuição, também, ao estudo da esclerose cerebral. James Papez
(1883-1958), formado em Medicina pela Universidade de Minnesota,
especializou-se em anatomia do cérebro, tendo ministrado famoso curso
sobre neuroanatomia. Escreveu, em 1929, o livro Neurologia Comparada.
O neurologista suíço Walther Rudolf Hess (1881-1973), formado
pela Universidade de Bonn, e diretor do Instituto de Fisiologia, desde
os anos 20 investigaria o hipotálamo e o cérebro médio, e desenvolveria
metodologia de estímulo elétrico subcortical para investigar as bases
neurais de comportamentos complexos, utilizando-a em animais
304
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
anestesiados e não anestesiados. Descobriria que extensas áreas
subcorticais eram envolvidas em funções motoras, comprovando, o que
se suspeitava, que havia no cérebro circuitos complexos de organização
do comportamento, envolvendo muitos grupos musculares, além do
sistema nervoso autônomo. Hess descobriria zonas de ação e relaxamento,
isto é, o centro de controle dos sistemas simpático e parassimpático. O
trabalho de Hess influenciaria pesquisas em todo o mundo e encorajaria
o mapeamento detalhado do cérebro médio e do hipotálamo nos anos
seguintes. Pela descoberta das funções do cérebro médio, receberia Hess
o PNFM de 1949, dividindo-o com o neurologista português Antônio
Caetano de Abreu Freire Egas Muniz (1874-1955), criador da operação
cirúrgica da lobotomia pré-frontal no tratamento para graves casos de
psicose.
William Grey Walter (1910-1977), neurofisiologista americano,
de origem alemã e britânica, estudou no King’s College, em Cambridge,
e trabalharia de 1939 a 1970 no Instituto Neurológico de Bristol. Com
um aparelho semelhante (eletroencefalógrafo) ao de Hans Berger, mas
aperfeiçoado, determinou, por triangulação, a localização na superfície
das ondas alfa no lóbulo occipital e usaria as ondas delta para descobrir
tumores cerebrais. Com seu aparelho, Walter pôde detectar uma variedade
de tipos de ondas cerebrais, desde as de mais alta velocidade (ondas alfa)
até as de baixa velocidade (ondas delta), observadas durante o sono.
As pesquisas sobre as transmissões e os impulsos nervosos seriam
objeto de grande interesse no período do Pós-Guerra. Seus pesquisadores,
inclusive, receberiam, em duas oportunidades, o Prêmio Nobel de
Fisiologia. Os fisiologistas John Carew Eccles (1903-1997), australiano,
professor da Universidade Nacional Australiana, em Camberra, o
inglês Alan Lloyd Hodgkin (1914-1998), professor da Universidade de
Cambridge, especialista na física das excitações nervosas, e Andrew
Fielding Huxley (1917), da Universidade de Londres, especialista em
transmissões nervosas e contrações musculares, dividiriam o PNFM de
1963 por suas pesquisas em relação aos mecanismos iônicos envolvidos
na excitação e inibição nas porções periféricas e centrais da membrana dos
neurônios159. Numa série de quatro artigos publicados em 1952, Hodgkin
e Huxley mostrariam que o mecanismo de impulso nervoso funciona
com átomos carregados positivamente (íons) de sódio, no exterior, e de
potássio, no interior. Quando o impulso nervoso passa, a situação se
inverte, os íons sódio penetram na célula, e pouco depois, os íons potássio
saem. Terminado o impulso, o íon sódio é bombeado para fora da célula,
159 Comunicado de Imprensa – PNFM de 1963.
305
CARLOS AUGUSTO DE PROENÇA ROSA
a qual se torna apta outra vez para deixar passar novo impulso nervoso.
Essa descoberta daria à Neurociência uma forte base química. Eccles se
dedicaria ao estudo da natureza da transmissão sinapse.
O neurocirurgião Wilder Graves Penfield (1891-1976), americano
naturalizado canadense, formado pela Universidade Johns Hopkins,
estudou Neuropatologia em Oxford, com Charles Scott Sherrington, e
também na Espanha, Alemanha e Nova York, e desenvolveria técnicas
operatórias que lhe permitiriam evitar efeitos colaterais, como a da
observação do cérebro do paciente sob efeito apenas da anestesia local.
Com Herbert Jasper (1906-1999), neurocientista canadense, publicaria, em
1951, o livro A Epilepsia e a Anatomia Funcional do Cérebro Humano, com uma
série de mapas do córtex motor e sensorial, que seriam da maior utilidade
para melhor entendimento da lateralização das funções cerebrais.
O fisiologista Bernard Katz (1911-2003), alemão, naturalizado
australiano, especialista em pesquisa sobre impulsos nervosos (descoberta
do mecanismo de liberação do transmissor acetilcolina); Ulf Svante von
Euler (1905-1983), sueco, do Instituto Karolinska, que identificou a função
da epinefrina e da noradrenalina, a qual serve como neurotransmissor nos
terminais do sistema nervoso simpático, e pesquisou a prostaglandina e a
vesiglandina (1935); e Julius Axelrod (1912-2004), bioquímico americano,
que pesquisou o efeito de drogas no sistema nervoso, dividiriam o
PNFM de 1970, por suas contribuições em pesquisas sobre substâncias
encontradas nos nervos, que impedem a distensão dos vasos sanguíneos,
prolongando o estado de consciência160.
Roger Wolcott Sperry (1913-1994), neurocientista americano,
professor do Instituto de Tecnologia da Califórnia (1954/94), receberia
metade do PNFM de 1981 por sua descoberta das especializações
funcionais dos hemisférios cerebrais. Sua pesquisa esclareceria as funções
do hemisfério esquerdo (destro, fala, escrita, cálculo, principal centro
da linguagem, projeção do campo visual direito) e do hemisfério direito
(canhoto, percepção espacial, compreensão da palavra, projeção do campo
visual esquerdo) do cérebro. A outra metade do PNFM seria dividida
entre David Hunter Hubel e Torsten Nils Wiesel por seus trabalhos sobre
o funcionamento do sistema da visão.
Arvid Carlsson (1923), médico e farmacologista sueco, professor
da Universidade de Gotemburgo, pesquisador em neurotransmissores
(como a dopamina); Paul Greengard (1925), professor da Universidade
Rockefeller, com pesquisas sobre os transmissores dopamina,
noradrenalina e serotonina; e Eric Richard Kandel (1929), austríaco
160 Comunicado de Imprensa – PNFM de 1970.
306
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
naturalizado americano, da Universidade de Colúmbia, se notabilizariam
por seus estudos sobre o funcionamento molecular do cérebro, importante
para a formação da memória. Os três cientistas dividiriam o PNFM de
2000 por
suas descobertas essenciais sobre um modo importante de transmissão de
sinais (transdução de sinais) entre as diferentes células nervosas, a chamada
transmissão sináptica (espaço entre neurônios) lenta, que foram determinantes
para a compreensão das funções normais do cérebro e das condições nas
perturbações, na transmissão do sinal, que podem induzir enfermidades
neurológicas ou físicas161.
Embora seja prematuro aquilatar a real importância e o valor
de recente pesquisa publicada no Journal of Comparative Neurology, de
autoria dos pesquisadores brasileiros Frederico Azevedo, Roberto Lent e
Suzana Herculano-Houzel, do Instituto de Ciências Biológicas da UFRJ,
o interesse por aprofundar o conhecimento sobre o cérebro deverá, nos
próximos decênios, se intensificar, esclarecendo uma série de dúvidas e
mistérios. A mencionada pesquisa recalculou o número de neurônios no
cérebro humano, desenvolvendo, para isto, uma tecnologia de contagem
de núcleos, e não de células, que permite estimar, com grande precisão,
a cifra, que dos tradicionais 100 bilhões passaria para 86 bilhões de
neurônios. Outro cálculo importante se refere às glias, células cuja função
é dar sustentação aos neurônios e auxiliar em seu funcionamento. O
cálculo estimado de 10 glias para 1 (um) neurônio é refeito pelo estudo, ao
estabelecer uma proporção praticamente de 1 para 1, reduzindo, assim, o
número de células gliais para 84 bilhões.
7.6.1.2 Sistema Sensorial
Significativos progressos seriam registrados na pesquisa relativa
à Fisiologia sensorial, diretamente vinculada ao sistema nervoso e, por
conseguinte, à Neurociência.
No campo da audição, deve ser mencionada a contribuição do
austríaco Robert Barany (1876-1936), formado em Medicina, em 1900, pela
Universidade de Viena, que criou o chamado teste Barany para diagnosticar
doença nos canais circulares do ouvido interno, tendo recebido o PNM de
1914, pelo trabalho em fisiologia e patologia do ouvido. Barany pesquisou,
161 Comunicado de Imprensa – PNFM de 2000.
307
CARLOS AUGUSTO DE PROENÇA ROSA
também, reumatismo muscular, tromboses e derrames com sequelas e
estudou o papel do cerebelo no controle dos movimentos do corpo. O
físico e fisiologista húngaro, naturalizado americano, Georg von Bekesy
(1899-1972) ganharia o PNFM de 1961, pela descoberta do mecanismo de
estímulo do ouvido interno, isto é, sobre as funções internas da cóclea.
Os biólogos americanos Linda B. Buck (1947), com doutorado
em imunologia, e Richard Axel (1946), formado pela Universidade
Johns Hopkins, publicaram, em 1991, pesquisa sobre como os odores
são detectados pelas fossas nasais e interpretados no cérebro. Nessas
pesquisas, efetuadas com ratos de laboratório, descobriram Axel e
Buck uma família de mil genes que produz um número equivalente de
receptores olfativos, que são as proteínas responsáveis pela detecção de
moléculas odoríferas no ar, e estão localizadas nas células receptoras
olfativas, na cavidade nasal. Pela importante contribuição na fisiologia do
olfato, e especificamente “sobre os receptores de odores e a organização
do sistema olfativo”, os dois pesquisadores dividiriam PNFM de 2004162.
A fisiologia da visão foi, igualmente, objeto de investigação,
devendo ser mencionadas as pesquisas de Ragnar Granit (1900-1991),
finlandês, naturalizado sueco, pesquisador do Instituto Karolinska,
formado em 1927, com uma tese sobre a teoria da visão em cores. As
do bioquímico americano George Wald (1906-1997), da Universidade
de Harvard, sobre as reações químicas envolvidas na visão; descobriu a
presença da vitamina A na retina (1933), componente importante dos três
pigmentos da visão colorida. E as do biofísico americano Haldan Keffer
Hartline (1903-1983), professor da Universidade da Pensilvânia, que
procedeu a análises neurofisiológicas, inclusive em caranguejos e sapos.
Os três pesquisadores dividiriam o PNFM de 1967 por “descobertas sobre
as atividades regulatórias das células do olho e os processos químicos
visuais humanos”.
Dois professores pesquisadores da Escola de Medicina
de Harvard, David Hunter Hubel (1926), canadense-americano,
especialista do sistema visual, e Torsten Nils Wiesel (1924), sueco
naturalizado americano, dividiriam a metade do PNFM de 1981 por
suas pesquisas sobre a organização e o funcionamento do sistema da
visão163. A outra metade do Prêmio foi recebida pelo neurocientista
Roger Wolcott Sperry pela descoberta das especializações funcionais
dos hemisférios cerebrais.
162 163 Comunicado de Imprensa – PNFM de 2004.
Comunicado de Imprensa – PNFM de 1981.
308
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.6.2 Biologia Celular e Molecular
A Teoria Celular, originada das pesquisas, em 1838-39, de Matthias
Schleiden (1804-1881) e Theodor Schwann (1810-1882), se desenvolveria ao
longo do século XIX, alcançando sua definição moderna com os trabalhos
de Rudolf Virchow (1821-1902), ao estabelecer que uma célula provenha de
outra célula (omnis cellula e cellula). Em 1858 o patologista alemão definiria
que: i) as células são as unidades funcionais de todos os seres viventes; ii)
os fluidos intercelulares não são citoblastemas formadores de células, mas
produtos derivados de atividade metabólica das células; e iii) nos tecidos,
normais e doentes, toda célula nasce de outra célula. Em 1869, o suíço
Friedrich Miescher (1844-1895) descobriria, no núcleo da célula, substância
a que daria o nome de nucleína. Com a descoberta, em 1929, do bioquímico
Phoebus Levene (1869-1940) de que se tratava, na realidade, de duas
substâncias, receberiam os nomes de ácido desoxirribonucleico (DNA) e
ácido ribonucleico (RNA), ficando também estabelecido ser o ácido nucleico
uma genuína molécula de estrutura tetra nucleotídeo (adenina, guanina,
citosina e timina) mais carboidrato e fósforo. Uma reação específica, simples
e sensível, de manchar o DNA, desenvolvida pelo químico alemão Robert
Feulgen (1884-1955), em 1924, seria da maior utilidade para detectar os dois
ácidos e descobrir estar o DNA localizado no cromossomo.
Outro significativo avanço na compreensão da Biologia Celular,
naquele período, seria o trabalho de Walther Fleming (1843-1905),
fundador da Citogenética, ao investigar o processo da divisão da célula e
ao esclarecer, em 1882, em Citoplasma, Núcleo e Divisão da Célula, a mitose
(denominação por ele criada) e ao propor que o núcleo da célula provinha
de núcleo predecessor. Pouco depois (1883-85), August Weissmann (1834-1914) apresentaria seus trabalhos sobre a divisão meiose das células,
antecipando, inclusive, a noção de que os cromossomos deviam dividir-se
antes da fecundação.
O interesse dos biólogos para melhor compreender a estrutura
e as funções da célula explica a disseminação dos estudos no campo da
Citologia, apesar das dificuldades investigativas, dadas as dimensões
mínimas dos objetos sob exame, muitas vezes além da capacidade de
observação microscópica. Nas primeiras quatro décadas do século XX,
Pol André Bouin (1870-1962), Pierre Paul Grassé (1895-1985), Justin
Jolly (1870-1953) e Émile Guyenot (1885-1963) se tornariam conhecidos
por suas pesquisas citológicas. Em 1934, Robert Russell Bensley
(1867-1956) e Normand Louis Hoerr (1902-1958) desenvolveriam técnicas
309
CARLOS AUGUSTO DE PROENÇA ROSA
para desmontar células e isolar seus componentes, o que lhes permitiria
isolar e analisar a mitocôndria.
A construção, em 1933, do microscópio eletrônico, por Ernst Rucka
(1906-1988), viria a ser decisiva para o desenvolvimento de várias áreas
da Biologia, em particular por aumentar consideravelmente a capacidade
de observação das estruturas biológicas. Sua plena utilização, contudo,
seria efetiva após o término da Guerra de 1939-45, quando se iniciaria
um novo período de grandes realizações da Biologia celular e molecular,
notadamente com importantes descobertas a respeito do DNA.
Ainda em 1944, o bacteriologista inglês Oswald Theodor Avery
(1877-1955), Maclyn McCarty (1911-2005), geneticista americano, e Colin
MacLeod (1909-1972), geneticista canadense-americano, prosseguindo o
trabalho de 1928, de Frederick Griffith (1879-1941), identificariam o DNA
como princípio da transformação, responsável por características específicas
na bactéria, o que significava exercer o DNA uma função primordial na
Genética, vale dizer na hereditariedade. Essa inferência era o contrário da
opinião prevalecente, de que o DNA teria uma estrutura simples, o que o
desqualificaria, por conseguinte, como fator genético 164. Alexander Todd
(1907-1997) descobriria a estrutura de todas as bases purina (adenina e
guanina) e pirimidina (citosina e timina) do ácido nucleico, confirmando
o trabalho de Levene sobre a estrutura tetra nucleotídeo, pelo que
receberia o PNQ de 1957. Em 1950, o bioquímico austro-americano Erwin
Chargaff (1905-2002) esclareceria que a quantidade de unidades adenina
era equivalente ao de unidade timina, e as de guanina correspondiam às
de citosina, porém a proporção A+T e G+C poderia ser diferente entre
organismos. Sua conclusão é conhecida como regra de Chargaff.
Importante assinalar a celebração, em junho/julho de 1948, na
cidade de Paris, do colóquio Unités Biologiques Douées de Continuité
Génétique, organizado pelo Centro Nacional de Pesquisa Científica
da França (CNRS), com a participação de renomados biólogos, como
Max Delbruck, Boris Ephrussi, André Lwoff, Jacques Monod, Philippe
l’Heritier e Georges Teisssier, quando seriam discutidos temas de grande
relevância para o futuro desenvolvimento da Genética e da Biologia
molecular. Nesse encontro, Ephrussi postularia a existência de unidade
citoplásmica, a mitocôndria, que seria geneticamente autônoma. O
colóquio teria, igualmente, o mérito de deslanchar uma nova fase das
pesquisas biológicas na França, atrasada em relação à Alemanha e à Grã-Bretanha, nos campos da Genética e da Evolução, devido às reações de
setores do meio científico local aos chamados mendelismo e darwinismo.
164 LEE, Rupert. Eureka!
310
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O físico Francis Harry Compton Crick (1916-2004) formou-se em
Física no University College, de Londres, e com a deflagração da Segunda
Guerra Mundial, foi convocado para servir no Almirantado. Nesse período,
leu o livro O que é a vida? do físico Erwin Schrödinger, um dos fundadores
da Mecânica quântica, sobre genes, proteína, processo de crescimento e
de replicação, o que despertaria seu interesse pela Biologia. Em 1949, foi
trabalhar no Laboratório Cavendish, em Cambridge, familiarizando-se
com a técnica da difração dos raios-X para a determinação da estrutura
atômica de cristais, que fora desenvolvida por William Bragg e Lawrence
Bragg, este, agora, Diretor do Laboratório. Crick trabalharia num grupo
chefiado por Max Perutz numa pesquisa para descobrir a estrutura
tridimensional das proteínas.
O conhecimento sobre o ácido nucleico, por essa época, era ainda
bastante limitado, reduzido a alguns trabalhos de Oswald Avery sobre
a natureza química do material genético, a descoberta de Paul Levene
de que o DNA é um polímero com quatro bases nitrogenadas (adenina,
guanina, citosina e timina), uma molécula de açúcar e uma de fósforo,
e as pesquisas de Alexander Todd e de Erwin Chargaff sobre essas
bases nitrogenadas. Quase nada se sabia sobre a estrutura do DNA,
apesar do interesse sobre o assunto no meio químico internacional. A
configuração das bases relativas à coluna dorsal da molécula, o número
de cadeias que formavam a espinha dorsal e os tipos de ligações ainda
estavam por determinar. As pesquisas sobre as proteínas estavam,
por essa época, mais avançadas, tendo Linus Pauling decifrado a
estrutura desses polímeros, isto é, as posições relativas dos átomos
nas moléculas dos aminoácidos. Pauling descobriu (1948/50) que as
cadeias peptídicas das proteínas tinham forma (helicoidal) de hélice.
Em 1951, o americano James Watson se juntaria ao grupo de Perutz, em
Cambridge, iniciando com Crick uma parceria na pesquisa da estrutura
do DNA.
O biólogo James Dewey Watson (1928), nascido em Chicago, foi um
menino-prodígio: diplomado em Biologia pela Universidade de Chicago aos
19 anos; aos 22, concluiu seu doutorado pela Universidade de Indiana, onde
foi aluno do geneticista Hermann Joseph Muller (1890-1967), que descobrira
poderem os raios-X causar mutações genéticas, e do biólogo Salvador Luria
(1912-1991, PNFM de 1969), que estudava a genética dos bacteriófagos, uma
forma de vírus que se multiplica dentro das bactérias; nessa época, manteve
contatos com Max Delbruck (1906-1981-PNFM de 1969), o iniciador dos
estudos fagos. Ao concluir seus estudos, viajou para Copenhague, com uma
bolsa de estudos, mas ao assistir, em Nápoles, Itália, a uma conferência de
311
CARLOS AUGUSTO DE PROENÇA ROSA
Maurice Wilkins sobre cristalografia de raios-X para o estudo da molécula
do DNA, alterou seus planos, e, em vez de regressar a Copenhague, seguiu
(1951) para Cambridge, onde encontrou Crick, no Laboratório Cavendish.
Começou, então, uma extraordinária colaboração com um resultado
surpreendente obtido em dois anos. Em seu livro de 1968, intitulado The
Doublé Helix, Watson daria seu testemunho sobre esse profícuo período.
Era admitido que a estrutura da molécula do DNA devesse
ter a forma de hélice, descoberta por Pauling para a proteína, mas a
dificuldade estava em prová-la. De acordo com Maurice Hugh Frederick
Wilkins (1916), biofísico neozelandês e professor no King’s College, de
Londres, como as propriedades dos cristais refletem as propriedades das
moléculas que os compõem, os materiais dos seres vivos, se obtidos em
estado cristalino, poderiam servir para interpretar a estrutura molecular
e as funções biológicas. Esse entendimento impressionara Watson na
conferência de Nápoles. Ao mesmo tempo, sabia-se, desde o início do
século, que a duplicação do cromossomo durante a mitose era a chave da
hereditariedade e da Genética. Como os cromossomos eram considerados
um aglomerado de moléculas de DNA, era aceito que o DNA deveria
duplicar. Prova de que o DNA podia duplicar seria apresentada por
Alfred Hershey (1908, PNFM de 1969) e Martha Chase, em 1952, ao
pesquisar substâncias hereditárias. A decisão Watson-Crick de estudar
o DNA como material hereditário implicaria, assim, na utilização da
técnica da cristalografia de raios-X, o que requereu a colaboração de
Wilkins. As primeiras figuras de difração de raios X (1951/52) não
eram bem definidas, impedindo a determinação das posições dos
átomos e as distâncias entre eles, ou seja, a estrutura molecular. Cristais
melhores foram obtidos, em 1952, pela pesquisadora Rosalind Franklin
(1920-1958), do King’s College, que revelariam boa parte das provas
necessárias para esclarecer a estrutura molecular do DNA, inclusive sua
forma em hélice. Como Pauling fizera no caso das proteínas, um modelo
com varetas de arame para as ligações químicas e chapinhas de metal
para as moléculas das bases serviria para melhor visualizar a suposta
estrutura. Admitindo a relação estabelecida por Chargaff entre as bases
nitrogenadas da molécula, a forma em hélice e a propriedade de duplicar,
Watson e Crick apresentariam, em abril de 1953, a estrutura molecular
formada por uma hélice dupla, cada qual assentada sobre uma base de
açúcar-fosfato. As bases nitrogenadas estendiam-se para o centro das
hélices até entrarem em contato umas com as outras. A estrutura toda se
assemelha a uma escada em espiral, em que os degraus são compostos
por pares de grupos de átomos químicos.
312
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Considerada uma das grandes descobertas científicas modernas,
e um avanço decisivo no estudo da Biologia molecular e da Genética, a
descoberta da estrutura helicoidal molecular do DNA seria premiada, em
1962, com a outorga do PNFM ao biofísico inglês Francis Harry Compton
Crick e a James Dewey Watson, biólogo americano. Maurice Hugh
Frederick Wilkins (1916-2004), biofísico neozelandês, que colaborara nas
pesquisas com Crick/Watson, principalmente na cristalografia de raios-X,
que revelaria a estrutura em hélice dupla do DNA, receberia, igualmente,
um terço do prêmio165.
A partir da descoberta da estrutura molecular do DNA, cresceria,
ainda mais, o interesse da comunidade científica pela Bioquímica, pela
Biologia molecular e pela Genética, evidenciado pelo rápido avanço nas
pesquisas, com desdobramentos até então impensados.
Importante passo nas pesquisas sobre ácido nucleico seria dado
pelo espanhol, naturalizado americano, Severo Ochoa (1905-1993),
da Universidade de Nova York, descobridor, em 1955, da enzima
catalisadora da formação do RNA, o que lhe permitiu criar um RNA
sintético a partir de um só nucleotídeo, e por Arthur Kornberg (1918),
diretor do Departamento de Bioquímica de Stanford, que criou moléculas
sintéticas de DNA, em 1956, pela ação de enzima que catalisa a formação
de polinucleotídeos. Por essas contribuições pela descoberta de enzimas
sintetizantes de ácidos nucléicos, os dois bioquímicos dividiriam o
PNFM de 1959.
Os pesquisadores do Instituto Pasteur, o fisiologista e
microbiologista André Lwoff (1921-1994), que em suas pesquisas sobre
vírus e bactérias descobriu o processo de lisogenia; e os bioquímicos
Jacques Monod (1910-1976) e François Jacob (1920), descobridores do RNAmensageiro (mRNA), molécula intermediária na síntese de proteínas, que
faz a intermediação entre o DNA e as proteínas, dividiriam o PNFM de
1965 “pelas descobertas relativas às atividades regulatórias das células”.
George Palade (1912) e os belgas Christian de Duve (1917) e Albert Claude
(1899-1983) dividiriam o PNFM de 1974 por “suas pesquisas e conclusões
sobre as estruturas intracelulares e suas diferentes funções”.
Os microbiologistas Werner Arber (1929), professor de Biologia
molecular na Basileia, que descobriria as enzimas de restrição (que servem
para “cortar” o DNA em fragmentos definidos), e os americanos Daniel
Nathans (1928-1999) e Hamilton Othanael (1931), ambos da Universidade
Johns Hopkins, dividiriam o PNFM de 1978 pela descoberta de enzimas
de restrição e suas aplicações a problemas na Genética Molecular.
165 Comunicado de Imprensa – PNFM de 1962.
313
CARLOS AUGUSTO DE PROENÇA ROSA
Hamilton Smith verificaria a hipótese da ação da enzima no DNA, e
Nathans aplicaria as enzimas em Genética. Esse é mais um exemplo da
contribuição da Microbiologia para o desenvolvimento do conhecimento
em outras áreas da Biologia.
Paul Berg (1926) dividiria o PNQ de 1980 “por desenvolver métodos
para mapear a estrutura e as funções do DNA”, com Frederick Sanger (1918)
e Walter Gilbert (1932) “por suas contribuições relativas à determinação
de sequências básicas em ácidos nucleicos”. Rita Levi-Montalcini (1909)
e Stanley Cohen, americano, dividiriam o PNFM de 1986 “por suas
descobertas a respeito dos fatores de crescimento das células e órgãos”.
Os fisiologistas alemães do Instituto Max Planck, Bert Sakmann
(1942) e Erwin Neher (1944) receberiam o PNFM de 1991 pela criação
de métodos de medição, de grande importância para a Biologia Celular.
De acordo com o comunicado de imprensa do Instituto Karolinska, o
prêmio foi concedido pela descoberta referente à função dos canais de
um íon nas células. As membranas que separam as células do exterior
possuem canais que permitem a comunicação da célula com o exterior.
Esses canais consistem de moléculas ou complexos de moléculas que
habilitam a passagem de átomos carregados, ou íons. Sakman e Neher
desenvolveram uma técnica que permite registrar as pequenas correntes
elétricas que passam por esses canais.
O estadunidense Kary Mullis (1944) ganharia o PNQ de 1993
pelo desenvolvimento da técnica do PCR (Polymerase Chain Reaction) que
permite a amplificação e cópia química da sequência do DNA. Richard
John Roberts (1943) e Phillip Allen Sharp (1944) dividiriam o PNFM de
1993 “por descobrirem a existência de segmentos do DNA que não têm
função codificadora na elaboração de uma determinada proteína”. No ano
seguinte, Martin Rodbell (1925-1998) e Alfred Goodman Gilman (1941)
dividiriam o PNFM de 1994 pelo “descobrimento das proteínas G e de seu
papel na transmissão de caracteres nas células”166. Edward Lewis (1918),
a alemã Christianne Nusslein-Volhard (1942) e Eric F. Wieschauss (1947)
dividiriam o PNM de 1995 “por demonstrarem que todas as faculdades
das células são formadas em última instância por seu fator hereditário”167.
Sydney Brenner (1927), H. Robert Horvitz (1947) e John E. Sulston (1942)
dividiriam o PNFM de 2002 pelo “desenvolvimento de trabalhos pioneiros
de Biologia sobre o desenvolvimento e a morte celular programada, a
apoptose”168.
Comunicado de Imprensa – PNFM de 1994.
Comunicado de Imprensa – PNFM de 1995.
168 Comunicado de Imprensa – PNFM de 2002.
166 167 314
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
O Prêmio Nobel de Fisiologia e Medicina de 2006 foi dividido
entre Andrew Z. Fire (1959), da Universidade de Stanford, e Craig Mello
(1960), do Instituto de Pesquisas Howard Hughes, em Massachussets, por
suas descobertas na área da informação genética, isto é, pela descoberta
do RNA de interferência (RNAi). Os dois cientistas americanos foram
distinguidos, assim, pela descoberta do mecanismo para controle dos
fluxos de informações genéticas. O mecanismo descoberto se refere ao
silenciamento gênico, que ocorre a meio caminho entre a transcrição de
um gene ativo no núcleo e a produção da proteína por ele codificada
no citoplasma, por meio da eliminação das etapas intermediárias.
Fire e Mello descobriram que pode haver síntese de RNA mensageiro
(RNA-m) e transporte para o citoplasma sem haver síntese de proteína,
por meio da formação de complexos de cadeia dupla (RNA-i) entre
duas moléculas de RNA-m, os quais ativam um sistema de destruição
com especificidade para o reconhecimento do RNA-m de cadeia dupla.
O processo de interferência do RNA tem a capacidade de desativar
ou anular um gene, permitindo observar o que acontece com a célula
afetada.
7.6.3 Microbiologia
A ampla diversidade dos micro-organismos, que inclui o estudo
das funções das bactérias, fungos, protozoários, microalgas e vírus,
teve um grande desenvolvimento a partir da segunda metade do século
XIX, com as contribuições, entre outras, de Louis Pasteur (1822-1893 e
a significativa medalha “Pela Ciência, Pátria e Humanidade”); Robert
Koch (1843-1920), bacteriologista que receberia o PNFM de 1905 (pela
descoberta do bacilo da tuberculose, do vibrião do cólera e da origem
da doença do sono, considerado um dos fundadores da Bacteriologia);
Anton de Bary (1831-1888); Ferdinand Cohn (1828-1898); Edmond Nocard
(1850-1903); Édouard Perroncito (1847-1936) e Adolf Mayer (1843-1942).
O estudo da Microbiologia na fase atual, que avançaria, com o progresso
tecnológico, na aparelhagem e técnica laboratoriais, seria de grande
importância para o desenvolvimento de outras áreas da Biologia, como a
Fisiologia, a Patologia, a Biologia Celular e Molecular, e a Genética. Dado,
ainda, seu direto e grande impacto positivo em temas da saúde animal
e da saúde humana, e do desenvolvimento do tratamento terapêutico
em Medicina e Veterinária, o interesse geral em Microbiologia seria um
incentivo adicional para o patrocínio, público e particular, das pesquisas,
315
CARLOS AUGUSTO DE PROENÇA ROSA
das quais não estariam ausentes médicos, veterinários e sanitaristas.
A importância adquirida, na atualidade, pela Microbiologia, se reflete no
fato de que cerca de um terço dos prêmios concedidos na área da Fisiologia
ou Medicina foi destinado a cientistas que direcionaram suas atividades à
solução de problemas biológicos, usando, para tal fim, micro-organismos.
Dois extraordinários cientistas se notabilizariam por suas
contribuições neste ramo da Biologia nos primeiros decênios do século XX,
o holandês Martinus Beijerinck (1851-1931) e o russo Sergei Winogradsky
(1856-1953). Fundador da Escola de Microbiologia de Delft, Beijerinck
é considerado o fundador da Virologia, não por ter cunhado o termo,
mas pela descoberta de vírus, ao provar, com o emprego de filtragem,
que a doença do mosaico do tabaco é causada por algo menor que uma
bactéria. Por sua obra, receberia, em 1905, a Medalha Leeuwenhoek.
Outras importantes contribuições de Beijerinck à Microbiologia foram suas
descobertas de que as bactérias realizam a fixação do nitrogênio; a de que
uma reação bioquímica vital para a fertilidade do solo corresponde a uma
simbiose entre planta e bactéria; e a de que a redução de sulfato em bactérias
advém de uma forma de respiração anaeróbica. Winogradsky, formado
pela Universidade de São Petersburgo, diretor da divisão de Microbiologia
do Instituto de Medicina Experimental (1895-1905), pioneiro do conceito
de ciclo da vida, é descobridor do processo biológico da nitrificação
(transformação do nitrogênio amoniacal em nitrato) e formulador, em 1887,
do conceito de autotrofia (capacidade de um organismo criar seu próprio
alimento a partir de compostos inorgânicos com a utilização de uma fonte
de energia). Winogradsky, que se notabilizou como microbiologista do solo,
trabalharia no Instituto Pasteur de 1922 a 1940, onde pesquisaria, inclusive,
decomposição de bactérias e micro-organismos do solo.
A Microbiologia continuaria a se desenvolver nas primeiras
décadas do século XX, impulsionada pelo interesse generalizado em
encontrar resposta para o crescente número de epidemias, oriundas de
micro-organismos nocivos à saúde humana. Vacinas e antibióticos seriam
criados em laboratórios, a partir das descobertas de bactérias, fungos e
parasitas, responsáveis pelas doenças infecciosas, do que resultaria um
estímulo adicional para um grande avanço na área da Imunologia. Na
fase que se estenderia até a Segunda Guerra Mundial, várias descobertas
atestam o progresso realizado, as quais seriam fundamentais para a
sobrevivência de grandes segmentos populacionais.
O bacteriologista alemão Friedrich August Johannes Löffler (18521915) pesquisaria, na Ilha de Riems, de 1907 até seu falecimento prematuro, a
aftosa, doença que devastava os rebanhos em certas regiões da Europa. Graças
316
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
ao seu esforço e dedicação, seu laboratório seria dos mais conceituados para
pesquisa sobre essa doença nos animais, no início do século.
O bioquímico e microbiologista canadense Félix Hubert d’Herelle
(1873-1949), quando trabalhava no Instituto Pasteur (1911/21), daria uma
extraordinária contribuição para o desenvolvimento da Bacteriologia,
ao descobrir, em 1915, os bacteriófagos (termo por ele criado, em 1917),
vírus que infectam e destroem as bactérias. Escreveu La Bactériophage:
son rôle dans l’immunité (1921) e Le Phénomène de la Guérison des Maladies
Infectueuses (1938). Pesquisou d’Herelle na Guatemala, México, Egito
e Holanda. Colaborou na fundação de um instituto de pesquisa sobre
os bacteriófagos na Geórgia (URSS), nos anos 30, e foi professor de
Bacteriologia na Universidade de Yale (1928/34). Deve ser acrescentado,
sobre o assunto, que o bacteriologista inglês Frederick William Twort
(1877-1950), no mesmo ano de 1915, detectara o fenômeno da existência
de vírus que infectavam bactérias, aos quais denominou de agentes
bacteriolíticos. Sua tentativa de usá-los na cura de infecção bacteriana
fracassou, pelo que suas pesquisas não tiveram repercussão favorável no
meio científico, vindo a prevalecer o trabalho de d’Herelle, considerado o
verdadeiro descobridor dos bacteriófagos.
O médico francês Charles Louis Alphonse Laveran (1845-1922),
parasitólogo e patologista, investigaria a malária e descobriria, em 1880,
que os micróbios, e não as bactérias, eram os causadores da moléstia. Em
pesquisas posteriores, efetuadas na Itália, confirmaria sua hipótese de um
protozoário, o plasmódio, ser o provocador da doença. Em 1884, publicaria
Traité des Fièvres Palustres, pelo que receberia o PNFM de 1907. O mosquito
anopheles, transmissor do parasita da malária, seria descoberto em 1897
pelo inglês Ronald Ross (1857-1932), que receberia o PNFM de 1902 “pela
descoberta do processo de contaminação do organismo humano pela
malária”.
O bacteriologista japonês Hideyo Noguchi (1876-1928), em 1911, a
serviço do Instituto Rockefeller, descobriu o agente da sífilis, ao detectar
a presença de Treponema pallidum, bactéria espiroqueta, no cérebro de um
paciente. Nos anos seguintes, Noguchi pesquisaria, na América do Sul e
Central, a febre amarela, o tracoma e a poliomielite.
Dois notáveis cientistas ocupam posição privilegiada no
campo da Imunologia: o alemão Paul Ehrlich (1854-1915), da
Universidade de Göttingen, e o russo Ilya Ilych Mechnikov (18451916), do Instituto Pasteur (sucessor de Pasteur, em 1895, na direção
do Instituto), que dividiriam o PNFM de 1908, e cujas pesquisas e
descobertas datam do final do século XIX e início do seguinte. Ehrlich
317
CARLOS AUGUSTO DE PROENÇA ROSA
apresenta uma extraordinária folha de serviços prestados à Ciência:
pesquisou a sífilis, a tuberculose e o cólera; descobriu o sintético
Salvarsan, para o tratamento da sífilis; desenvolveu técnicas de
quimioterapia, da qual é considerado o criador; investigou na área
da hematologia, desenvolvendo métodos de detectar e diferençar
doenças entre várias amostras de sangue; estabeleceu os princípios
da imunoquímica; estudou os processos de coloração de tecidos
e células, tendo descoberto que o azul de metileno apresentava
afinidades com células nervosas vivas, e que somente algumas delas
poderiam ser tingidas. Pelo estudo da difteria, estabeleceria a teoria
dos anticorpos, desenvolvidos pelo organismo em reação às afecções
microbianas. Mechnikov pesquisaria, especialmente, em embriologia
dos invertebrados, tendo publicado trabalhos sobre a embriologia
dos insetos (1866) e das medusas (1886); escreveu um tratado
sobre inflamação (1892), e em 1901 seu L’Immunité dans les Maladies
Infectieuses; descobriria o fenômeno da fagocitose e o efeito destrutivo
de algumas células brancas do sangue, a que chamou de fagócitos; e
elaboraria a teoria (1884), base da Imunologia, de que quando uma
bactéria ataca o organismo, os leucócitos mono e plurinucleares se
transformam em fagócitos protetores, e se constituem em importante
fator de resistência a infecções e a doenças.
O patologista americano Francis Peyton Rous (1879-1970), formado
pela Universidade Johns Hopkins, ingressou no Instituto Rockefeller em 1909,
onde permaneceria, oficialmente, até sua aposentadoria em 1945, mas onde
trabalharia, na realidade, até seus 90 anos de idade. Em exame de um tumor
de uma galinha, para verificar se continha vírus, Rous espremeu o tumor e
o fez passar por um filtro que retinha todos os agentes infecciosos, menos
vírus. Rous descobriu que o filtrado sem célula podia transmitir infecção e
provocar o aparecimento de tumores em outras galinhas. Em 1911, escreveu
Transmissão de uma tumoração maligna por meio de um filtrado sem células, no qual
não chamou o agente da infecção de vírus, uma vez que o meio científico não
aceitava a ideia de um vírus poder causar câncer. O agente descoberto por
Rous seria conhecido como “sarcoma da galinha de Rous”. Rous continuaria
suas pesquisas nos anos seguintes, sendo que, no final dos anos 40, já era
aceito que certos cânceres eram causados por vírus. Em 1966, receberia o
PNFM “pelas pesquisas sobre causas e tratamento do câncer”.
O belga Jules Bordet (1870-1961), professor da Universidade
de Bruxelas, que isolara o bacilo da coqueluche, descobriria os soros
hemolíticos, e pesquisaria o processo de formação da coagulina. Receberia
o PNFM de 1919 por suas descobertas no campo da Imunologia. Em 1939,
318
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
escreveu o Traité de l’Immunité dans les Maladies Infectieuses, e foi presidente
do Primeiro Congresso Internacional de Microbiologia (1930), em Paris.
O australiano David Bruce (1855-1931) e o maltês Themistocles
Zammit (1864-1935) pesquisariam a febre de Malta, o primeiro descobrindo
a bactéria Brucella melitensis, e o segundo, descobrindo que a brucelose era
transmitida pelos bodes e cabras. O brasileiro Carlos Justiniano Ribeiro
Chagas (1879-1934), mineiro de Oliveira, pesquisador do Instituto Oswaldo
Cruz, no Rio de Janeiro, descobriria, em 1909, a doença de Chagas, em
que o parasita Trypanasoma cruzi é transmitido pelo inseto “barbeiro”.
Chagas é o único cientista, até a data, a descrever a patogênese, o vetor, o
hospedeiro, as manifestações clínicas, e a epidemiologia de uma doença.
O bacteriologista francês Charles Jules Henri Nicolle (1866-1936),
diretor do Instituto Pasteur de Túnis, descobriu, em 1909, que o tifo era
transmitido por um tipo de piolho. Pesquisou a febre de Malta, descobriu os
meios de transmissão da febre escarlate, do sarampo, da gripe, da tuberculose
e do tracoma. Escreveu, dentre as diversas obras, Le Destin des Maladies
Infectieuses. Receberia o PNFM de 1928 por suas pesquisas sobre o tifo.
Duas formidáveis drogas, consideradas milagrosas, que teriam
ampla repercussão mundial, criando esperança de cura a milhões
de paciente, e que viriam revolucionar o tratamento infeccioso,
seriam desenvolvidas nos anos 30. Seus descobridores receberiam o
reconhecimento internacional e inúmeras homenagens. O bacteriologista
alemão Gerhard Johannes Paul Domagk (1895-1964), por suas pesquisas
sobre o efeito antibacteriano da sulfa, e que desenvolveria o Prontosil,
em 1935, primeira droga na base de sulfa para o tratamento de infecções
estreptocócicas, receberia o PNFM de 1939. Alexander Fleming (1881-1955), biólogo escocês, autor de vários artigos sobre Bacteriologia e
Imunologia, descobriria a enzima lisozima, em 1922, e isolaria, por acaso,
em 1928, o antibiótico penicilina do fungo Penicillium notatum, dividiria
o PNFM de 1945 com Howard Florey (1898-1968), por seu papel na
extração da penicilina, e Ernst Boris Chain (1906-1979), alemão, refugiado
na Inglaterra desde 1933, que, com Florey, trabalharia na composição
química da penicilina e em sua ação terapêutica.
O bioquímico e virologista estadunidense Wendell Meredith
Stanley (1904-1971), professor do Instituto Rockefeller (1931/48) e diretor
do Departamento de Virologia da Universidade da Califórnia (1948/69),
pesquisador em proteínas, dividiria o PNQ de 1946 com o bioquímico
John Howard Northrop (1891-1987) e o químico James Batcheller Sumner
(1887-1955) pelo trabalho de preparação de enzimas e proteínas de vírus
na forma pura. Escreveu Viruses and the Nature of Life.
319
CARLOS AUGUSTO DE PROENÇA ROSA
O médico sanitarista e microbiologista sul-africano Max Theiler
(1899-1972), que desenvolveu a vacina contra a febre amarela em 1930, mas
apenas aprovada definitivamente em 1940, receberia o PNFM de 1951 por
suas pesquisas em relação à febre amarela. O microbiologista ucraniano,
naturalizado americano, Selman Abraham Waksman (1888-1973), do
Instituto Rutgers de Microbiologia, especialista em micro-organismos do
solo e estudioso de antibióticos, isolou a actinomicina (1941), letal para o
bacilo da tuberculose, e extraiu a estreptomicina, antibiótico relativamente
inócuo para o ser humano, mas muito eficiente no combate à tuberculose.
Por essa descoberta, ganhou o PNFM de 1952. Waksman é autor de vários
livros, como Enzimas (1926), Princípios de Microbiologia do Solo (1927) e
Minha Vida com os Micróbios (1954).
O bioquímico e virologista inglês Norman Wingate Pirie (1907-1997) descobriria, em 1936, que o vírus poderia ser cristalizado, inclusive o
mosaico do tabaco, e que seu material genético era o RNA, o que contrariava
a opinião generalizada da época, de que o vírus consistia apenas de
proteínas. A descoberta de Pirie seria importante para a compreensão do
DNA e do RNA. Em suas pesquisas, Pirie teve a colaboração de Frederick
Charles Bawdeen (1908-1972), virologista e patologista das plantas.
A impossibilidade da cultura de vírus fora de um organismo
era uma das maiores dificuldades enfrentadas pelos virologistas em
suas pesquisas, ao contrário, por exemplo, das bactérias que podem ser
cultivadas em tubos de ensaio ou em caldos nutrientes. A inoculação
do vírus em embriões de galinha facilitava, contudo, o trabalho dos
pesquisadores. No Pós-Guerra, o microbiologista estadunidense John
Franklin Enders (1897-1985), formado em Yale e Harvard, criou um
grupo de pesquisa no Hospital de Crianças, em Boston, com o intuito de
investigar o crescimento do vírus da poliomielite, que, até então, só pudera
ser cultivado em tecido nervoso vivo. Em 1949, usando fragmentos de
tecidos de embriões humanos (natimortos), Enders conseguiria a cultura
desse vírus, êxito que seria igualmente obtido com outros tipos de tecido
fragmentado169. Nessas pesquisas, teve Enders a colaboração do virologista
e microbiologista Thomas Huckle Weller (1915) e do médico Frederick
Chapman Robbins (1916-2003), com os quais dividiria o PNFM de 1954
“por experiências com cultivo do vírus da poliomielite em tecidos”.
O geneticista Joshua Lederberg (1925), considerado pioneiro
no campo da Genética bacteriana, receberia, em 1958, metade do valor
do PNFM, que seria igualmente concedido ao geneticista George Wells
Beadle (1903-1989) e ao microbiologista Edward Lawrie Tatum (1909169 ASIMOV, Isaac. Gênios da Humanidade.
320
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
1975). Lederberg teve o reconhecimento por seu trabalho em recombinação
genética e Genética bacteriana.
Em 1950, o bacteriologista francês André Michel Lwoff (1902-1994),
do Instituto Pasteur, e professor de Microbiologia da Sorbonne, em seus
estudos sobre a biologia das bactérias e dos vírus descobriu a lisogenia,
complexo processo que explica algumas viroses animais permanecerem
incubadas no hospedeiro, em estado latente de dormência. Embora seu
DNA seja incorporado ao DNA das células hospedeiras, as células não
têm, inicialmente, nenhuma função. A cada replicação do DNA celular,
a fração correspondente ao DNA viral é também replicada. Assim, ainda
que sadias, as células carregam as informações genéticas do vírus. Um
determinado fator perturbador pode desencadear a segunda fase do ataque
do vírus, no qual as funções das células infectadas são alteradas, e mais
vírus são produzidos. Lwoff estudou, também, a irradiação ultravioleta
(1950) e poliovírus (1954). Além de várias homenagens, receberia Lwoff
o PNFM de 1965 pela sua descoberta de que o material genético do vírus
pode ser assimilado por uma bactéria e passado a gerações sucessivas.
O prêmio seria dividido com Jacques Monod e François Jacob, também
pesquisadores do Instituto Pasteur, que investigaram a regulação da
síntese de enzimas em bactérias mutantes. Lwoff escreveu, em 1941, um
tratado intitulado L’Évolution Physiologique.
As infecções viróticas continuariam a desafiar a capacidade, o
conhecimento e as técnicas dos pesquisadores, permanecendo campo de
grande atividade investigativa. O físico e biólogo alemão, naturalizado
americano, Max Delbruck (1906-1981), formado (1930) em Física pela
Universidade de Göttingen, trabalharia na Dinamarca, Suíça e Grã-Bretanha. Em 1937, viajou aos EUA, permanecendo três anos no Instituto
de Tecnologia da Califórnia, e de 1940 a 1947, na Universidade Vanderbilt,
De retorno à Caltech, como professor de Biologia, permaneceria neste
renomado centro de pesquisa e ensino até sua aposentadoria, em 1976. Já no
final dos anos 30, Delbruck iniciou pesquisas sobre os bacteriófagos, vírus
que destroem as bactérias, descobertos por d’Herelle, e com a colaboração
do biólogo ítalo-americano Salvador Edward Luria (1912-1991), formado
pela Universidade de Turim, e pesquisador do MIT, publicaria, em
1943, Mutations of Bacteria from Vírus Sensitivity to Vírus Resistance, e, em
1945, demonstraria que os fagos se reproduzem sexualmente. O biólogo
americano Alfred Day Hershey (1908-1997), do Departamento de Genética
do Instituto Carnegie, colaboraria nas pesquisas, com seus estudos em
Virologia e sua demonstração de que o DNA e não a proteína é o responsável
pela transmissão dos códigos genéticos. Delbruck e Luria, pela descoberta
321
CARLOS AUGUSTO DE PROENÇA ROSA
da estrutura genética dos vírus, e Hershey, pelo papel central do DNA na
transmissão do código genético, dividiriam o PNFM de 1969.
David Baltimore (1938), microbiologista e geneticista do MIT,
Renato Dulbecco (1914), virologista ítalo-americano, pesquisador do
Imperial Cancer Lab de Londres, e o bioquímico e virologista Howard
Martin Temni (1934-1994), que descobriria a existência de uma enzima que
sintetiza o DNA a partir do RNA (1964), o que abriu novas perspectivas para
a síntese bioquímica, receberiam o PNFM de 1975 “por suas descobertas
da interação de vírus de tumores e material genético celular”170.
O virologista Baruch Samuel Blumberg (1925), do Instituto de
Pesquisa do Câncer, na Filadélfia, descobridor do antígeno australiano,
parte do vírus da hepatite B, que permitiria o desenvolvimento da vacina,
e Daniel Carleton Gajdusek (1923), do Instituto Nacional de Saúde, de
Bethesda, pesquisador da origem e disseminação das doenças infecciosas,
dividiriam o PNFM de 1976 “por descobrirem novos princípios em relação
à origem e à disseminação das enfermidades infecciosas”171.
Apesar do constante progresso nas pesquisas das doenças
infectocontagiosas, o mais recente desafio aos investigadores ocorreria
em meados dos anos 80. O surgimento da infecção conhecida como AIDS
daria especial importância à necessidade urgente de serem encontrados
seu agente transmissor e a maneira de combatê-lo. Conforme se espalhava
a contaminação e crescia assustadoramente o número de mortes, maior
era a pressão da opinião pública mundial pela descoberta da causa da
enfermidade, de forma a curar os pacientes e evitar uma epidemia em
escala global.
Laboratórios e centros de pesquisa, nos vários continentes, se
dedicariam a essa tarefa. O virologista francês Luc Montagnier (1932),
do Instituto Pasteur e da Fundação Mundial para a Pesquisa e Prevenção
da AIDS, que isolaria o vírus HIV (Human Imunodeficiency Vírus), em
1983, e o pesquisador americano Robert Charles Gallo (1937), em artigo
publicado na revista Science, de 1984, identificaria o HIV, isolado por ele
e seu grupo, como o agente infeccioso responsável pela AIDS (Acquired
Imune Deficiency Syndrome). Imediatamente se estabeleceria uma polêmica
para se determinar qual dos dois havia descoberto o real agente da AIDS.
Pesquisas posteriores atestariam tratar-se do mesmo HIV. Apesar de
haver maioria de opinião, no meio acadêmico, favorável a Montagnier
como descobridor do HIV, a controvérsia perderia intensidade com o
acordo pelo qual ambos teriam o crédito pela descoberta. Em 2008, viria o
170 171 Comunicado de Imprensa – PNFM de 1975.
Comunicado de Imprensa – PNFM de 1976.
322
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
reconhecimento oficial da comunidade científica internacional à obra de
Montagnier ao lhe ser concedida parte do PNFM “pela descoberta do vírus
da imunodeficiência humana (HIV) que provoca a AIDS”. Montagnier
dividiria a metade do prêmio com a pesquisadora francesa Françoise
Barre-Sinoussi (1947), com doutorado em Virologia e pesquisadora do
Instituto Pasteur, por sua importante e decisiva contribuição na descoberta
do vírus172.
A outra metade do PNFM de 2008 foi concedida ao pesquisador
alemão Harald zur Hausen (1936), da Universidade de Dusseldorf
e do Centro Alemão de Pesquisa do Câncer, em Heidelberg, por ter
descoberto, com base em suas pesquisas nos anos de 1970 e 1980, o vírus
humano papiloma (HPV), causador do câncer cervical (câncer do colo
do útero), o segundo tipo de câncer mais comum entre as mulheres. No
pressuposto de que esse tipo de câncer tivesse origem viral, Hausen
procurou descobri-lo pela busca de um DNA viral específico, o que seria
obtido em biópsias de pacientes com câncer de colo do útero. Os tipos de
vírus que detectou, os quais Hausen conseguiria posteriormente clonar,
constam em cerca de 70% das biópsias dessa doença.
Hamilton Othanel Smith (1931), bacteriologista, ganhador do
PNFM de 1978173 pela descoberta de enzimas do tipo II, seria o primeiro a
determinar, em 1995, a sequência do genoma de uma bactéria (haemophilus
influenza), o mesmo organismo no qual descobrira a enzima de restrição,
com Daniel Nathans e Werner Arber.
7.6.4 Genética
A Genética é uma Ciência do século XX, ainda que tenha suas
raízes na segunda metade do século XIX, com a monumental obra de
Gregor Mendel (1822-1884), de 1866. Nesse período, seriam registrados
importantes progressos e descobertas significativas nas áreas afins:
cromossomos, DNA e célula, que seriam da maior relevância para o
entendimento de fenômenos biológicos, como o da hereditariedade, objeto
de especulação desde a Antiguidade. O significado científico da descoberta
de Mendel não foi reconhecido em seu tempo, vindo sua obra a merecer
especial atenção dos pesquisadores somente após a divulgação, em 1900,
proporcionada pelos trabalhos de Correns, De Vries e von Tschermak.
Apesar de certo ceticismo e algumas dúvidas iniciais em restritos círculos
172 173 Comunicado de Imprensa – PNFM de 2008.
Comunicado de Imprensa – PNFM de 1978.
323
CARLOS AUGUSTO DE PROENÇA ROSA
científicos, intensa atividade de pesquisa se desenvolveria, desde os
primeiros anos do século XX, na ampla e complexa área da Genética, a qual
se tornaria, em pouco tempo, a mais importante e a mais representativa da
Biologia da atualidade.
Os avanços conceituais e experimentais neste complexo e abrangente
ramo científico, que inclui e incorpora investigações de outras áreas,
como a Bioquímica, a Microbiologia, a Biologia molecular, a Embriologia
e a Citologia, seriam de benefício para toda a Biologia. A extraordinária
evolução das pesquisas, e consequente conhecimento derivado de seus
desdobramentos (sequenciamento do Genoma, desenvolvimento da
Biotecnologia e a produção de transgênicos, e o surgimento da clonagem
de plantas e animais) explicam o crescente interesse generalizado por essas
pesquisas, que têm como objetivo servir a Humanidade. Por outro lado, a
Genética se constituiu, igualmente, em extraordinário apoio à “teoria da
Evolução biológica pela seleção natural”, de Darwin, trazendo adicionais
evidências comprobatórias de sua validade científica.
O gene é a unidade fundamental da hereditariedade, pequena
sequência (tamanho aproximado de 0,4 micrômetro) de bases
hidrogenadas capazes de definir uma característica do ser vivo. Vários
genes em sequência formam o DNA, conjunto de moléculas que carregam
todo o código genético de todos os seres vivos. O DNA, muito longo (cerca
de dois metros) se encontra enrolado em forma de mola, encapsulado nos
cromossomos (tamanho aproximado de 1,4 micrômetro), que estão dentro
da célula.
Cinco períodos da evolução da Genética podem ser estabelecidos,
com o propósito meramente expositivo: período pós-mendeliano, até os
anos de 1910, com os trabalhos de Morgan e a comprovação da Teoria
cromossômica da hereditariedade; um segundo período, até o final dos
anos 40, com a descoberta de Avery, MacLeod e McCarty de o DNA ser
o elemento transportador das informações genéticas contidas em suas
células; o terceiro período, caracterizado pelo grande avanço nas pesquisas
relativas ao DNA, inclusive sua estrutura, nas décadas de 50 e 60; um
quarto período se inauguraria com a criação do DNA recombinante e
desenvolvimento da Biotecnologia; e o quinto período teria início com o
lançamento do Projeto Genoma Humano e os significativos avanços na
técnica da clonagem.
324
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.6.4.1 Primeiro Período. Confirmação das Leis de Mendel
O primeiro período se estenderia desde os últimos anos do século
XIX com os trabalhos pioneiros de grande importância. A redescoberta
de Mendel, a teoria da mutação de De Vries, certo ceticismo e dúvidas
quanto à validade das leis da hereditariedade, até a obra de Morgan e sua
equipe, que sinaliza, inclusive, sua conversão à Genética mendeliana.
Em 1869, Johan Friedrich Miescher (1844-1895) descobriu no
núcleo das células o que denominou de nucleína, depois chamado de ácido
nucleico, em 1889, por Richard Altmann (1852-1900), que fora assistente
de Miescher. Em 1913, Phoebus Levene (1869-1940) constatou que alguns
ácidos nucleicos continham ribose (açúcar de cinco átomos de carbono)
e outras, desoxirriboses (ribose com menos um átomo de oxigênio), o
que significava dois tipos de ácidos nucleicos, o ribonucleico (RNA) e
o desoxirribonucleico (DNA), que continha duas purinas (adenina e
guanina) e duas pirimidinas (citosina e timina). No RNA, a timina era
substituída por outra pirimidina, uracil. Por ser o DNA de estrutura
simples, de pequenas moléculas, a opinião generalizada na época seria a
de que o DNA não poderia carregar o código genético, e sim as proteínas.
Os cromossomos (macromoléculas do DNA), palavra formada por
cromos (cor, em grego) e soma (corpo, em grego), devido à sua capacidade
de rapidamente absorver corantes, foram primeiro observados nas plantas,
pelo botânico suíço Karl Wilhelm Nageli (1817-1891) em 1842, e depois, por
Eduard Van Beneden (1846-1910). Em 1870, Walther Fleming (1843-1905),
ao pesquisar os embriões de salamandra, observou no núcleo das células
um material muito colorido, que denominou de cromatina, filamento que
se fissurava longitudinalmente, processo de divisão da célula ao qual daria,
em 1882, o nome de mitose (do grego para filamento). August Weissmann
(1834-1914), que, em 1883-85, adiantara a ideia de que os cromossomos
deveriam reduzir-se à metade (meiose, termo usado a partir de 1890) antes
da fecundação, proporia, num ensaio com o intuito de explicar a constância
do material hereditário de uma geração para outra, que a hereditariedade
seria transmitida por uma substância de constituição química e molecular.
Em 1887, Theodor Boveri (1862-1915) mostraria a existência de vínculo
da substância química e molecular com a hereditariedade. E o citologista
belga Van Beneden descobriria, ainda, que na formação dos gametas, uma
das divisões celulares (meiose) não era precedida da duplicação dessas
substâncias (cromossomos), que seu número era constante nas diversas
células de um organismo e que cada espécie parecia ter um número
característico deles, isto é, todos os organismos de uma espécie têm o
325
CARLOS AUGUSTO DE PROENÇA ROSA
mesmo número de cromossomos. Em 1888, Wilhelm Waldeyer (1836-1921)
batizaria tais substâncias como cromossomos.
A redescoberta da obra de Mendel, em 1900, é atribuída a três
pesquisadores: i) o conceituado biólogo e botânico holandês Hugo
Marie De Vries (1848-1935), professor de Botânica da Universidade de
Amsterdã, autor de Pangênese Intracelular (1889), A Teoria da Mutação
(1901-03), Espécies e Variedades: Suas Origens por Mutação (1905) e Plant
Breeding (1907), que escreveu o artigo, em março de 1900, em francês, Lei
da Segregação dos Híbridos, sem mencionar Mendel, e outro, em maio desse
mesmo ano, reconhecendo a precedência de Mendel. Em 1906, receberia
a Medalha Darwin; ii) o botânico e geneticista alemão Carl Correns (1864-1933), da Universidade de Tubingen e primeiro presidente do Instituto
Kaiser Guilherme para Biologia, fundado em 1913, que publicaria um
artigo, em abril de 1900, intitulado Lei de Mendel sobre a descendência dos
híbridos, no qual menciona o artigo de De Vries e declara que o mérito
pela descoberta da transmissão dos caracteres genéticos era do monge-cientista, que já havia chegado às mesmas conclusões 34 anos antes. Em 1932,
lhe seria concedida a Medalha Darwin pela Sociedade Real de Londres; e iii) o
agrônomo e botânico austríaco Erich Tschermak von Seysenegg (1871-1962),
cujos experimentos publicados confirmavam as conclusões de Mendel174.
Uma controvérsia se estabeleceria imediatamente com a publicação, em
1901-03, do livro, em dois volumes, de De Vries, sobre sua teoria da mutação, em
que se posicionava contra a Teoria da Evolução, de Darwin. De Vries sustentava
que grandes variações hereditárias ocorridas numa geração poderiam produzir
descendentes de espécies diferentes daquela de seus genitores, isto é, a mutação
seria fonte primária da diversidade genética no processo evolutivo. A evolução
lenta e gradual das espécies, por seleção natural, era, assim, contestada por
uma evolução decorrente de abrupta, por saltos, e repentina mutação genética.
A teoria de De Vries, baseada em suas pesquisas com a planta de flor amarela
oenethera lamarckiana (prímula da noite) seria, em poucos anos, desacreditada,
quando comprovado que os casos apresentados no estudo como evidência não
decorriam de mutações genéticas, mas de complexos arranjos cromossômicos
peculiares à planta investigada.
O biólogo alemão Theodor Boveri (1862-1915), em pesquisa
do ouriço-do-mar, e o citologista americano Walter Sutton (18761916), na base de pesquisas sobre a formação de espermatozoides dos
gafanhotos, demonstrariam, em 1902, em trabalhos independentes,
que os cromossomos eram os fatores da hereditariedade, de Mendel, e
que, ademais, ocorriam em pares e eram estruturalmente similares.
174 TATON, René. La Science Contemporaine.
326
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Sutton demonstraria, igualmente, que as células do esperma e do óvulo
continham par de cromossomos, que na meiose se replicam, e depois, se
unem, e aventaria a Teoria dos cromossomos da hereditariedade, que só
viria a ser confirmada por Thomas Morgan. Em 1903, Sutton publicaria
The Chromosomes in Heredity.
Nesse mesmo ano, William Bateson (1861-1926), um dos
primeiros propagandistas da obra de Mendel na Grã-Bretanha, inclusive
traduzindo-a para o inglês, e Lucien Cuenot (1866-1951) estenderiam as
leis da hereditariedade, de Mendel, aos animais. Em 1906, Bateson criaria
o termo “genética”, e, com Reginald Crundall Punnet (1875-1967), seria
pioneiro em verificar que os genes estariam ligados nos cromossomos.
Bateson será um dos críticos do trabalho de Morgan, rejeitando, inclusive,
a Teoria cromossômica da hereditariedade. Bateson, em 1904, e Punnet,
em 1922, receberiam a Medalha Darwin, concedida a cada dois anos, pela
Sociedade Real de Londres, a cientistas por significativas contribuições
nas áreas da Biologia relacionadas com a obra de Darwin.
Em 1909, o botânico dinamarquês Wilhelm Ludwig Johannsen
(1857-1927), ainda que cético da Genética mendeliana, cunharia o termo
gene (em grego para “dar nascimento a”), o que o levaria a distinguir
genótipo (constituição genética do organismo) e fenótipo (conjunto de
características observáveis de um indivíduo, devido a fatores hereditários,
isto é, ao genótipo).
Nesses primeiros anos do século XX, o botânico e agrônomo
americano Edward Murray East (1879-1938), com doutorado pela
Universidade de Illinois, se dedicaria a experimentos de reprodução do
milho, batata e tabaco em estações experimentais agrícolas. Suas pesquisas
sobre pés de tabaco levaram-no a concluir que mutações espontâneas
nos próprios genes seriam responsáveis por certas mudanças em futuras
gerações de planta. Tais mutações poderiam ser importantes no processo
de seleção natural, pois no caso de ocorrer uma característica vantajosa,
ela teria maior chance de sobreviver no organismo, sendo transmitida
às futuras gerações175. As conclusões de East viriam a ajudar os futuros
trabalhos de Haldane, Fisher e Wright.
O estudo da Genética teria um desdobramento marcante e
inesperado nos anos 1910-15, com a comprovação da Teoria cromossômica
da hereditariedade, por Thomas Hunt Morgan e sua equipe, porquanto se
originara de um pesquisador que, até então, se mostrara bastante crítico
e cético sobre a obra de Mendel, e os trabalhos de vários conceituados
cientistas, como Weissmann, Van Beneden e Boveri. Em diversas ocasiões,
175 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História.
327
CARLOS AUGUSTO DE PROENÇA ROSA
Morgan teria, inclusive, manifestado sérias dúvidas sobre a própria
existência do gene.
Thomas Hunt Morgan (1866-1945), formado pela Universidade de
Kentucky e com doutorado, em 1891, pela Universidade Johns Hopkins,
trabalharia, por 13 anos, em Bryn Mawr College como professor e
pesquisador em Embriologia, tendo passado um ano (1894) na Estação
Zoológica de Nápoles (Itália), com o biólogo alemão Hans Driesch (1867-1941), que despertaria seu interesse por Embriologia experimental.
De retorno a Bryn Mawr, em 1895, escreveria seu primeiro livro The
Development of the Frog’s Eggs (1897). Morgan seria contratado, em 1904,
para a cadeira de Zoologia Experimental da Universidade de Colúmbia,
onde permaneceria até 1928, quando se transferiu para o Instituto de
Tecnologia da Califórnia (Caltech), que ocuparia até sua aposentadoria,
em 1942. Sua pesquisa mais importante se refere às moscas-do-vinagre,
objeto do famoso livro intitulado The Mechanism of Mendelian Heredity,
escrito em 1915, com seus assistentes Sturtevant, Bridges e Muller. Dentre
seus vários outros livros, podem ser citados Heredity and Sex (1913), A
Critique of the Theory of Evolution (1916), The Physical Basis of Heredity(1919),
Evolution and Genetics (1925), The Theory of Gene (1926), Experimental
Embryology (1927), The Scientific Basis of Evolution (1932) e, com Sturtevant,
o artigo The Genetics of Drosophila (1925). Por seus estudos sobre o papel
dos cromossomos na transmissão dos caracteres hereditários, Morgan
receberia o PNFM de 1933. Receberia em 1924 a Medalha Darwin.
Morgan começaria, em 1908, a pesquisar a drosophila melanogaster
(mosca-do-vinagre), com o propósito de descobrir mutações que pudessem
comprovar o surgimento súbito de novas espécies, na mesma linha
sugerida por De Vries, e, por conseguinte, contrária às teorias de Darwin
e de Mendel. Para tanto escolheu um pequeno inseto, apropriado para tal
tipo de investigação por seu curto ciclo vital (12 dias, ou 30 gerações por
ano), por suas células possuírem apenas quatro cromossomos, e por contar
com certas características hereditárias (forma das asas, cor dos olhos,
pigmentação do corpo), além de grandes cromossomos, o que facilitava seu
estudo. Morgan estabeleceria, também, uma eficiente e competente equipe
de jovens pesquisadores, com Alfred Sturtevant, Calvin Bridges e Herman
Muller, que lhe seriam de grande valor no curso das investigações. Outros
pesquisadores já haviam pesquisado, anteriormente, a mesma mosca, sem
sucesso, inclusive a geneticista americana Nettie Maria Stevens (1861-1912), que descobriria, em 1905, que os cromossomos determinam o sexo
do feto, que depende da presença ou da ausência do cromossomo Y.
Em 1910, após uma série de pesquisas nos sucessivos cruzamentos
328
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
das sucessivas gerações da mosca, Morgan verificou que um macho
apresentou olhos brancos, diferente dos demais, que tinham olhos
vermelhos. Nos cruzamentos seguintes, constatou que, embora olhos
brancos aparecessem quase sempre entre os machos, poderiam ocorrer
ocasionalmente com as fêmeas. Ademais, os olhos brancos reapareciam
numa proporção de 3 por 1 para as características dominantes sobre as
recessivas, conforme a lei de Mendel. Concluiria Morgan que os olhos
brancos e os olhos vermelhos se comportavam como fatores mendelianos,
sendo o vermelho predominante sobre o branco. Estudos posteriores de
Morgan o levaram a concluir estar a hereditariedade vinculada ao sexo,
pois o gene devia estar localizado na parte do cromossomo X, que falta no
cromossomo Y masculino. Em artigo na revista Science, em 1910, Morgan
publicaria os primeiros resultados dessas suas pesquisas.
Nas pesquisas que se seguiram, Morgan e sua equipe mostrariam,
numa série de artigos, fortes e convincentes evidências favoráveis à Teoria
cromossômica da hereditariedade, inclusive a disposição linear dos
genes nos cromossomos, verdadeiro encadeamento dos genes, conforme
adiantara Sutton, sobre uma coleção de genes “enfileirados como contas
num cordão”. Descobririam, ainda que sua posição poderia ser localizada
e identificada em regiões precisas dos cromossomos. A partir daí,
Morgan esclareceria o princípio mendeliano da segregação estrita dos
caracteres, isto é, a herança independente dos caracteres morfológicos
pela descendência, pela explicação que a dependência entre sexo e cor
dos olhos nas moscas-do-vinagre era devida à localização dos genes
responsáveis pela cor dos olhos no cromossomo X176.
Em 1913, Alfred Henry Sturtevant (1891-1970), formado pela
Universidade de Colúmbia, em 1912, e doutorado, em 1914, professor de
Genética (1928/47) e de Biologia (1947/63) da Caltech, autor de A History
of Genetics (1965), prepararia o primeiro mapa dos genes, e, nesse mesmo
ano de 1914, Calvin Bridges (1889-1938), formado pela Universidade
de Colúmbia, escreveria importante artigo, no qual localizaria um gene
específico num cromossomo específico. Em O Mecanismo Mendeliano
da Hereditariedade, de 1915, Morgan e sua equipe esclareceriam vários
mecanismos, em particular: i) o de que os genes situados juntos num
mesmo cromossomo tinham tendência a ser herdados em grupo, o que
permitia estabelecer mapas de cromossomos; e ii) o do cruzamento,
pelo qual cromossomos trocam material genético entre cromossomos de
origem materna e paterna, dando origem a cromossomos recombinados,
isto é, em que os genes não são alterados, como no caso das mutações, mas
176 RIVAL, Michel. Os Grandes Experimentos Científicos.
329
CARLOS AUGUSTO DE PROENÇA ROSA
apenas rearranjados. Essa troca aleatória de segmentos cromossômicos
provoca a mistura genética, observada nos indivíduos.
Com o trabalho de Morgan e sua equipe, ficaram definitivamente
assentados e comprovados os conceitos de gene e de cromossomos.
Iniciada com o intuito de demonstrar a correção da teoria da mutação,
a pesquisa viria a modificar radicalmente a posição de Morgan sobre a
transmissão de caracteres genéticos, cujas descobertas o colocam como
um dos criadores da Genética moderna.
7.6.4.2 Segundo Período. Desenvolvimento e Pesquisa
Um segundo período da evolução da Genética pode ser situado
entre a publicação, em 1915, de O Mecanismo Mendeliano da Hereditariedade
e a obra de Avery, MacLeod e McCarty, de 1944, período que registra
alguns importantes avanços nas pesquisas genéticas.
Hermann Joseph Muller (1890-1967), formado pela Universidade
de Colúmbia, assistente de Morgan e colaborador na pesquisa com a mosca-do-vinagre, coautor do livro O Mecanismo Mendeliano da Hereditariedade,
se transferiu, em 1915, para o Instituto Rice (Houston), onde continuaria
a investigar mutação, inclusive o efeito da elevação da temperatura no
aumento da taxa de ocorrência da mutação. Em 1926, já então professor da
Universidade do Texas, e após mais de dez anos de pesquisa, descobriria
métodos (irradiação de raios-X) para produzir artificialmente mutações
em moscas-do-vinagre e outros organismos a uma taxa superior a 250
vezes a da mutação espontânea177. Sobre o assunto escreveu, em 1927, o
artigo Transmutação Artificial do Gene. Após trabalhar, de 1933 a 1940, na
Alemanha, URSS, Espanha e Grã-Bretanha, retornou aos EUA, e depois
do conflito mundial, foi nomeado professor de Zoologia da Universidade
de Indiana (1945-67). Em 1946, recebeu o PNFM “pela descoberta de que
mutações podem ser induzidas pelos raios X”.
Uma das grandes dificuldades enfrentadas pelos cientistas da
época no estudo dos cromossomos se referia à determinação de seu
número nas diversas espécies. Vários estudos seriam realizados neste
período, variando o número de cromossomo de 8 a 50. Theophilus
Painter (1889-1969), zoólogo americano que identificaria genes na
mosca-do-vinagre, após pesquisar cromossomos no espermatócito,
chegou, em 1923, ao número de 24. Painter descobriria, em 1931, os
grandes salivares da drosófila, o que viria a permitir revelar detalhes
177 COTARDIÈRE, Philippe de la. Histoire des Sciences.
330
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
não identificados nos demais pequenos cromossomos. Pesquisadores
posteriores, levando em consideração o trabalho de Painter para o
espermatócito, e atribuindo igual distribuição da parte da fêmea,
concluiriam por um total de 48 cromossomos para a espécie humana.
Apesar dos aperfeiçoamentos introduzidos por Robert Feulgen
(1884-1955), com a chamada reação de Feulgen (1924), que permitia
localizar o DNA nos cromossomos, as técnicas de coloração então
usadas eram insuficientes, ainda, para permitir um mais completo
conhecimento dos cromossomos. Vários métodos de bandeamento são,
atualmente, usados nos laboratórios de biogenética para identificação
dos cromossomos e análise da estrutura cromossômica (bandeamentos G,
Q, R, e C, e bandeamento de alta resolução). A questão do número de
cromossomos da espécie humana, e de outras espécies, só estaria resolvida
na década de 50.
O embriologista e citologista alemão Hans Spemann (1869-1941),
formado em Zoologia, Botânica e Física pelas Universidades de Heidelberg,
Munique e Wurzburgo, professor de Zoologia em Friburgo (1919/35),
se tornaria conhecido por suas investigações pioneiras no campo da
Embriologia e Genética, ao desenvolver, nos anos 30, o conceito de indução,
com seus trabalhos sobre a diferenciação de células embrionárias durante o
desenvolvimento do organismo. Por suas pesquisas, Spemann se tornaria
um precursor em clonagem, ou, mais precisamente, em transplante,
trabalhando principalmente com anfíbios. Já em 1902, dividira a célula
de um embrião em dois, cada uma se desenvolvendo para se tornar uma
salamandra, o que provava que células embrionárias continham todas
as informações genéticas para criar um organismo. No final dos anos 20,
pesquisando salamandras, Spemann foi capaz de transferir o núcleo de
uma célula embrionária de uma salamandra para uma célula embrionária,
sem núcleo, de outra salamandra, que se desenvolveria normalmente. Esta
seria a primeira experiência de clonagem pelo método de transplante ou
transferência do núcleo. Em 1938, Spemann publicaria o resultado de suas
investigações no livro intitulado Desenvolvimento e Indução Embriônica, no
qual proporia o “experimento fantástico” de clonagem de um organismo
pela utilização da transferência de célula diferenciada ou adulta. Para
tanto, contudo, não dispunha de tecnologia apropriada. Spemann
receberia, em 1935, o Prêmio Nobel de Fisiologia pela descoberta do efeito
da indução, quando uma parte do embrião transplantado para outra
região do embrião causa uma mudança nos tecidos ao redor.
As experiências, em 1928, do médico e bacteriologista inglês
Frederick Griffith (1877-1941), com a bactéria streptococcus, causadora
331
CARLOS AUGUSTO DE PROENÇA ROSA
da pneumonia, em seu intento de encontrar a cura para esta doença, o
levaria a pesquisar os dois tipos de bactéria, o de envoltório protetor,
que lhe dá uma superfície lisa e são virulentas (streptococcus S), e o sem
cobertura (por falha metabólica), de superfície rugosa e menos virulenta
(streptococcus R). Injetou em camundongo o tipo S vivo e o tipo R morto,
que, para sua surpresa, adquiriu a pneumonia e morreu. O curioso é que
Griffith encontrou no hospedeiro alguns estreptococos S vivos, o que o
levaria a concluir que deveria haver alguma “substância transformadora”
que tornara os bacilos brandos em mortais, mas como seu interesse era
apenas terapêutico, não prosseguiria com suas investigações sobre o tema,
que seria retomado, na década de 40, por Avery, MacLeod e McCarty.
Pesquisas de 1929, de Alfred Sturtevant e Sterling Emerson
(1900-1988), confirmariam que a complexa genética da oenethera
lamarckiana, objeto de investigação de De Vries, não era exemplo de
mutação, mas fruto de deslocamento de grupos de genes, importante
evidência que reforçaria a Teoria cromossômica da hereditariedade.
Três geneticistas versados em Matemática dariam, nos anos 20 e 30,
importantes contribuições, ao relacionarem Evolução e Genética, dando à
teoria darwinista uma nova sustentação científica, o que lhes valeria a Medalha
Darwin. Ronald Aylmer Fisher (1890-1962), estatístico e geneticista inglês,
John Burdon Sanderson Haldane (1892-1964), biólogo e geneticista escocês, e
Sewall Wright (1889-1988), geneticista americano, demonstrariam, em estudos
independentes, mas simultâneos, como pequenas variações resultantes de
recombinações cromossômicas, juntamente com as mutações espontâneas
deduzidas por Edward East, podiam explicar, matematicamente, na escala de
tempo de intervalo dos fósseis, as grandes mudanças nos organismos vivos.
A principal obra de Fisher sobre o assunto seria a de 1930, The Genetical Theory
of Natural Selection. As de Haldane seriam a série de artigos, iniciada em 1924,
intitulada A Mathematical Theory of Natural and Artificial Selection, e o livro
de 1932, The Causes of Evolution. E a de Wright, seria o The Roles of Mutation,
Inbreeding, Crossbreeding and Selection in Evolution, de 1932. Esses trabalhos
significam a fundação da chamada Genética populacional.
O biólogo Max Delbruck, com formação em Física, e que trabalhara
algum tempo com Max Born, escreveria, em 1935, que a Mecânica quântica
explicava as mutações em organismos vivos, pelo deslocamento de
moléculas no núcleo celular por sobre uma barreira de energia (medida em
quanta), passando de uma configuração estável para outra configuração
estável. Era uma demonstração sobre a Física do átomo determinar os
processos biológicos mais básicos178.
178 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História.
332
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Em 1937, apareceria a obra fundamental de Theodosius
Dobzhansky (1900-1975), intitulada Genética e a Origem das Espécies, que
coloca definitivamente a Genética como explicação da evolução das
espécies mediante a seleção natural, por ser considerada, a justo título,
marco da Teoria Sintética da Evolução ou Síntese Evolutiva. A obra será
examinada na parte deste trabalho relativa à Evolução.
George Wells Beadle (1903-1989), formado pela Universidade de
Nebraska, e com doutorado pela Universidade de Cornell, e Edward
Lawrie Tatum (1909-1975) começariam a trabalhar, em 1941, com um
organismo mais simples que a mosca-do-vinagre, um fungo chamado
neurospora crassa, que se desenvolve num meio nutriente contendo apenas
açúcar, suprindo-se de outros elementos (nitrogênio, fósforo, enxofre)
por meio de sais inorgânicos. Demonstrando que cada gene produzia
uma determinada proteína, pois os genes regulam reações específicas,
determinando as especificidades das enzimas, o resultado seria expresso
pela célebre fórmula “um gene, uma proteína”. A ligação entre gene e
enzima estava demonstrada, comprovando estudo pioneiro, do início do
século, pelo médico inglês Archibald Garrod (1857-1936). Beadle e Tatum
dividiriam o PNFM de 1958 por seus estudos sobre a regulação genética
de processos químicos, sendo a outra metade do prêmio concedida a
Joshua Lederberg (1925) por seus estudos sobre recombinação genética e
genética bacteriana.
Ainda nos anos 30, na França, Boris Ephrussi (1901-1979),
russo, naturalizado francês, que estagiara no laboratório de Thomas
Morgan, na Caltech, em 1934-35, pesquisaria, no ano seguinte, com
George Beadle, em Paris, as moscas-do-vinagre que seriam igualmente
pesquisadas pelo zoólogo Georges Teissier (1900-1972) e pelo
geneticista Philippe L’ Héritier (1906-1994) com a utilização de “gaiolas
de populações” que lhes permitiram estudar sucessivas gerações de
milhares de drosófilas179.
A geneticista americana Bárbara McClintock (1902-1992), com
doutorado em Botânica, pela Universidade de Cornell, em 1927, se tornaria
famosa por suas experiências, nos anos 30, com uma variedade de milho
de cromossomos grandes, bem visíveis, mais fáceis de serem estudados. O
aperfeiçoamento da técnica de coloração permitiria, também, a McClintock,
identificar, distinguir e numerar os dez cromossomos do milho. Nos anos 40,
McClintock continuaria, no laboratório de Cold Spring Harbor, do Instituto
Carnegie, seus experimentos com milho, pesquisando famílias de genes
mutantes responsáveis por mudanças em pigmentação. Além do gene normal,
179 COTARDIÈRE, Philippe de la. Histoire des Sciences.
333
CARLOS AUGUSTO DE PROENÇA ROSA
pela pigmentação, McClintock descobriria dois elementos controladores, um
dos quais bem próximo do gene normal, e que atuava como um comutador,
ativando ou desligando o gene. O outro elemento, mais distante do gene no
cromossomo, controlaria a taxa em que o gene da pigmentação seria ligado ou
desligado. McClintock descobriria, também, que tais elementos controladores
poderiam mudar de lugar, e, mesmo, se transferir para outro cromossomo.
O processo desse fenômeno e transposição seria relatado em seu trabalho
de 1951, intitulado Organização Cromossômica e Expressão Gênica. A obra
permaneceria, por vários anos, sem chamar a atenção do meio científico, até
1960, quando os elementos controladores foram identificados em bactérias
por Jacques Monod e François Jacob, e chamados de RNA-mensageiro
(mRNA), por fazerem a intermediação entre o DNA e as proteínas. Bárbara
McClintock receberia o PNFM de 1983 pela descoberta dos elementos gênicos
móveis, também conhecidos como genes saltadores.
Oswald Avery (1877-1955), bacteriologista do Instituto
Rockefeller, que pesquisava havia anos a bactéria pneumococos
e conhecia os resultados das investigações de Frederick Griffith,
buscaria descobrir a substância transformadora responsável pelo
fenômeno. Após uma série de pesquisas, em que separara do
pneumococo os carboidratos, proteínas, lipídios, DNA e RNA, e os
inoculara em camundongos, verificaria Avery, com a colaboração dos
geneticistas Colin MacLeod (1909-1972) e Maclyn McCarty (1911-2005),
que apenas a amostra contendo o DNA fora capaz de transformar as
células R em células S das bactérias. A experiência comprovava, assim,
que a substância transformadora não era a proteína ou o carboidrato, mas
um ácido nucleico, mais precisamente o DNA. A grande importância
da experiência estava, portanto, na descoberta de ser o DNA, e não a
proteína, o material hereditário, e, por conseguinte, o DNA formar o
gene. Os três cientistas publicariam, em 1944, no Journal of Experimental
Medicine, uma série de artigos sobre a extraordinária descoberta, sendo
que a da estrutura do DNA ocorreria 10 anos depois, por Crick e Watson.
Pouco depois, o bioquímico escocês Alexander Todd (19071997) sintetizaria e determinaria a estrutura de todas as bases purina e
pirimidina do ácido nucleico em prosseguimento ao trabalho de Phoebus
Levene. Por sua contribuição, Todd receberia o PNQ de 1957.
334
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.6.4.3 Terceiro Período. DNA e RNA. Código Genético
O terceiro período seria caracterizado e dominado por pesquisas
sobre o DNA, cuja importância para a Genética passara a ser reconhecida
no meio científico, principalmente a partir dos trabalhos de Avery. Em
1950, o bioquímico alemão Erwin Chargaff (1905-2002) anunciaria a
famosa regra de Chargaff, pela qual o número de bases purina (adenina
e guanina) era igual ao de bases pirimidina (citosina e timina), e que o
número de base adenina era igual ao de base timina, e o de guanina, igual
ao de citosina. Essa descoberta seria crucial para as pesquisas de Crick e
Watson. Nessa mesma época, o químico americano Linus Pauling (1901-1994) descobriria (1948/50), em suas pesquisas sobre proteínas, que sua
estrutura tinha forma de hélice. Em 1952, em experimento conjunto no
laboratório da Cold Spring Harbour, o geneticista e bacteriologista Alfred
Day Hershey (1908-1997) e sua assistente, Martha Chase (1927-2003),
comprovariam, com o uso de traçantes radioativos, em investigações
sobre o DNA de bacteriófagos, as pesquisas de Avery de ser o DNA, e não
a proteína, o material transmissor dos caracteres genéticos, que o DNA
era capaz de converter um tipo de bactéria em outro, e que o DNA podia
duplicar-se180. Hershey dividiria com Delbruck e Luria o PNFM de 1969
por seu trabalho em transmissão do código genético.
Em 1952, Robert W. Briggs (1911-1983) e Thomas J. King (1921-2000),
biólogos americanos, aparentemente sem conhecimento dos experimentos
de Spemann, usariam o método do transplante para clonar sapos, pela
transferência, com sucesso, de núcleos de células somáticas de sapos adultos
em células germinativas, sem núcleos.
Dois biólogos americanos, Joshua Lederberg (1925) e Norton Zinder
(1928), descobriram, em 1952, que um bacteriófago, ao passar de uma bactéria
a outra, poderia transferir unidades genéticas do primeiro hospedeiro ao
segundo. Este fenômeno seria chamado de transducção. A possibilidade de
modificar o DNA de um organismo, por transducção ou por uma injeção de
plasmídeo, significaria a possibilidade da criação de indivíduos transgênicos,
o que viria a ser contemplado, no futuro próximo, pelos cientistas.
As descobertas de geneticistas, microbiologistas, bioquímicos
e químicos, como Levene, Delbruck, Avery, Todd, Chargaff, Pauling
e Hershey, foram fundamentais para a compreensão das funções e da
importância do DNA. Porém, como era sua estrutura molecular, como
desempenhava suas funções e como se duplicava, continuava um mistério
a desafiar os pesquisadores.
180 RONAN, Colin. História Ilustrada da Ciência.
335
CARLOS AUGUSTO DE PROENÇA ROSA
Em 1951, começaria o trabalho conjunto, em Cambridge, do
biofísico inglês Francis Harry Compton Crick (1916-2004) e do bioquímico
americano James Dewey Watson (1927), com o propósito de investigar o
DNA como material hereditário. Nas pesquisas, os dois se apoiariam no
trabalho de Chargaff sobre as bases nitrogenadas do DNA e contariam
com a colaboração do biofísico neozelandês Maurice Hugh Frederick
Wilkins (1916-2004) e da químico-física Rosalind Franklin (1920-1958),
especialista na técnica da difração dos raios-X, que, no King’s College,
pesquisavam o DNA, cuja configuração poderia ser revelada pela
cristalografia. No final de 1952, trabalho ainda não publicado de Franklin,
indicando o DNA em forma de espiral dupla, helicoidal, e não linear, seria
mostrado, por Wilkins, sem conhecimento da autora, a Crick e Watson,
que imediatamente reconheceram a importância da descoberta. A tarefa
seguinte seria arrumar as bases purina e pirimidina no modelo helicoidal.
Para tanto, contaram com a explicação do cristalógrafo americano Jerry
Donahue sobre a necessidade de adequar a hélice dupla às “regras de
Chargaff”, isto é, como as bases nitrogenadas são de tamanhos diferentes,
no caso de hélices de igual comprimento, era indispensável emparelhar
adenina somente com timina e guanina apenas com citosina. No processo
de duplicação, as duas hélices se separariam, o que permitia a cada uma
servir de modelo para seu complemento: onde existe uma adenina podia
ser selecionada uma timina como vizinha, e vice-versa, o que permitia
uma hélice formar uma outra.
O primeiro de uma série de quatro artigos foi publicado pela revista
Nature, em 25 de abril de 1953, com a descrição da estrutura do DNA,
cujas características essenciais da espiral dupla, semelhante a uma escada
helicoidal, eram os lados retorcidos consistirem de grupos alternados de
açúcar e fosfato, e os degraus serem formados de bases proteicas unidas
por ligações fracas de hidrogênio. A estrutura em espiral dupla permite
que o DNA se duplique antes da reprodução celular. Quando a célula se
divide, a espiral dupla se desenrola, e os dois lados da escada se abrem, e
cada um dos filamentos separados se une a nucleotídeos complementares,
que, incorporados aos filamentos separados, criam duas novas moléculas
de DNA idênticas entre si e à molécula inicial.
A descoberta de Crick e Watson permitira novos e importantes
avanços na pesquisa genética e lhes valeria o PNFM de 1963181, que
dividiriam com Maurice Wilkins.
Em 1955, o bioquímico Heinz Fraenkel-Conrat (1910-1999),
professor de Biologia Celular e Molecular, estabeleceria o modo pelo
181 Comunicado de Imprensa – PNFM de 1962.
336
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
qual o RNA determinava a formação das moléculas proteicas do vírus
do mosaico do tabaco, confirmando a importância vital do RNA como
transmissor do código genético. E, em 1960, anunciaria o sequenciamento
completo dos seus 158 aminoácidos.
O citologista e geneticista Joe Hin Tjio (1916-2001), de origem
chinesa, nascido em Java, então possessão holandesa, pesquisava na
Universidade de Zaragoza (Espanha) cromossomos em plantas, num
programa que duraria de 1948 a 1959. Em férias na Suécia, continuaria
suas investigações no laboratório da Universidade de Lund, a cargo do
botânico e geneticista sueco Albert Levan (1905-1998), onde cultivaria
células humanas e desenvolveria técnica para examinar os cromossomos
nessas células. No verão de 1956, Hin Tjio descobriria, pela fotomicrografia
(foto tirada por meio de um microscópio), o número correto – 46 – (ou
23 pares) de cromossomos na célula humana, em vez de 48, que era, até
então, aceito. A descoberta foi publicada na revista sueca Hereditas, em 26
de janeiro de 1956, aparecendo Albert Levan (apesar de se encontrar em
férias durante as pesquisas de Hin Tjio) como coautor.
A título ilustrativo, caberia acrescentar que cada espécie animal
ou vegetal tem um número determinado e particular de cromossomos.
Assim, drosófila, 8; milho, 10; centeio, 14; cobaia, 16; caracol, 24; minhoca,
32; porco, 40; trigo, 42; humano, 46; macaco, 48; carneiro, 54; cavalo, 64;
galo, 78; e carpa, 104. No caso dos 23 pares de cromossomos das células
humanas, 22 pares são semelhantes (autossomos) em ambos os sexos. Os
cromossomos do par restante, de cromossomos sexuais, de morfologia
diferente entre si, recebem o nome de X e Y, sendo que no sexo feminino
existem dois cromossomos X e no masculino um X e um Y.
Provado ser o DNA o material genético, faltava ainda estabelecer
como ele copiava sua informação e como isto era expresso no fenótipo.
Os biólogos moleculares Matthew Stanley Meselson (1930), da Caltech, e
Franklin William Stahl (1929), realizariam, em 1957, o que seria considerado
uma experiência clássica da Biologia molecular. A experiência MeselsonStahl, com a bactéria Escherichia coli, consistiu em desenvolvê-la num meio
de nitrogênio pesado 15. A primeira geração foi transferida, então, para
outro meio de peso molecular mais leve, de nitrogênio 14, o que os levaria
a constatar que a duplicação do DNA era semiconservativa, isto é, o DNA
produzido por bactérias crescidas nos dois meios eram intermediárias
entre pesadas e leves, ou, ainda, em outras palavras, cada fita do DNA é
duplicada formando uma fita híbrida, em que a fita velha forma par com a
nova, formando a outra dupla fita. A experiência confirmaria a suposição
assumida por Crick e Watson em 1953.
337
CARLOS AUGUSTO DE PROENÇA ROSA
Em 1956, os bioquímicos Arthur Kornberg (1918), americano, e o
espanhol, naturalizado americano, Severo Ochoa, identificaram e isolaram a
enzima polimerase, que catalisa a síntese do DNA, com a qual sintetizaram, em
1957, o DNA não replicante. Ambos receberiam pela descoberta o PNFM de 1959.
Descoberta a estrutura do DNA, vários cientistas pesquisariam
como seria possível estar o código genético contido na sequência de
apenas quatro bases ao longo de uma das fitas da dupla hélice, quando
havia 20 tipos de aminoácidos encadeados nas proteínas. Um desses
cientistas seria o cosmólogo e físico George Gamow (1904-1968), famoso,
entre outras contribuições, pela teoria do Big Bang, que avançaria a
ideia de que os ácidos nucleicos agiriam como código genético, o qual
seria composto por uma curta sequência dos quatro nucleotídeos que
codificariam os 20 aminoácidos que as células vivas utilizam para
codificar as proteínas.
Extraordinária contribuição ao esclarecimento do DNA seria dada
em duas oportunidades pelo bioquímico inglês Frederick Sanger (1918):
a primeira, em 1955, ao estabelecer a estrutura da molécula da insulina,
descobrindo a ordem exata dos aminoácidos na molécula; e a segunda, em
1977, ao elucidar a sequência dos aminoácidos no DNA do bacteriófago
“phi-X 174”, primeiro organismo a ter sua completa sequência de
aminoácidos esclarecida. Sanger é o único cientista agraciado duas vezes
(1958 e 1980) com o Prêmio Nobel de Química.
Francis Crick prosseguiria, depois de sua famosa descoberta da
estrutura do DNA, a pesquisar também a molécula, com o intuito de
entender como seria possível escrever o código genético apenas com
quatro bases diferentes. Em 1958, formularia o conhecido dogma central,
que relaciona DNA, RNA e proteína, pela qual o DNA pode ser transcrito
em RNA, e este, por sua vez, traduz o código genético em proteínas, isto é,
a informação genética fluiria do DNA para a proteína por meio do RNA.
Posteriormente, algumas descobertas não coincidiriam com o dogma, de
que o RNA poder ser replicado em alguns vírus e plantas e o RNA viral
poder ser transcrito em DNA.
Desde 1953, o biólogo Sydney Brenner (1927) acompanhava,
em Cambridge, as pesquisas de Crick e Watson, e, em 1957, passaria a
pesquisar na equipe de Max Perutz (1914-2002), no campo da Biologia
molecular. Seu interesse por entender o funcionamento do DNA ocuparia
boa parte de suas investigações biológicas, mantendo estreito contato
com cientistas de diversas instituições e nacionalidades. Ainda nos anos
50, demonstraria, com Crick, que na base de quatro nucleotídeos e 20
aminoácidos haveria 63 diferentes tripletos ou trincas de nucleotídeos ou
338
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
informações diferentes (43=64), e cada um dos 20 aminoácidos poderia ser
especificado por até três diferentes tripletos. O código genético deveria ter
sequências de três letras. Nessa oportunidade, Brenner cunharia o termo
códon para denominar o tripleto.
Os bioquímicos americanos Paul Zamecnik (1913) e Mahlon
Hoagland (1921) descobririam, em 1958, o RNA de transferência (tRNA),
tipo de RNA previsto por Crick no dogma central, que tem como função
identificar e carregar os aminoácidos até o ribossomo, no qual ocorre a
síntese das proteínas. Pouco anos depois, em 1961, os biólogos François
Jacob (1920), francês, Sydney Brenner (1927), sul-africano, e Matthew
Stanley Meselson (1939), americano, confirmariam outro tipo de RNA
(descoberto por Barbara McClintock), que seria chamado de RNA-mensageiro (mRNA), que contém as informações genéticas e as leva
para o citoplasma para a síntese proteica. Jacob dividiria, em 1965, o
PNFM com Jacques Monod e André Lwoff, por estudos sobre atividade
regulatória nas células, e Brenner dividiria o de 2002 com John E. Sulston
e H. Robert Horvitz, “pelos pioneiros trabalhos de Biologia sobre o
desenvolvimento e a morte celular programada, a apoptose”.
Eram conhecidas as quatro bases nitrogenadas de nucleotídeos
(adenina, citosina, guanina e timina, designadas, respectivamente, por
A, C, G e T, no DNA, e por A, C, G e U (uracil) no RNA). E também
conhecidos os 20 aminoácidos (fenilalamina, leucina, serina, prolina,
isoleucina, metionina, treonina, valina, alanina, cisteína, triptofano,
tirosina, arginina, histidina, glutamina, asparagina, lisina, glicina, ácido
aspártico e ácido glutâmico, em ordem numérica de 1 a 20), moléculas
orgânicas compostas pelo menos de um grupamento de amino e um de
carboxila, que constituem as proteínas. A questão a resolver era saber qual
a correspondência das 64 possíveis combinações de tripletos (códons) com
cada dos 20 aminoácidos.
Caberia ao bioquímico americano Marshall Warren Nirenberg
(1927), formado pela Universidade da Flórida, em 1948, e doutorado pela
Universidade de Michigan, em 1957, pesquisador do Instituto Nacional de
Saúde de Bethesda (EUA), “quebrar” o código genético. Suas pesquisas
sobre o assunto começaram em 1959 com a colaboração do jovem
bioquímico alemão Heinrich Matthaei. A descoberta de Severo Ochoa, da
técnica de produzir RNA artificialmente, permitiria a Nirenberg produzir
uma molécula de RNA exclusivamente de uracil, nucleotídeo que ocorre
apenas no RNA, pelo que o único códon possível seria de uracil (UUU). Na
pesquisa, Nirenberg constatou que a proteína produzida pela molécula de
RNA artificial (UUU) consistia apenas do aminoácido fenilalamina, o que
339
CARLOS AUGUSTO DE PROENÇA ROSA
significava ser o UUU código para a fenilalamina. Em 1961, Nirenberg
anunciaria a comprovação experimental de que uma sequência de bases
especifica uma sequência e revelaria a “primeira palavra do código
genético”. Nirenberg continuaria, no entanto, a pesquisar, com sua equipe,
na base do RNA sintético, e descobriria que AAA era o código para lisina
e CCC para prolina. Em 1966, Nirenberg anunciaria que havia decifrado
os 64 possíveis códons do RNA e do DNA. Nirenberg dividiria o PNFM
de 1968 com Har Gobind Khorana (1922), biólogo molecular, nascido no
Punjab, região, hoje, do Paquistão, por seu trabalho na interpretação do
código genético e sua função na síntese proteica, e com o bioquímico Robert
W. Holley (1922-1993), por sua descrição do tRNA alanina (molécula que
incorpora o aminoácido alanina à proteína), vinculando DNA e síntese
proteica, e por suas contribuições pelo desenvolvimento de pesquisas
sobre os mecanismos celulares para a herança genética182.
Após o trabalho pioneiro de Spemann, e a clonagem de um sapo,
por Briggs e King, em 1952, prosseguiriam as pesquisas neste campo. O
embriologista inglês John Bertrand Gurdon (1933), utilizando-se da técnica
de transplante de núcleo, produziria, em 1967, o primeiro clone de um
vertebrado, implantando uma célula de intestino de um sapo ungulado
(com casco) no óvulo de outro sapo, que teve o núcleo removido. O
óvulo desenvolveu-se, dando nascimento a um novo sapo ungulado. Tal
experiência foi, contudo, contestada por muitos cientistas, com a alegação
que células sexuais já estariam presentes, em pequeno número, no tecido.
Em 1969, uma equipe da Universidade de Harvard, chefiada por
James Shapiero e Jonathan Beckwith, isolaria, por primeira vez, um gene
de um fragmento de DNA de uma bactéria de grande importância no
metabolismo do açúcar. O sucesso dessa pesquisa se refletiria nos futuros
avanços no sequenciamento do genoma e na clonagem.
A iniciativa do genoma humano evoluiria com o estabelecimento
de um esforço internacional conhecido como Projeto do Genoma Humano
(PGH) para identificar e fazer o mapeamento dos 140 mil genes existentes
nas moléculas de DNA nas células do corpo humano, determinar as
sequência dos 3 bilhões de bases químicas (A,C,G,T) que compõem o
DNA humano e criar banco de dados, desenvolver meios para análise
desses dados e torná-los accessíveis para novas pesquisas biológicas.
A criação do Consórcio Internacional para o Sequenciamento do
Genoma Humano, com a participação de cientistas de 20 instituições
dos EUA, França, Japão, Grã-Bretanha, Alemanha e China, daria maior
eficiência ao trabalho de pesquisa, cujos resultados viriam em rápida
182 Comunicado de Imprensa – PNFM de 1968.
340
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
sucessão, a partir do final de 1999. Os maiores centros envolvidos na
pesquisa são o Baylor College of Medicine, o Broad Institute do MIT e de
Harvard, e a Escola de Medicina da Universidade de Washington (EUA),
o Sanger Institute (GB), o Centro Riken (Japão), o Genoscope (França), o
Instituto de Biotecnologia Molecular, o Instituto Max Planck para Genética
Molecular (Alemanha) e o Instituto de Genômica de Beijing.
De grande relevância para a Biologia molecular e a Genética, e,
em particular, para a Engenharia genética, seria a descoberta, em 1970,
pelo microbiologista e geneticista suíço Werner Arber (1929) e pelos
microbiologistas americanos Daniel Nathans (1928-1999) e Hamilton
Othanael Smith (1931) da enzima de restrição, que atua como verdadeira
tesoura, ao cortar o DNA em pontos específicos. Esse corte permite ao
pesquisador manipular o DNA e montar moléculas recombinantes, com
aplicações diversas, como na identificação de pessoas e na produção
de vacinas e transgênicos. Pela descoberta, os três cientistas dividiriam
o PNFM de 1978183. Hamilton Smith participaria das pesquisas que, em
1995, completaram o sequenciamento do primeiro genoma de bactéria
Haemophilus influenza, a mesma que servira para a descoberta da enzima
de restrição.
7.6.4.4 Quarto Período. Engenharia Genética
Um quarto período na evolução da Genética se estenderia a
partir da criação do DNA recombinante, molécula de DNA modificada,
pela combinação do DNA de dois organismos não relacionados, e que
corresponde, assim, ao surgimento da Engenharia genética, verdadeira
revolução tecnológica de grande impacto em diversas atividades humanas,
até a formalização do Projeto Genoma Humano. Nesse sentido, os primeiros
anos de 1970 seriam cruciais e testemunhariam a controvérsia a respeito
da própria conveniência de avançar em pesquisas de consequências
imprevistas. Nessa fase, os avanços experimentais permitiriam progressos
significativos em transplante de células de embrião e de células adultas,
e seriam criadas as condições teóricas e técnicas para a decodificação
do Genoma Humano. As pesquisas na Genética despertariam grande
interesse na sociedade, e adquiririam, por suas implicações, grande
repercussão de âmbito mundial. Importantes investimentos em recursos
humanos e financeiros seriam empregados em laboratórios e centros de
pesquisa, diante da perspectiva de sucesso a curto prazo, os quais já se
183 Comunicado de Imprensa – PNFM de 1978.
341
CARLOS AUGUSTO DE PROENÇA ROSA
mobilizavam para assegurar a patente dos processos de fabricação dos
produtos de suas descobertas.
O bioquímico e biólogo molecular Paul Berg (1926), professor da
Universidade de Stanford, receberia metade do PNQ de 1980 por “seus
estudos fundamentais da bioquímica dos ácidos nucleicos, particularmente
em relação DNA recombinante”184. Berg criaria, por meio da manipulação
in vitro do DNA, a primeira molécula recombinante, ao unir, por meio
do DNA ligase, fragmentos de DNA de diferentes espécies, obtidos por
enzimas de restrição (recém-descobertas por Werner Arber, em 1970), e
inserindo esse DNA híbrido numa célula hospedeira185. A nova tecnologia
do DNA recombinante consistia, assim, em cortar o gene de uma espécie
e inseri-lo (recombiná-lo) em vetores, que são introduzidos e propagados
em organismos hospedeiros, como leveduras e bactérias. No interior
dos hospedeiros, o fragmento da molécula do DNA pode ser clonado
indefinidamente. Berg seria um dos organizadores da Conferência de
Asilomar, de 1975, sobre DNA recombinante.
Em 1973, o bioquímico Stanley Cohen (1922) e Herbert Boyer
(1936), então professor-assistente da Universidade de São Francisco,
desenvolveram uma técnica de clonagem do DNA, pela qual genes
poderiam ser transplantados entre diferentes espécies biológicas, ou seja,
bactérias podiam ser combinadas com genes de organismos superiores.
A pesquisa consistiu na inserção de gene de embrião do sapo africano
no DNA de uma bactéria. A obtenção, assim, do primeiro organismo
geneticamente modificado é considerada, por muitos autores, como o
início da Engenharia genética. Cohen dividiria o PNM de 1986 com Rita
Levi-Montalcini (1909) por suas pesquisas sobre substâncias produzidas
no corpo que influenciam o desenvolvimento de tecidos dos nervos e peles.
Boyer fundaria, em 1976, a Genentech, a primeira empresa de Engenharia
genética, a qual, em 1978, clonaria o gene da insulina humana.
Importante assinalar que a criação do DNA recombinante, por Berg,
em 1972-73, trouxe uma imediata reação da comunidade científica pelas óbvias
consequências que poderiam advir desta nova técnica. O próprio Berg, quando
consultado, mostrou-se interessado na necessidade de uma ampla discussão
sobre o tema, a fim de se aquilatarem os verdadeiros alcances e os eventuais usos
da nova Biotecnologia. Estavam programadas para meados de 1971 experiências
para a introdução do DNA SV40 do vírus do macaco, que pode causar câncer,
na célula da Escherichia coli. Diante da celeuma criada, a iniciativa foi adiada. Em
1973, a Academia Nacional de Ciências dos EUA criaria uma comissão assessora,
184 185 Comunicado de Imprensa – PNQ de 1980.
COTARDIÈRE, Philippe de la. Histoire des Sciences.
342
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
de especialistas, com o objetivo de examinar e avaliar os riscos da manipulação
genética e sugerir um curso de ação. A recomendação da comissão de uma
“moratória” nas pesquisas seria publicada em 1974, pelas revistas Nature e
Science, que seria aprovada em reunião de cientistas, ainda em 1974, no MIT.
Em fevereiro de 1975, se realizaria, em Pacific Grove, Califórnia,
no Centro de Conferências de Asilomar, reunião com cerca de 140
cientistas (Paul Berg, Sydney Brenner, Norton Zinder, Maxine Singer,
David Baltimore, Daniel Nathans, James Watson, Francis Crick, Rosalind
Franklin, Maurice Wilkins, Stanley Cohen, Herbert Boyer, Richard Roblin,
Phillip Sharp, Michael F. Singer) de várias nacionalidades, para a adoção
de medidas de regulamentação das experiências com DNA recombinante.
As recomendações aprovadas de biossegurança (suspensão das
experiências com a finalidade de guerra bacteriológica, classificação das
demais pesquisas em três grupos de risco, que só deveriam ser realizadas
com precauções proporcionais) foram enviadas à comissão assessora da
Academia para a elaboração das normas pertinentes, como a que a nova
tecnologia fosse apenas aplicada a organismos que não pudessem viver
por si mesmos fora do laboratório, e não poderia ser usada em genes ativos
em seres humanos. Normas foram aprovadas, em 1976, pelo National
Institute of Health, dos EUA, as quais seriam implementadas, de imediato,
em território americano, para pesquisas financiadas com recursos da
União. A partir desse momento, a questão da biossegurança adquiriria
dimensão mundial, na medida em que a Biotecnologia começava a ser
pesquisada em diversos países com perspectivas de crescente aplicação
(agricultura, saúde).
Deve ser acrescentado que as Universidades de Stanford e São
Francisco obtiveram a patente do DNA recombinante.
Phillip Allen Sharp (1944), geneticista americano do Center for
Cancer Research, do MIT, e Richard John Roberts (1943), bioquímico
e biólogo molecular inglês, da Cold Spring Harbor Laboratory,
descobririam, em 1977, o gene interrompido (split gene), que, sob o ponto
de vista molecular, não seria estrutura linear, sem interrupção, pelo
que, existiria segmento do DNA sem função na síntese proteica. Essa
descoberta é da maior importância e implicações, pois marca a passagem
das pesquisas genéticas de organismos mais simples, como as bactérias,
para organizações mais complexas, como os eucariotes (plantas, animais).
Até essa data, entendia-se o gene como uma estrutura contínua linear, pois
as bactérias não têm gene interrompido (íntron), que secciona a sequência
do DNA, cuja função é alimentar de informação genética a proteína. Por
outro lado, o processamento alternativo da molécula do DNA, decorrente
343
CARLOS AUGUSTO DE PROENÇA ROSA
da descoberta do gene interrompido, traria dúvidas sobre o dogma central
da Biologia molecular “um gene – uma proteína”, já que um gene pode
estar envolvido na síntese de muitas proteínas. Sharp e Roberts dividiriam
o PNFM de 1993 “pela descoberta da existência de segmentos do DNA
que não têm função codificadora na elaboração de uma determinada
proteína”186.
Significativo avanço na pesquisa laboratorial seria o
desenvolvimento, pelo bioquímico americano Kary Mullis (1944), da
técnica, em Biologia molecular e Bioquímica, da chamada PCR (Polymerase
Chain Reaction), sigla em inglês para Reação em Cadeia pela Polimerase,
que permite obter múltiplas (milhões em poucas horas) cópias de um
fragmento qualquer de DNA para propósitos experimentais. Espécie de
fotocópia molecular, por meio dessa técnica é possível detectar e analisar
uma sequência de DNA a partir de amostras de diferentes materiais
biológicos, como sangue, urina, cabelo e cortes de tecido. A experiência
de Mullis (1983-86)187 foi feita com a enzima Taq-polimerase, extraída da
bactéria Thermus aquaticus, que lhe valeria o PNQ de 1993, dividido com o
bioquímico canadense Michael Smith (1932-2000), por suas contribuições
para o estudo da química do DNA.
O geneticista inglês Alec John Jeffreys (1950), da Universidade de
Leicester, desenvolveria, em 1986, a técnica da impressão digital genética,
a qual tem sido instrumento da maior importância em Medicina Legal,
e de real utilidade em perícia médica, investigação de paternidade e
identificação de criminosos. O sucesso da análise depende do estado do
DNA recolhido (ossada, sangue, cordão umbilical, unha, pele, saliva,
dentes, etc.), cujos resultados são aceitos nos tribunais. Esta tecnologia é
uma marca na evolução da Biotecnologia.
O interesse pelo desenvolvimento de experiências no campo da
criação de animais geneticamente modificados prosseguira nos anos 70
e 80, podendo ser mencionadas: i) as pesquisas do embriologista Karl
Illmensee, da Universidade de Genebra, que teria clonado, em 1977,
camundongos de apenas um genitor, e, em 1979, três camundongos,
experimentos contestados no meio científico; e ii) as investigações,
com sucesso, de Steen Willadsen (1944), geneticista dinamarquês, que,
trabalhando para o Conselho de Pesquisa Agrícola Britânico, e utilizando
a técnica de transplante do núcleo da célula, clonaria, em 1984, ovelha
de célula de embrião, e que, em 1986, clonaria, com a mesma técnica,
vaca de célula de embrião de uma semana. Esses seriam os primeiros
186 187 Comunicado de Imprensa – PNFM de 1993.
Comunicado de Imprensa – PNQ de 1993.
344
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
casos de clonagem de animal mamífero. Ainda em 1986, no Laboratório
de Ciência Animal, da Universidade de Wisconsin, Neal First, professor
de Biotecnologia animal, e os pesquisadores Randal Prather e Willard
Eyestone clonariam vaca de célula embrionária jovem do mesmo animal.
Até essa época, acreditava-se que apenas células-tronco embrionárias
seriam capazes de permitir a clonagem, uma vez que diferenciadas – de
pele, de fígado, de rins, de ossos – as células-tronco adultas não poderiam
voltar ao estágio embrionário.
7.6.4.5 Quinto Período. Genoma Humano. Clonagem
O quinto período da evolução da Genética, inaugurado com o
início do Projeto Genoma, se caracteriza pelas descobertas experimentais
quanto ao genoma humano e à clonagem, progressos alcançados graças às
contribuições das pesquisas, principalmente, desde o início dos anos 50.
A Genética, pela imensa repercussão das descobertas de generalizado
interesse da Sociedade, se tornaria um das áreas científicas de maior
prestígio, sendo, mesmo, considerada, por muitos, como a Ciência do
Século XX. Vultosos recursos seriam destinados, por governos e empresas,
públicas e privadas, ao desenvolvimento das pesquisas, que, no caso do
genoma humano, adquiriria caráter multilateral, pela contribuição de
entidades de diversos países ao esforço internacional de decifração do
código. Nesse sentido, especial comentário sobre a iniciativa de âmbito
mundial é necessário, pela importância que representa, como exemplo,
para o futuro da cooperação científica internacional. Paralelamente,
extraordinário progresso ocorreria, igualmente, nas investigações sobre a
clonagem de animais mamíferos, com o desenvolvimento da nova técnica
da utilização de células-tronco adultas de embrião. A clonagem da ovelha
Dolly é um marco nessa evolução da Engenharia genética.
7.6.4.5.1 Sequenciamento do Genoma Humano
O Departamento de Energia e o Instituto Nacional de Saúde
anunciariam, em 1986, a “iniciativa do genoma humano”, projeto-piloto com recurso orçamentário de US$ 5,3 bilhões para desenvolver
tecnologias capazes de viabilizar a decodificação do genoma humano. Já
no ano seguinte, seria estabelecida a meta de 15 anos para a conclusão
dos trabalhos. Em 1989, seria criada a Organização do Genoma Humano
345
CARLOS AUGUSTO DE PROENÇA ROSA
(HUGO, em inglês), foro internacional de cientistas com o propósito de
promover a cooperação no campo da Genética. Dentre as suas missões
constam investigação da natureza, estrutura, função e interação dos genes,
a caracterização da natureza, distribuição, evolução da variação genética
e o meio ambiente nas origens e características das populações humanas,
e a promoção da interação, coordenação e disseminação de informação
e tecnologia entre o pesquisador e a sociedade. O trabalho na HUGO se
desenvolve coordenado por quatro comissões e uma reunião plenária
anual, realizada, nos últimos anos, em Cancun (2003), Berlim (2004),
Kyoto (2005), Helsinque (2006), Montreal (2007) e Hyderabad (2008); em
2009, não houve reunião plenária da HUGO, mas já estão programadas as
de 2010, em Montpellier, e 2011, em Dubai.
A iniciativa do genoma humano evoluiria com o estabelecimento de
um esforço internacional, conhecido como Projeto do Genoma Humano (PGH),
para identificar e fazer o mapeamento dos 140 mil genes existentes nas moléculas
de DNA, nas células do corpo humano, determinar as sequência dos 3 bilhões
de bases químicas (A,C,G,T) que compõem o DNA humano, e criar banco de
dados, desenvolver meios para análise desses dados e torná-los accessíveis
para novas pesquisas biológicas. A criação do Consórcio Internacional para o
Sequenciamento do Genoma Humano, com a participação de cientistas de 20
instituições dos EUA, França, Japão, Grã-Bretanha, Alemanha e China, daria
maior eficiência ao trabalho de pesquisa, cujos resultados viriam em rápida
sucessão, a partir do final de 1999. Os maiores centros envolvidos na pesquisa
são o Baylor College of Medicine, o Broad Institute, do MIT e de Harvard, e a
Escola de Medicina da Universidade de Washington (EUA); o Sanger Institute
(GB); o Centro Riken (Japão); o Genoscope (França); o Instituto de Biotecnologia
Molecular e o Instituto Max Planck para Genética Molecular (Alemanha); e o
Instituto de Genômica de Beijing.
O processo de mapeamento se constituiria de uma série de
diagramas descritivos de cada um dos cromossomos, que seriam divididos
em fragmentos para serem caracterizados. Depois, os fragmentos seriam
ordenados, a fim de corresponderem às suas respectivas posições nos
cromossomos. Com os fragmentos ordenados, o passo seguinte seria
determinar a sequência das bases de cada um dos fragmentos do DNA e
descobrir o número de genes na sequência, informação que será útil para
a Biologia e a Medicina.
Ao mesmo tempo em que se avançava na pesquisa do genoma
humano, outros projetos continuariam a progredir, como o da União
Europeia, que, em 1996, concluiu o sequenciamento do genoma da
levedura, e o do Instituto Sanger e do Centro de Sequenciamento de
346
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Genoma da Universidade de Washington, que concluiriam, em 1998, o
sequenciamento do genoma do nematoide c. elegans.
A situação cômoda do PGH, de não enfrentar organização
concorrente nesse projeto científico, terminaria em maio de 1998, quando
foi criada a empresa Celera Genomics, sendo seu presidente o biólogo
Craig Venter (1946), que adquirira experiência, no Instituto Nacional de
Saúde, na identificação do mRNA nas células. A nova empresa, de fins
comerciais, se propunha estabelecer um banco de dados, cujo acesso
estaria disponível aos subscritores mediante uma determinada taxa,
ao contrário do PGH, consórcio de financiamento público, contrário à
privatização do processo de sequenciamento do genoma humano. Venter
desafiaria o PGH, anunciando, ainda em 1998, que sua empresa seria
capaz de desvendar o código genético até 2001.
Ao longo dos anos 90, diversas instituições de pesquisa anunciariam
a descoberta de genes em diversos cromossomos como responsáveis por
doenças (câncer de cólon, câncer da mama, mal de Alzheimer, síndrome de
Down, obesidade, esquizofrenia, sintomas de envelhecimento, distúrbio
renal). Mapeamentos incompletos e provisórios foram publicados, em
algumas oportunidades, pelo PGH.
Causaria grande sensação no meio científico o anúncio, em 21
de dezembro de 1999, do sequenciamento completo do cromossomo 22,
constituído por 56 milhões de pares de bases, o que significou permitir
ver, por primeira vez, e por inteiro, o DNA de um cromossomo. Em
abril de 2000, seria anunciado o segundo cromossomo sequenciado e
analisado, de número 21, o menor cromossomo, com 50 milhões de
pares de base, quando se daria, igualmente, conhecimento de rascunho
de mapeamento do genoma humano. No Brasil, seria anunciado o
sequenciamento do genoma da bactéria Xylella fastidiosa, causadora da
doença do amarelinho em cítricos, objeto de artigo publicado na revista
Nature.
Em 12 de fevereiro de 2001, foi anunciado rascunho das análises
iniciais do genoma humano, feitas pelo PGH e pela Celera Genomics, que
seriam publicadas, respectivamente, em edições especiais, pela Nature,
em 15 de fevereiro, e pela Science, em 16 de fevereiro. Em dezembro do
mesmo ano, foi dado à publicidade o sequenciamento do cromossomo
20, com cerca de 72 milhões de pares de bases, correspondendo a,
aproximadamente, 2% do genoma humano.
Quatro cromossomos humanos teriam seu sequenciamento
terminado em 2003: o 14, em janeiro, com 1.950 genes e cerca de 109
milhões de pares de base; o Y, em junho, o menor dos cromossomos, com
347
CARLOS AUGUSTO DE PROENÇA ROSA
aproximadamente 59 milhões de pares; o 7, em julho, com cerca de 171
milhões de pares; e o 6, em outubro, com 183 milhões de pares de bases.
Mais sete cromossomos seriam sequenciados e analisados em
2004, elevando este total para 14: no mês de março, foram publicados os
mapas dos cromossomos 13, com 114 milhões de pares de bases; do 19,
com 67 milhões; e do 18, com 85 milhões; em maio, foram anunciados
os cromossomos 10, com 144 milhões de pares; e do 9, com 145 milhões;
em setembro, foi conhecido o sequenciamento do cromossomo 5, com 194
milhões de bases; e em dezembro, o 16, com 98 milhões de pares de bases.
Em outubro de 2004, o PGH anunciaria ter revisto, para baixo, o
número de genes nos cromossomos, que deverá estar entre 25 mil e 30 mil.
O PGH confirmaria a existência de 19.599 genes no genoma humano, e,
ainda, identificou adicionais possíveis 2.188 genes.
No ano de 2005, seriam completados os sequenciamentos com
a análise de mais três cromossomos humanos: em março o X, com 164
milhões de pares; em abril o 2, com 255 milhões e o 4, com 186 milhões de
pares de bases. Em 2006, seria finalizado o sequenciamento dos últimos
sete cromossomos; em março, foram anunciados o sequenciamento
com análise dos cromossomos 8, com 155 milhões de pares; do 15,
com 106 milhões; do 12, com 143 milhões; e do 11, com 155 milhões de
pares de bases; em abril, seriam conhecidos os sequenciamentos dos
cromossomos 17, com 92 milhões de pares e do 3, com 214 milhões; e
em maio, o cromossomo 1, com 263 milhões de pares de bases.
Ao término do mapeamento e da análise do genoma humano, a
estimativa atual nos 22 pares de cromossomos autossomais e mais dois
sexuais (X e Y), é de aproximadamente 3164,7 milhões de pares de bases
(A, C, G,T), contendo um novo estimado de 20 mil a 25 mil genes, número
bastante inferior ao inicialmente previsto, de 100 mil, depois revisto para
60 mil, e, ainda, depois, para cerca de 30 mil. A média dos genes consiste
de 3 mil pares de bases, e são de tamanho muito variáveis, cerca de 99,9%
das bases são exatamente iguais para a espécie humana.
Em 2005, foi concluído o sequenciamento do genoma do
chimpanzé, que mostraria coincidir 99% com o humano.
7.6.4.5.2 Clonagem
A palavra clone (do grego klon para broto vegetal), cunhada pelo
biólogo inglês John Haldane em 1963, foi erroneamente usada para designar
as experiências de transplante de embrião por diversos pesquisadores,
348
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
como Thomas King e Robert King, John Gurdon, Karl Illmansee, Neal
First e outros. A primeira verdadeira clonagem foi realizada em 1996,
pelo inglês Ian Wilmut (1944), formado em Engenharia genética animal
pelo Darwin College, da Universidade de Cambridge, com a colaboração
do biólogo inglês Keith Campbell, especialista nos ciclos das células.
Pouco antes, haviam clonado duas ovelhas (Megan e Morag) de células
diferenciadas de nove dias pela sincronização das células de embrião com
o óvulo.
A imensa repercussão mundial do anúncio de Wilmut, em
fevereiro de 1997, da clonagem da ovelha Dolly, no Roslin Institute, perto
de Edimburgo, se deveu ao importante e revolucionário significado da
inovação, pois não se tratava de reprodução sexuada, que só ocorre pelas
células sexuais, de cópia a partir de células de embriões, gerada pela união
do espermatozoide e óvulo. Os seres vivos, com exceção das bactérias,
vírus e alguns seres unicelulares, se reproduzem por meio das células
sexuais e não das somáticas. A técnica da clonagem, com a utilização
de células somáticas (as que formam órgãos, tecidos, ossos, peles), é,
basicamente, uma forma de reprodução assexuada artificial, que origina
indivíduos com genoma idêntico ao do provedor do DNA. Dolly não fora
gerada de célula embrionária (como nos casos dos transplantes citados),
mas de uma célula somática mamária, daí o enorme impacto da notícia.
Como explica, em seu artigo, a geneticista Mayana Zatz, “a grande
revolução de Dolly, que abriu caminho para a possibilidade da clonagem
humana, foi a demonstração, pela primeira vez, de que era possível clonar
um mamífero, isto é, produzir uma cópia geneticamente idêntica, a partir
de uma célula somática diferenciada”. E explica: a grande novidade
de Dolly foi a descoberta de que uma célula diferenciada (mamária)
poderia ser reprogramada ao estágio inicial e voltar a ser totipotente,
ou seja, ao estágio em que pode originar um ser completo. Isto foi
obtido pela transferência do núcleo de uma célula somática da glândula
mamária de uma ovelha, o qual passou a se comportar como um óvulo
recém-fecundado por um espermatozoide. O óvulo assim fecundado
desenvolveria um ser com as mesmas características físicas do adulto,
de quem foi retirada a célula somática: um gêmeo idêntico à mãe. Das
experiências com outras 277 ovelhas, só deu certo a que originou Dolly,
o que mostra ser uma técnica ainda não totalmente dominada. Das 277
tentativas, 90% dos embriões nem chegaram a se desenvolver. Nascida em
1996, Dolly morreria em 2003 de envelhecimento precoce.
Diante da reação mundial à clonagem, o Presidente Clinton
proporia, em março de 1997, uma moratória de cinco anos em pesquisas
349
CARLOS AUGUSTO DE PROENÇA ROSA
de clonagem humana, nos EUA, financiada com fundos federais e
privados, aprovando, inclusive, o Cloning Prohibition Act. Em seguida
a clonagem humana seria considerada como um atentado à ética pelo
Instituto Nacional de Saúde.
Em julho de 1997, Ian Wilmut e Keith Campbell criariam a
ovelha Polly, clonada de células de pele desenvolvidas em laboratório
e geneticamente alteradas para conter gene humano. Em julho de 1998,
Teruhiko Wakayama, Ryuzo Yanagimachi e Toni Perry, da Universidade
do Havaí, anunciariam a clonagem de três gerações, de células adultas, num
total de 50 camundongos, em outubro de 1997. Desde então, vários outros
animais (cachorro, gato, cavalo, rato, coelho, veado, mula, vaca, porco,
macaco Rhesus e bode) já foram clonados. Espécies em extinção têm sido
objeto, também, de pesquisas, com o intuito de sua preservação por meio da
técnica da clonagem, mas o processo se encontra ainda num estágio inicial.
As pesquisas nas áreas das células-tronco embrionárias e da
recombinação do DNA em mamíferos progrediriam bastante, desde o final
dos anos 90, sendo exitosas com os resultados obtidos pelos geneticistas
Mario R. Capecchi (1937), ítalo-americano, Oliver Smithies (1925), anglo-americano, e Martin J. Evans (1941), britânico. Os três cientistas receberiam
o Prêmio Nobel de Fisiologia ou Medicina, de 2007, por suas descobertas,
que possibilitam, a partir de células-tronco embrionárias, a criação de
animais com modificações em genes específicos. Smithies e Capecchi
foram agraciados “pela visão que a recombinação homóloga poderia ser
usada especificamente para modificar genes em células de mamíferos”. A
pesquisa de Evans, da Universidade de Cardiff, se concentrou no uso de
células-tronco embrionárias de camundongos, padronizando metodologias
para seu isolamento e manutenção em cultura, o que possibilita a criação
de animais formados por conjuntos distintos de células (quimeras) a partir
da inserção das células-tronco em blastocistos, os quais eram introduzidos
em camundongos fêmeas para desenvolvimento. Dessa forma, o conjunto
dessas investigações demonstraria ser possível modificar um ou mais
genes específicos numa célula, desenvolvendo metodologia para a seleção
específica das células com as modificações desejadas188. A premiação de
pesquisa criadora de ratos transgênicos mereceria críticas de certos setores
da sociedade, contrários, por motivos éticos, a esse tipo de pesquisa, ainda
que muito útil para encontrar tratamento para doenças degenerativas
(Alzheimer) e cardiovasculares e outras, como câncer e diabetes.
188 Comunicado de Imprensa – PNFM de 2007.
350
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.6.5 Evolução
A Teoria da Evolução por meio da seleção natural, principalmente a
partir dos trabalhos de August Weissmann, de refutação da teoria da herança
de características adquiridas, viria a ser aceita pela maioria da comunidade
científica, tornando-se conhecida como “neodarwinismo”, apesar de notórias
resistências, como na França, cujo círculo científico continuava apegado à
tradição lamarckista. A redescoberta da obra de Mendel, com suas leis da
hereditariedade, que poderia ter contribuído para esclarecer alguns pontos
da controvérsia sobre a evolução das espécies, seria interpretada, por alguns
geneticistas, como Hugo De Vries, William Bateson e Wilhelm Johannsen, de
forma a refutar a seleção natural, pedra de toque da Teoria da Evolução. A
Teoria do mutacionismo, que explicaria o surgimento de uma nova espécie
por uma grande mutação genética, a qual, num único salto, daria origem a um
novo táxon, como proposto por De Vries, poria, aparentemente, em xeque, as
ideias da lenta e gradual evolução da espécie, de Darwin, cuja fundamentação
paleontológica se baseava em insuficiente comprovação fóssil, enquanto a
Geologia ainda não esclarecera a questão da idade da Terra.
Assim, nos primeiros anos do século XX, se a ideia evolucionista era
compartilhada pela comunidade científica, a Teoria da seleção natural era
o divisor que separava os chamados “mendelianos”, como os mencionados
Bateson, Johannsen e De Vries, dos “naturalistas”, como Weissmann e
Wallace, que eram apoiados pelos “biométricos” Karl Pearson (18571936) e Walter Weldon, que sustentavam serem hereditariedade, seleção
e variação assuntos passíveis de estudo estatístico e de haver suficiente
prova da evolução lenta e gradual dos organismos.
A publicação, em 1915, do The Mechanism of Mendelian Heredity, de
Thomas Hunt Morgan (1866-1943), baseada em experimentos com moscasdo-vinagre, ao comprovarem que a maioria das mutações era suficientemente
pequena para permitir uma mudança gradual das populações, sem necessidade
de saltos, tornaria obsoletas as teses de De Vries, as quais deixariam de receber
apoio dos biólogos. A Genética, que, interpretada e utilizada erroneamente,
servira de sustentação para teses equivocadas cientificamente, passaria, com
a comprovação laboratorial, a ser o principal apoio à seleção natural, a qual, a
partir dessa época, se firmaria como o processo válido da Evolução biológica.
Ainda nesse ano de 1915, o geneticista inglês, Reginald C. Punnett (1875-1967),
que estudava o poliformismo mimético das mariposas, publicou Mimicry in
Butterflies, no qual expôs que a herança das borboletas se baseava nas leis
de Mendel. Punnett é autor, igualmente, de Mendelism (1905) e Heredity in
Poultry, tendo recebido a Medalha Darwin em 1922.
351
CARLOS AUGUSTO DE PROENÇA ROSA
No início do século XX, com a descoberta das leis de Mendel,
surgiria controvérsia sobre como elas poderiam assegurar a continuidade
dos caracteres nas futuras gerações, já que a concepção da herança
adquirida fora totalmente abandonada, após os trabalhos de Weissmann.
Na mesma época em que se desenvolvia o debate entre o gradualismo
darwinista e o saltacionismo de De Vries, estudos estatísticos mostrariam
o papel central das leis da hereditariedade, de Mendel, no processo
evolutivo. O sangue deixaria de ser o referencial hereditário em favor do
gene. Nesse sentido, seria da maior importância a formulação da base
da Genética populacional, que é o “princípio do equilíbrio” da chamada
Lei de Hardy-Weinberg, de 1908, demonstrada, independentemente,
pelo matemático inglês Godfrey Harold Hardy e pelo alemão Wilhelm
Weinberg. O enunciado do teorema é o seguinte: “numa população
infinitamente grande, em que os cruzamentos ocorrem ao acaso e sobre
o qual não há atuação de fatores evolutivos, as frequências gênicas e
genotípicas permanecem constantes ao longo das gerações”. Assim, de
acordo com esse princípio, numa população mendeliana, dentro de
determinadas condições, as frequências alélicas permanecerão constantes
ao longo das gerações, isto é, independentemente de um gene ser raro ou
frequente, sua frequência permanecerá a mesma, em relação aos outros,
desde que as mesmas condições sejam mantidas. Apesar de não existir
uma população sujeita a essas condições, a importância do princípio do
equilíbrio está no estabelecimento de um modelo para o comportamento
dos genes. Hardy e Weinberg demonstraram, matematicamente, esse
princípio do equilíbrio, que serviria de fundamento para a formulação da
Genética populacional, uma das bases da moderna Teoria da Evolução.
Os historiadores da Biologia creditam a três biólogos, dois
ingleses e um americano, a fundação da Genética populacional, por
suas contribuições decisivas, nos anos 20 e 30, ao demonstrarem a
compatibilidade e a complementaridade de Evolução e Genética, e ao
estabelecerem novos conceitos, como o de população. Como escreveu Mayr,
os biólogos Fisher, Haldane e Wright mostraram que genes com somente
pequenas vantagens seletivas podiam ser incorporados, no tempo devido,
ao genótipo de populações. A Evolução filética podia agora ser explicada
em termos da nova Genética. Desta forma, a Evolução foi definida como
mudança nas frequências gênicas em populações, ocasionadas pela seleção
natural gradual de pequenas mutações aleatórias189. A grave questão da
“adaptação” da Biologia evolucionista estava, assim, solucionada.
Pela relevância de seus trabalhos, uma pequena informação sobre
189 MAYR, Ernst. Biologia, Ciência Única.
352
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Fisher, Haldane e Wright se segue. Ronald Aylmer Fisher (1890-1962),
biólogo, geneticista e estatístico, formado em 1913, pela Universidade
de Cambridge, onde exerceu o cargo de professor de Genética (1943-59),
detentor da medalha Darwin (1948), aplicou seus conhecimentos de
estatística a suas pesquisas no campo da Genética. Escreveria vários
artigos, inclusive o The Correlation between relatives on the supposition
of Mendelian Inheritance, publicado em 1918, no qual sustentou que
a estatística seria útil para entender o comportamento dos genes e
demonstrou que a herança de variações contínuas, que era apresentada
como um prova contra a teoria de Mendel, era dirigida por muitos genes
adicionais, cada um de pequeno efeito e cada um herdado de acordo
com as leis mendelianas. A partir de 1919, Fisher trabalharia na Estação
Experimental de Rothamsted, onde desenvolveria intensas pesquisas
sobre variabilidade, utilizando-se da estatística para seus estudos. Em
1925, publicaria Statistical Methods for Research Workers, seguido, em
1935, do The Design of Experiments. Suas principais pesquisas constam
do The Genetic Theory of Natural Selection (1930), no qual sustenta, ao
contrário de muitos da época, não haver contradição entre Darwinismo e
Mendelismo, sendo, na realidade, a Genética mendeliana, o elo perdido
na Teoria da Evolução por seleção natural.
John Burdon Sanderson Haldane (1892-1964) estudou em Eton
e no New College (Oxford). Cursou, de 1922 a 1932, a Universidade de
Cambridge, e depois, o University College, em Londres, onde exerceria
a cátedra de Genética. Recebeu a Medalha Darwin (1953) e emigrou, no
final dos anos 50, para a Índia, em protesto pela invasão anglo-francesa do
Canal de Suez, e adquiriu, em 1961, a nacionalidade indiana. Comunista
na juventude, desligou-se do Partido em 1950, pelo apoio da URSS a
Trofim Lysenko, ministro da Agricultura, que se declarou antimendeliano.
Sua mais importante contribuição para a Genética populacional foi
uma série de artigos sobre a teoria matemática da seleção natural, sob
o título A Mathematical Theory of Natural and Artificial Selection, em que
mostrou o sentido e a taxa de mudanças das frequências dos genes.
Investigou a interação entre a seleção natural e a mutação, e entre aquela
e a migração (fluxo gênico). Em 1932, escreveu The Causes of Evolution,
no qual reafirmaria a seleção natural como o principal mecanismo da
evolução, com apoio na Matemática e na Genética mendeliana, reduzindo
a importância da mutação nesse processo. Haldane escreveu, ainda, entre
vários importantes livros, A Bioquímica da Genética (1954).
O estadunidense Sewall Green Wright (1889-1988), formado em
Biologia, no ano de 1912, pela Universidade de Illinois, e doutorado, em
353
CARLOS AUGUSTO DE PROENÇA ROSA
1915, pela Universidade de Harvard, professor da Universidade de Chicago
(1925-55), recebeu, em 1980, a Medalha Darwin por suas contribuições
ao estudo da Evolução. Pesquisou a genética dos mamíferos para o
Departamento de Agricultura, particularmente a Genética populacional
das cobaias, e, em 1921, publicou seu trabalho matemático sobre seleção
e reprodução, intitulado System of Mating. Wright desenvolveria a teoria
matemática de que a variabilidade genética seria devida a pequenas
variações genéticas em pequenos grupos populacionais, ao demonstrar,
com apoio estatístico, que, em pequenas populações isoladas, certas
formas de genes se perdem aleatoriamente, o que poderia levar à formação
de novas espécies, sem necessidade do processo de seleção natural.
Posteriormente, sua teoria viria a ser conhecida como “deriva genética”.
Em meados dos anos 1930, graças, principalmente, às
contribuições, entre outros, de Morgan, Fisher, Wright e Haldane, a
Genética mendeliana e o novo ramo chamado de Genética populacional
reforçaram, pela demonstração e abundância de evidências, as
premissas e principais conclusões da Teoria da Evolução biológica pela
seleção natural. Certas precisões, algum refinamento e diversos acertos
eram, contudo, necessários, na Teoria original de Darwin, de modo
a adequá-la ao novo conhecimento, adquirido a partir da Genética, a
qual apresentava crescentes e substanciais provas científicas de sua
correção. O aparente conflito entre Genética mendeliana e seleção
natural estava resolvido.
Paralelamente aos avanços nas pesquisas da Genética em apoio à
Evolução, investigações nas áreas da Paleontologia e da Filogenia acumulavam
evidências que corroboravam e comprovavam a evolução das espécies:
I) Evidências da Paleontologia – apesar do registro fóssil
continuar muito incompleto, uma grande quantidade de fósseis
foi descoberta ao longo do século XX, tornando a contribuição
da Paleontologia um testemunho vital para a compreensão e
a comprovação da teoria científica da Evolução biológica das
espécies. Por meio dos fósseis, é possível constatar mudanças
anatômicas progressivas e graduais entre as formas primitivas
e as atuais, principalmente nos níveis mais altos da taxonomia.
Hoje, está assentado, por exemplo, terem as aves evoluído
dos répteis. Assim, o organismo do Archaeopteryx lithographica
possuía características dos répteis (dentes nos maxilares,
cauda comprida, três dedos livres com unhas curvadas nas
extremidades dianteiras) e a plumagem das aves (plumagem);
354
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
II) Evidências da Anatomia, Fisiologia e Embriologia comparadas
– o exame comparativo de organismos vivos tem acumulado
evidências em favor da evolução das espécies. O estudo dos
ancestrais das espécies é a Filogenia, que tem mostrado órgãos
com estruturas homólogas (membros dos vertebrados) e
análogas. Assim, exemplos de órgãos homólogos com funções
diferentes (braço do homem, pata de cavalo, nadadeira da
baleia e asa de morcego) e de órgãos análogos (semelhança
morfológica entre estruturas com a mesma função), como asas
de inseto e asas de aves evidenciam o evolucionismo biológico.
Ainda, como indício de ancestralidade comum, biólogos têm
mostrado que fendas branquiais ocorrem em diferentes estágios
embrionários nos anfíbios, répteis, aves e mamíferos.
7.6.5.1 Síntese Evolutiva
A complexa questão da evolução da espécie não estava, no entanto,
completamente esclarecida, pois o importante problema da multiplicação da
espécie, ou da origem da biodiversidade, não fora resolvido pela Genética
populacional, isto é, não fora capaz de resolver a divergência entre Genética
matemática e Biodiversidade. Faltava, ainda, desvendar o mistério do
mecanismo, ou mecanismos, da Evolução. Como esclareceu Mayr, o grande
feito da Síntese Evolutiva, iniciada em 1937, por Dobzhansky, foi o de
fornecer uma explicação de como a vida prolifera em tantas formas diversas,
a cada momento dado, e como é fundamental o papel desempenhado pela
localização geográfica de populações, e por seu isolamento190. Em outras
palavras, o problema confrontado pelos cientistas não era a Evolução,
aceita como um fato, mas esclarecer os mecanismos que atuam no processo
evolutivo, e sobre os quais havia diversas teorias, como a da seleção natural.
Douglas Futuyma, em Evolutionary Biology (1986), escreveria
que nenhum biólogo, hoje em dia, pensaria em submeter um artigo
intitulado “novas evidências para a Evolução”, pois o assunto deixou
de ser controvertido há um século. Helena Curtiss e Sue Barnes, em
Biology (1989), além de declararem não ser mais a Evolução um problema
para a grande maioria dos biólogos modernos, esclareceram que, hoje,
as questões centrais e mais fascinantes para os biólogos se referem aos
mecanismos pelos quais a Evolução ocorre. Nesse mesmo sentido, se
declararam inúmeros importantes cientistas, como Stephen J. Gould, Neil
190 MAYR, Ernst. Biologia, Ciência Única.
355
CARLOS AUGUSTO DE PROENÇA ROSA
Campbell e Richard C. Lewontin. Sobre o particular, vale reproduzir a
incisiva declaração de Dobzhansky, em seu famoso artigo (1973):
...evolution as a process that has always gone on in the history of the earth can be
doubted only by those who are ignorant of the evidence or are resistant to evidence,
owing to emotional blocks or to plain bigotry. By contrast, the mechanisms that bring
evolution about certainly need study and clarification. There are no alternatives to
evolution as history that can withstand critical examination. Yet we are constantly
learning new and important facts about evolutionary mechanisms…
Há consenso, entre os especialistas na história da Biologia, que,
no período 1937-50, foi formulada a Síntese Evolutiva, adotada pela
comunidade científica, por expressar, de forma demonstrável, com apoio,
principalmente, na Paleontologia e na Genética, a Teoria da Evolução pela
seleção natural. Ao integrar a Genética à Evolução e ao incorporar à Biologia
uma série de novos conceitos e mecanismos, como os de população, de
espécie, de especiação, de variabilidade gênica, de deriva genética e de
fluxo gênico (migração), a Síntese Evolutiva representa a formulação
mais adequada e mais moderna da Teoria da Evolução. Seus principais
autores foram, além de Dobzhansky, o alemão Ernst Mayr (Systematics and
the origin of species, de 1942), o inglês Julian Huxley (Evolution, the modern
synthesis, 1942), o americano George Simpson (Tempo and mode in evolution,
1944), o alemão Bernhard Rensch (Evolução acima do nível de espécies, 1947)
e o americano George Stebbins (Variation and evolution in plants, 1950).
A seguir, algumas breves informações biobibliográficas desses acima
mencionados cientistas. Theodosius Dobzhansky (1900-1975) formou-se e
trabalhou na Universidade de Kiev, de 1917 a 1924, quando se transferiu para
Leningrado, onde estudaria e trabalharia com Yuri Filipchenko, que formulara
a diferença entre microevolução (nível do indivíduo) e macroevolução (nível
das populações). Pesquisaria a drosofila melanogaster, demonstrando que
sua variabilidade genética era bem maior que a suposta até então. Em 1927,
recebeu bolsa da Universidade de Colúmbia, onde trabalharia com Thomas
Hunt Morgan em experimentos genéticos, transferindo-se, com Morgan, em
1930, para o Instituto de Tecnologia da Califórnia, onde permaneceria até
1940. Já nessa época, sustentava que as espécies desenvolvem mecanismos
de isolamento de forma a preservar sua integridade. Nesse período, iniciaria
(1936) uma série de artigos – A Genética das Populações Naturais – que continuaria
pelos próximos 40 anos e publicaria uma das obras consideradas como marco
da Genética evolutiva e trabalho pioneiro da Síntese Evolutiva moderna,
intitulada Genética e a Origem das Espécies (1937), na qual definiu evolução
356
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
como “uma mudança na frequência de alelos dentro de um pool gênico”.
As mudanças cromossômicas e as mutações seriam “o primeiro estágio do
processo evolucionário, governado pelas leis da fisiologia dos indivíduos”.
Num segundo estágio, a influência da “seleção, migração e do isolamento
geográfico moldaria a estrutura genética da população com novas formas,
em conformidade com o ambiente secular, a ecologia e, especialmente, com
os hábitos reprodutivos da espécie”. E, finalmente, num terceiro estágio,
quando se desenvolveriam os mecanismos de preservação das espécies,
distintas umas das outras, seja por isolamento geográfico, isolamento sexual
ou esterilidade híbrida. Nesse mesmo ano de 1937, naturalizou-se cidadão
americano. Nos anos 40, participou de expedições científicas na América do
Sul, pesquisando o vale amazônico (Brasil, Peru e Colômbia). De 1949 a 1962,
trabalhou na Universidade de Chicago, transferindo-se para a Universidade
Rockefeller, onde permaneceria até 1971. Além de seu livro de 1937, outras
obras importantes podem ser citadas: Evolução, Genética e Homem (1955),
Mankind Evolving (1962) e Genética do Processo Evolutivo (1970). Em 1973,
publicaria Dobzhansky seu famoso artigo anticriacionista intitulado Nada em
Biologia faz sentido exceto à luz da Evolução.
Outro biólogo considerado cofundador da Síntese Evolutiva
moderna é o zoólogo alemão, naturalizado americano, Ernst Mayr
(1904-2005), que se especializou em Ornitologia, evolução, genética das
populações e taxonomia. Formado pela Universidade de Berlim, com
doutorado em 1926, participou, nos anos 30, de expedições científicas à
Nova Guiné e às Ilhas Salomão, onde estudou a fauna local, em especial os
pássaros, publicando, em 1941, Aves da Nova Guiné. Nos EUA desde 1932,
trabalharia no Museu de História Natural de Nova York, mudando-se, em
1953, para Harvard, como professor de Zoologia e diretor do Museu da
Zoologia Comparada, onde permaneceria até sua aposentadoria, em 1975.
Em 1940, propôs uma nova definição, hoje adotada, para espécie (grupo
de populações naturais que, real ou potencialmente, se entrecruzam,
e que são isoladas de outros grupos do ponto de vista da reprodução).
Desenvolveu Mayr, também, o conceito de especiação ou formação de
novas espécies, que ocorre quando uma subpopulação, por alguma razão,
se isola fisicamente da população paterna. Com o passar do tempo, os
genes dessa subpopulação adquirem hábitos e estruturas características,
do que resulta uma nova espécie. Além da obra de 1942, escreveu, ainda,
Métodos e Princípios da Sistemática em Zoologia (1953), Espécies Animais e
Evolução (1963), O Crescimento do Pensamento Biológico (1982), Para uma nova
Filosofia da Biologia (1988), Biologia, Ciência Única (2004). Mayr recebeu, em
1984, a Medalha Darwin, da Sociedade Real de Londres.
357
CARLOS AUGUSTO DE PROENÇA ROSA
Outro cofundador da Síntese Evolutiva moderna é o paleontólogo
americano George Gaylord Simpson (1902-1984), bacharel em 1923 e
doutorado em 1926, por Yale, que introduziria métodos quantitativos
e base genética para avaliar os restos fósseis e quantificar a hipótese
evolucionária. Em 1944, no livro Ritmo e Modo em Evolução (Tempo and Mode
in Evolution), Simpson dividiria a mudança evolutiva em tempo (ritmo de
mudança) e mode (modo ou maneira de mudança), sendo o ritmo um fator
básico do modo, e desenvolveria uma teoria com três tipos de evolução:
a especiação é a diferenciação das novas espécies, pela reorganização
de um grupo proveniente de uma população maior; a evolução linear
ou mudança gradual de uma espécie inteira ou de uma população; e a
evolução quântica, relativamente súbita. De 1927 a 1959, trabalhou no
Museu de História Natural de Nova York, transferindo-se para o Museu de
Zoologia Comparada, exercendo a cátedra de Paleontologia de Harvard.
Além de Tempo and Mode in Evolution, escreveu Princípios de Classificação de
Mamíferos (1945), O Significado da Evolução (1949), As Maiores Características
da Evolução (1954) e Os Princípios da Taxonomia Animal (1961). Com sua
esposa, Anne Roe, escreveu, em 1939, o livro Zoologia Quantitativa.
Recebeu, em 1962, a Medalha Darwin191.
O zoólogo alemão Bernhard Rensch (1900-1990), com doutorado
pela Universidade de Halle, pesquisador do Departamento de Zoologia
da Universidade de Berlim (1925/37), diretor do Instituto Zoológico
da Universidade de Munster (1947/68), ornitólogo, interessou-se
pela Biologia evolutiva, concentrando seus estudos nas características
zoogeográficas da especiação e na influência de fatores ambientais na
Evolução. O resultado de suas pesquisas seria publicado, em 1947, no
livro Evolução acima do nível de espécies.
O biólogo e humanista inglês Julian Sorell Huxley (1887-1975),
primeiro Diretor-Geral da UNESCO (1946-48), formou-se por Oxford, e
foi professor no Rice Institute, em Houston, Texas (1912-16), em Oxford
(1919-1925), e no King’s College, em Londres (1925-1935). Secretário da
Sociedade Zoológica de Londres, Huxley demonstrou interesse especial por
Ornitologia, e pesquisou em diversas áreas como Embriologia, Genética,
Biologia molecular e Antropologia. Recebeu, em 1956, a Medalha Darwin.
Em 1940, escreveu The New Systematics, e, em 1942, Evolution: the modern
synthesis, no qual apresenta sumário de pesquisas em todos os tópicos
relevantes para a Evolução biológica, e adotou a Genética mendeliana,
a Genética populacional e a Paleontologia como elementos essenciais da
moderna Síntese Evolutiva. Dentre suas inúmeras obras sobre o tema,
191 SIMMONS, John. Os Cem Maiores Cientistas da História.
358
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
podem ser citadas a Evolution in Action (1953) e The Wonderful World of
Evolution (1969).
Outra contribuição considerada importante no período da
formulação da Síntese Evolutiva se deve ao botânico americano George
Ledyard Stebbins (1906-2000), com doutorado, em 1931, por Harvard,
professor no Departamento de Genética de Berkeley. Na Universidade
da Califórnia (Berkeley), trabalharia com o geneticista Ernest B. Babcock
(1877-1954) e um grupo de geneticistas evolucionistas, conhecido como
Bay Area Biosystematists, o que o levaria a incorporar a Genética
em suas pesquisas sobre a evolução das plantas. O gênero crepis, por
suas características especiais (poliploidia – mais de dois conjuntos de
cromossomos, e apomixia – produção de semente sem fertilização), seria
o escolhido para as investigações. Stebbins e Babcock publicariam duas
monografias, uma, em 1937, sobre o crepis asiático, e outra, em 1938,
sobre a espécie americana. Em 1940, escreveria artigo sobre O significado
da poliploidia na evolução das plantas, e, em 1947, outro intitulado Tipos de
poliploides: sua classificação e significado. Sua mais importante obra seria
publicada, em 1950, sob o título Variação e Evolução nas Plantas, seguida
por Processos de Evolução Orgânica (1966), As Bases da evolução progressiva
(1969), Evolução cromossômica em plantas (1971) e Flowering Plants: Evolution
above the Species Level (1974); com Dobzhansky e outros, escreveu, em 1977,
o livro Evolução.
A Síntese Evolutiva se baseia em três conceitos que devem ser
definidos de imediato: o de população, que tem sua origem na Genética
das populações; o de espécie, cujo texto, hoje em dia aceito, é de autoria
de Ernst Mayr; e o de especiação, origem de duas ou mais espécies a partir
de um ancestral comum. População é entendida como um grupamento
de indivíduos de uma mesma espécie que ocorre numa mesma área
geográfica num mesmo intervalo de tempo. O conceito biológico de
espécie, para os organismos de reprodução sexuada (Mayr – a reproductive
community of populations (reproductively isolated from others) that occupies a
specific niche in nature), é o grupamento de populações naturais que, real
ou potencialmente, se entrecruzam e que são reprodutivamente isoladas
de outros grupos de organismos. Para os organismos de reprodução
assexuada, as características morfológicas definem os grupamentos
em espécies. A especiação é o processo pelo qual uma espécie se
transforma em outra (anagênese) ou se divide, dando origem a outras
duas (cladogênese). A especiação ocorre, ou novas espécies surgem, por
isolamento geográfico (separação de subpopulações por barreiras físicas),
diversificação gênica (progressiva diferenciação do conjunto gênico de
359
CARLOS AUGUSTO DE PROENÇA ROSA
subpopulações isoladas – por mutação e por seleção natural), e isolamento
reprodutivo (incapacidade reprodutiva de descendência fértil por parte
de membros de duas subpopulações). A subpopulação sofre mutações
cumulativas, com o passar do tempo, que alteram seu genótipo (conjunto
de genes de um indivíduo), e, consequentemente, sua expressão fenotípica
(características físicas).
Para a Síntese, a unidade evolutiva é a população. A grande
diversidade de fenótipos numa população é uma clara indicação de sua
variabilidade genética. As variabilidades genéticas e fenotípicas explicam
a evolução ao longo do tempo, devida, assim, a alterações na frequência
dos genes de uma população, que são determinadas por fatores evolutivos.
Cada população apresenta um conjunto gênico que pode ser alterado
por fatores evolutivos. Quanto maior a população, maior o conjunto
gênico, e, assim, maior a variabilidade genética A variabilidade genética
da população, sobre a qual atuam a seleção natural, a migração ou fluxo
gênico, e a deriva genética, pode aumentar aleatoriamente por mutação
gênica e mutação cromossômica (ambas, mudanças no material genético)
e por recombinação genética (intercâmbio de genes entre os cromossomos
das células sexuais). A mutação só é passada para os descendentes quando
ocorre em células germinativas.
A Síntese Evolutiva moderna se baseia, portanto, em duas
conclusões fundamentais: a de que a evolução gradual se explica
por pequenas mutações aleatórias (mudança no material gênico) e
recombinação genética (intercâmbio de genes entre os cromossomos na
formação das células sexuais), as quais estão sujeitas a posterior seleção
natural, e a de que todos os fenômenos evolutivos podem ser explicados
por mecanismos genéticos.
Nos anos de 1970, surgiu uma alternativa quanto à variação
morfológica, conhecida como “equilíbrio pontuado”, de autoria dos
paleontólogos americanos Stephen Jay Gould (1941-2002) e Niles Eldredge
(1943). A teoria sustenta não ter sido gradual o ritmo da evolução da
espécie, que, após breves acelerações de mudanças morfológicas, teriam
ocorrido poucas mudanças durante longos períodos de tempo, conforme
atestaria o registro fóssil, que não é incompleto.
7.6.5.2 Criação X Evolução
A Evolução se constituiria num dos temas mais polêmicos e
controversos da Ciência, na atualidade, por sua direta confrontação
360
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
com tradicionais ensinamentos dogmáticos baseados em preconceitos
enraizados na cultura das sucessivas gerações, desde o início do período
histórico. A Origem das Espécies (1859) e a Descendência do Homem (1871)
seriam os dois livros principais de Charles Darwin que introduziriam um
tratamento científico para um assunto considerado da alçada exclusiva
dos textos religiosos e da doutrina teológica. A obra de Darwin significava
a rejeição da criação divina do Homem e do consequente fixismo das
espécies. A Biologia, que se estruturara como ramo científico, na segunda
metade do século XIX, seria, assim, o primeiro campo do conhecimento
humano a entrar em choque conceitual com dogmas religiosos firmemente
estabelecidos. Sua fundamentação na seleção natural, com o abandono de
explicações e argumentação de ordem sobrenatural, para a evolução dos
seres vivos, representa um marco decisivo na história da Ciência, mas ao
mesmo tempo um ponto crucial e fundamental de discórdia com todos os
ensinamentos e crenças até então dominantes, e irrefutáveis, no imaginário
humano. A intervenção sobrenatural, a única justificativa conhecida e
permitida para a presença das espécies animais e vegetais na Terra, seria
substituída por um mecanismo que dispensava qualquer ação milagrosa
e divina como explicação para existência dos seres vivos. O pressuposto
teleológico da causa final, que conduziria o processo natural a um fim
previamente definido e que justificaria a origem, o desenvolvimento e o
funcionamento dos seres vivos, era, assim, rejeitado, pela primeira vez,
por uma teoria científica, no caso, pela Biologia. Tratava-se, portanto, de
duro golpe na tradição cultural ocidental judaico-cristã, cujo ensinamento
era o do criacionismo e do fixismo.
Darwin, o grande responsável por essa revolucionária mudança
na explicação da origem das espécies, seria por essa razão, objeto
de violenta campanha difamatória, com o intuito de desmoralizá-lo,
por meio de artigos e caricaturas, advindos de prestigiosos setores e
personalidades, interessados em manter o conhecimento atrelado a mitos
e preconceitos.
Apesar da aceitação quase unânime, pela comunidade científica,
da Teoria da Evolução pela seleção natural, principalmente, a partir da
década de 1940, com a elaboração da chamada Síntese Evolutiva moderna,
o tema continuaria a suscitar debates e controvérsias no mundo ocidental,
em vista da resistência de setores conservadores ligados às Igrejas cristãs.
A questão da imutabilidade das espécies, ou fixismo, perderia muito
de sua conotação emocional, diante das numerosas evidências surgidas
pelas experiências e pesquisas, permanecendo, contudo, como crucial, a
questão da origem ou da criação da espécie. Como o dogma da criação
361
CARLOS AUGUSTO DE PROENÇA ROSA
impossibilita aos crentes religiosos a aceitação de qualquer teoria científica
sobre o processo da origem ou formação da Vida, a teoria de Darwin foi
e tem sido rejeitada por esse segmento da sociedade de grande influência
no processo decisório político de muitos países.
Dada a importância de seus signatários, parece relevante
apresentar os principais pontos da recente decisão do Interacademy Panel
(IAP), rede internacional de Academias de Ciências, sobre a ingerência
religiosa no ensino científico, em particular sobre a Evolução biológica.
A entidade julgou conveniente, inclusive, reafirmar, de forma incisiva, o
entendimento do círculo científico mundial sobre o método científico e as
evidências acerca da formação e evolução da Terra e da Vida.
Em 26 de junho de 2006, a IAP aprovaria, com o apoio de 67
Academias de Ciências (como as do Brasil, Argentina, México, China,
Polônia, EUA, Marrocos, Chile, Cuba, Áustria, Austrália, França,
Alemanha, Dinamarca, Grécia, Índia, Irlanda, Itália, Japão, Suécia, Irã,
Egito), mais a Junta Executiva do Conselho Internacional de Ciência (ICSU),
uma Declaração sobre a sonegação, negação e confusão de evidências,
informações e teorias científicas sobre a origem e a evolução da Vida na
Terra com teorias não testáveis pela Ciência, que estaria ocorrendo em
vários países nos cursos de Ciência em sistemas públicos de ensino. A
Declaração exorta autoridades, educadores e pais a educarem as crianças
segundo os métodos e descobertas científicas, e promover o conhecimento
da Ciência da Natureza: “o conhecimento do mundo natural no qual
eles vivem dá poder ao povo para enfrentar as necessidades humanas e
proteger o planeta”.
Em seguida, o documento relaciona quatro fatos baseados em
evidências sobre a origem e evolução da Terra e da Vida no planeta, os
quais foram estabelecidos por numerosas observações e confirmados por
experimentações em diversas disciplinas científicas. Ainda que alguns
pormenores possam ser postos em dúvida, as evidências científicas, de
acordo com o documento, não contradisseram nunca: i) a atual configuração
do Universo evoluiu num período entre 11 e 15 bilhões de anos, e a Terra
foi formada há cerca de 4,5 bilhões de anos; ii) desde sua formação, a Terra,
do ponto de vista geológico e de meio ambiente, tem mudado, e continua a
mudar, sob efeito de numerosas forças físicas e químicas; iii) a Vida surgiu
na Terra há, pelo menos, 2,5 bilhões de anos. A evolução dos organismos
fotossintéticos, tão logo foi possível (2 bilhões de anos), permitiria a lenta
transformação da atmosfera, que passaria a conter quantidade substancial
de oxigênio; além da liberação do oxigênio que respiramos, o processo de
fotossíntese é a fonte primordial de energia e alimento da qual depende a
362
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
sobrevivência da Vida no Planeta; e iv) desde seu primeiro aparecimento,
a Vida adquiriu muitas formas, que continuam a evoluir, como a
Paleontologia e as modernas Ciências biológicas e bioquímicas descrevem
e confirmam com precisão crescente. O aspecto comum da estrutura do
código genético de todos os organismos vivos, inclusive o humano, indica
claramente sua origem comum primordial.
A Declaração subscreve ainda a afirmativa sobre a natureza da
Ciência quanto ao ensino da Evolução, pela qual o conhecimento científico
deriva do método de conhecer a natureza do Universo por meio da
observação do mundo natural e da formulação de hipóteses testáveis e
refutáveis, das quais se inferem explicações sobre fenômenos observáveis.
Quando as evidências são suficientemente fortes e determinantes, são
formuladas teorias científicas para explicá-las. Finalmente, o documento
reconhece limitações da Ciência, cuja agenda não está esgotada, e está
sujeita a correções e expansões, no caso de novo conhecimento teórico e
empírico emergir.
Evidentemente que o antagonismo dos criacionistas a qualquer
ensinamento contrário ao seu dogma prosseguirá pelas próximas décadas,
ou séculos, uma vez que não é plausível supor que a Ciência venha a se
impor, definitiva e completamente, em futuro próximo e previsível, sobre
considerações teológicas, ensinamentos religiosos e tradições metafísicas.
A posição firme e independente do meio científico sobre a questão
assegura, contudo, seu continuado tratamento, segundo a metodologia
própria da Ciência biológica, em especial da Biologia Evolutiva.
7.7 Sociologia
A evolução da Sociologia na Época Contemporânea seria direta
e grandemente influenciada pelos acontecimentos políticos, ideológicos
e culturais que predominaram no período, em especial na Europa e
nos EUA. Ciência de origem e influência francesa (Comte, Durkheim),
a Sociologia continuaria a despertar interesse nos meios intelectuais
europeus, em especial na Alemanha, com importantes pesquisas teóricas
e de campo, objetivando entender e interpretar a realidade do momento
histórico e social. Várias contribuições importantes marcariam a fase
atual do desenvolvimento desta nova Ciência, como, entre outras, as de
Max Weber, Ferdinand Tonnies, Georg Simmel, Robert Michels, Karl
Mannheim e Norbert Elias, na Alemanha; de Vilfredo Pareto e Gaetano
Mosca, na Itália; e de Celestin Bouglé, Maurice Halbwachs, René Worms,
363
CARLOS AUGUSTO DE PROENÇA ROSA
Marcel Mauss, Raymond Aron, Pierre Bourdieu, Raymond Boudon e
Alain Touraine, na França. Outros países, como a Grã-Bretanha e a Áustria,
procurariam, igualmente, incentivar estudos e pesquisas sociológicas, mas
teriam pouca influência no pensamento sociológico europeu.
No entanto, devido à Primeira Guerra Mundial e aos problemas
econômicos, sociais e políticos decorrentes do conflito armado; devido às
confrontações ideológicas, que redundariam no surgimento de regimes
fascista, nazista e comunista; devido à fuga de intelectuais e cientistas
sociais, principalmente para os EUA; e devido à redefinição de prioridades
de investigação científica, a Europa perderia sua posição tradicional de
principal centro de estudos e formulação teórica no campo da Sociologia.
O herdeiro seria os EUA, que assumiria, então, incontestável liderança
mundial. A Segunda Guerra Mundial, com todas as suas graves
consequências de toda ordem para os países europeus, agravaria, ainda
mais, a precária situação da pesquisa sociológica na Europa, postergando
sua recuperação até os anos 80. Nos EUA, o desenvolvimento da Sociologia
se faria à luz da sua realidade social, política, cultural e econômica, com
ênfase em pesquisa de campo e menos interesse no estudo teórico. A
Escola de Chicago, a Escola de Colúmbia e a Escola de Harvard seriam
os grandes centros de irradiação dos estudos sociológicos no país. Nesse
sentido, dariam significativas contribuições, entre outros, Lester Ward,
Albion Small, Franklin Giddings, Robert Park, Talcott Parsons, Pitirim
Sorokin, William Ogburn, Thorstein Veblen, William Thomas, Robert K.
Merton, Ernest Burgess, Florian Znaniecki, Robert Lynd, Edward Frazier,
Paul Lazarsfeld, Anselm Strauss e Wright Mills.
Em seu processo de desenvolvimento, a institucionalização da
Sociologia seria uma das suas características principais, inicialmente nos
EUA, e, pouco depois, na Europa e América Latina. O modelo americano de
envolvimento dos grandes centros acadêmicos, com a ajuda e cooperação
de grandes organizações e corporações industriais e financeiras, públicas
e privadas, na pesquisa de campo, abrindo, assim, espaço para a atividade
profissional dos sociólogos, seria, após a Segunda Guerra Mundial,
copiado em outros países. Departamentos de Sociologia seriam criados nas
universidades, publicações especializadas divulgariam estudos teóricos e
pesquisas de campo, sociedades nacionais de Sociologia seriam fundadas,
ao longo do período, nos diversos países. Acontecimentos que revelam
o grande impulso ocorrido na afirmação da Sociologia como disciplina
científica para o estudo da Sociedade humana.
A institucionalização da Sociologia, que resultaria na
profissionalização do sociólogo, e a crescente presença de entidades
364
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
financiadoras, interessadas em estudos sociológicos de apoio à ordem
vigente, seriam, em boa medida, responsáveis por uma preferência a
trabalhos de campo em detrimento de estudos teóricos. A universidade,
até então desvinculada dos interesses estatais e das grandes empresas
privadas, abandonaria tal postura para estabelecer vínculos com o centro
do poder, cujo objetivo seria de legitimar os interesses dominantes e
preservar a ordem existente. A orientação empirista da pesquisa de
campo, amplamente adotada, importaria na marginalização da aplicação
do método histórico na questão social em favor de uma técnica refinada
de procedimentos quantitativos e estatísticos do trabalho de campo, o
qual passaria a ser um fim em si mesmo.
Ao tempo em que se deslocava o eixo das pesquisas sociológicas
da Europa para os grandes centros acadêmicos americanos (Chicago,
Harvard, Nova York), a nova Ciência adquiria dimensão mundial,
com sua inclusão no currículo universitário da maioria dos países das
Américas, Ásia e África, com o estabelecimento de institutos, sociedades
e associações nacionais de divulgação, centros de investigação, e com
a criação de revistas especializadas de difusão de estudos sociológicos.
Passado histórico distinto do europeu e problemas sociais e econômicos
bastante diferentes dos enfrentados pelos países industrializados,
os estudos sociológicos nesses países em desenvolvimento seriam
direcionados, principalmente, a partir da segunda metade do século XX, no
sentido de entender e interpretar suas próprias dificuldades e problemas
específicos, e propor soluções que melhor atendessem os anseios da
população e as reivindicações nacionais. Ainda que conceitos e valores
sociológicos (liberdade de expressão, democracia, representação política,
opinião pública, cidadania, relação Estado/Religião) continuassem
objetos de estudo, a linha da pesquisa empírica, quantitativa, nesses
países, tenderia a se concentrar em suas particularidades. A problemática
nacional (inserção das populações indígenas, imobilismo social, rápida
urbanização, alta taxa de desemprego, ineficiente previdência social,
deficiente instrução pública, independência econômica, representação
política, conflitos sociais, problema fundiário, inadequada saúde pública)
seria objeto de exame da parte dos sociólogos, vinculados, em sua maioria,
a centros de pesquisas, fundações, universidades e entidades públicas e
privadas. Essa situação ambígua dos sociólogos os tornaria, em muitos
casos, comprometidos com os interesses dessas entidades a que serviam.
Como nos demais ramos científicos, a Sociologia se beneficiaria,
também, do processo de internacionalização que se intensificaria na
segunda metade do século XX. Nesse sentido, devem ser mencionadas
365
CARLOS AUGUSTO DE PROENÇA ROSA
a cooperação entre os institutos de pesquisa e centros acadêmicos dos
diversos países, a frequente realização de congressos nacionais, regionais
e internacionais com a participação de sociólogos de variadas origens,
a crescente concessão de bolsas de estudos a estudantes estrangeiros,
e convites a professores estrangeiros para participarem de cursos
universitários.
Um grande número de revistas especializadas nos diversos temas
da Sociologia se encarregaria de divulgar amplamente os estudos e
pesquisas realizadas, bem como de apresentar comentários críticos sobre
livros recém-publicados. Segue, a título exemplificativo, uma pequena
relação dessas publicações: American Journal of Sociology (bimestral, desde
1895), American Sociological Review (da Associação Sociológica Americana),
Année Sociologique (fundada por Durkheim, em 1898), Contemporary
Sociology (bimestral, da ASA), Sociological Methodology (revista anual da
ASA) e Sociological Theory (trimestral, da ASA), Rural Sociology, (desde
1937, pela Rural Sociological Society), Qualitative Sociology (desde 1997,
pela editora holandesa Springer), Mobilization (publicação acadêmica
desde 1996, atualmente a cargo da Universidade de Notre Dame), Berliner
Journal fur Soziologie, Qualitative 1991, (publicação trimestral do Instituto
de Ciências Sociais da Universidade Humboldt de Berlim), Canadian
Journal of Sociology (bimestral), Archives Européennes de Sociologie, Cahiers
Internationaux de Sociologie (semestral, da Presses Universitaires de
France), Revue Française de Sociologie (publicação trimestral, fundada em
1960, por Jean Stoetzel), Revista Brasileira de Ciências Sociais (publicação
quadrimestral, desde 1986, pela Associação Nacional de Pós-Graduação e
Pesquisa em Ciências Sociais), Revista Mexicana de Sociologia (do Instituto
de Investigações Sociais), Revista Colombiana de Sociologia (da Faculdade
de Ciências Humanas da Universidade Nacional da Colômbia), Revista
Argentina de Sociologia (do Conselho de Profissionais em Sociologia),
Japanese Sociological Review (publicação da Sociedade Japonesa de
Sociologia, desde 1924), Journal of Sociology (da Associação Australiana
de Sociologia), Revista Internacional de Sociologia (do Conselho Superior de
Investigações Científicas da Espanha), International Journal of Comparative
Sociology (desde 1950, publicação bimestral da Universidade de Utah),
Current Sociology e International Sociology (publicações trimestrais da
Associação Sociológica Internacional,), e Revue Internationale des Sciences
Sociales, publicada pela UNESCO.
Inúmeras sociedades e associações nacionais e regionais foram
criadas, como, na Ásia, Associação Coreana de Sociologia, Associação
Australiana de Sociologia, Sociedade Japonesa de Sociologia, Sociedade
366
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Sociológica da Índia, Associação Chinesa de Sociologia, Associação
Sociológica Ásia-Pacífico; na Europa, Sociedade Alemã de Sociologia,
Sociedade Britânica de Sociologia, Instituto de Sociologia da Bulgária,
Associação Sociológica Helênica, Associação Dinamarquesa de Sociologia,
Associação Nacional de Sociologia da Itália, Associação Portuguesa
de Sociologia, Federação Espanhola de Sociologia, Sociedade Russa
Sociológica Maxim Kovalevski, Sociedade Austríaca para Sociologia,
Associação Sociológica Europeia; nas Américas, Sociedade Brasileira de
Sociologia, Associação Colombiana de Sociologia, Sociedade Chilena de
Sociologia, Associação Mexicana de Sociologia, Associação Venezuelana
de Sociologia, American Sociological Association, Associação Latino-Americana de Sociologia; na África, Sociedade Etíope de Sociólogos,
Associação Nigeriana Antropológica-Sociológica, Associação Sociológica
Sul-Africana, Association Tunisienne de Sociologie, Association Arabe
de Sociologie. Deve ser registrado que todas as sociedades e associações
nacionais e regionais foram fundadas ao longo do século XX.
Em 1949, seria criado, pela UNESCO, a International Sociological
Association (ISA), organização não governamental e membro do
Conselho Internacional de Ciências Sociais, cujo objetivo declarado é o
de representar sociólogos de todos os países, independentemente de sua
escola de pensamento, e o de avançar no conhecimento sociológico. São
membros da ISA tanto professores e pesquisadores da área da Sociologia
quanto sociedades e associações diretamente vinculadas ao estudo e à
pesquisa sociológica.
7.7.1 A Sociologia na Alemanha
Três fases caracterizam a evolução da Sociologia na Alemanha. A
primeira se estende até o conflito mundial de 1914-18 e é dominada pela
contribuição de Max Weber. Outros sociólogos importantes dessa fase, de
expansão econômica e comercial, e de grande atividade cultural e científica
do país, seriam Ferdinand Tönnies, Werner Sombart, Georg Simmel, Alfred
Weber, Alfred Vierkandt e Robert Michels. A segunda fase corresponde ao
período entreguerras, caracterizada pela depressão econômica, galopante
inflação, queda da Monarquia e instauração da República de Weimar,
instabilidade política e social, sentimento de revanchismo pela derrota
na Guerra e pelas condições impostas pelos aliados, descrédito das Forças
Armadas, ascensão de Hitler ao poder, fuga de intelectuais e cientistas para
outros países europeus e EUA. Apesar da Sociologia passar a ser ensinada
367
CARLOS AUGUSTO DE PROENÇA ROSA
nas universidades como disciplina independente, seu prestígio seria
declinante, sendo, mesmo, antagonizada durante os anos do III Reich, pelo
que muitos sociólogos se exilariam no exterior. O mais brilhante sociólogo
dessa fase na Alemanha seria o húngaro Karl Mannheim, mas que também
se exilaria, em 1933, na Inglaterra, onde fixaria residência em definitivo. A
obra do sociólogo Norbert Elias permaneceria praticamente desconhecida até
os anos 70, quando passaria a ter reconhecimento internacional e influência
no pensamento moderno. Uma terceira fase, a atual, em que o país esteve
ocupado por tropas estrangeiras, e depois, dividido em dois, com regimes
antagônicos, situação que se manteria até o início dos anos 90, seria, também,
o da reconstrução econômica e o da participação ativa na Comunidade
Econômica Europeia, depois União Europeia. A plena recuperação do ensino
e da pesquisa de campo em Sociologia só ocorreria a partir dos anos 70, com
as atividades dos Departamentos de Sociologia das diversas universidades e
de vários centros e institutos de estudos, período em que seria reconhecido
o valor das obras dos anos 30 de Karl Mannheim e Norbert Elias. Deve-se
assinalar como da maior relevância o fato de vários intelectuais, que haviam
fugido da Alemanha para escapar do regime nazista, terem regressado ao
país, o que permitiria, inclusive, a reabertura do Instituto de Pesquisa Social
de Frankfurt (e a retomada das atividades da Escola de Frankfurt).
Antes, porém, de examinar a evolução da Sociologia na Alemanha,
em suas três fases, é indispensável tratar, em separado, da obra de Max
Weber, sem dúvida o mais importante sociólogo alemão desde Marx.
7.7.1.1 Max Weber
O sociólogo alemão Maximiliano Weber é considerado por muitos
estudiosos da Sociologia moderna como um de seus fundadores, ao
lado de Durkheim e Pareto. Apesar da pouca repercussão, nos meios
intelectuais e acadêmicos, de sua obra, nos primeiros anos do século
XX, e de não ter criado uma escola alemã de Sociologia, sua influência
cresceria com o tempo, sendo, atualmente, bastante citado e reconhecido
como tendo dado importantes contribuições ao desenvolvimento desta
nova Ciência, particularmente nas áreas da Sociologia da religião e da
Sociologia política. No exame da Sociologia atual, Weber ocupa, assim,
uma posição de especial relevo que ultrapassou a fronteira alemã e
adquiriu uma dimensão mundial, pelo que sua obra merece um exame
mais detido e amplo, prévio aos itens relativos ao desenvolvimento da
Sociologia na Alemanha.
368
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
7.7.1.1.1 Nota Biográfica e Bibliográfica
Max Weber (1864-1920), nascido em Erfurt, na Turíngia, de
uma família da alta classe média, cujo pai fora parlamentar (18721884) pelo Partido Liberal-Nacional, estudou Direito, Economia,
Filosofia e História nas Universidades de Heidelberg, Göttingen e
Berlim, onde obteria (1889) o doutorado em Direito, com a tese A
História das Organizações Medievais de Comércio. Em 1891, escreveria
A História Agrária de Roma e Seu Significado para o Direito Público e
Privado, o que o habilitaria a se candidatar a professor universitário.
Em 1894, assumiu a cátedra de Economia da Universidade de
Freiburg, época em que escreveria Tendências da Evolução da Situação
dos Trabalhadores Rurais na Alemanha Oriental e viajaria à Escócia e
à Irlanda. Weber permaneceria em Freiburg até 1896, quando se
transferiu para a Universidade de Heidelberg. Acometido de grave
crise nervosa (1898), inclusive sendo internado por breves períodos,
mas por diversas vezes, obteria uma licença remunerada por motivo
de saúde, quando viajaria à Itália e à Suíça, só voltando ao trabalho
intelectual em 1903, na qualidade de coeditor da importante e
prestigiosa publicação Arquivo de Ciências Sociais. Em 1904, publicaria
a primeira parte de A Ética Protestante e o Espírito do Capitalismo, na
qual procuraria estabelecer um estreito vínculo entre o protestantismo
e o capitalismo, e o ensaio A objetividade do conhecimento nas ciências
e políticas sociais. Viajaria aos EUA, onde pronunciaria conferências
(Problemas Agrícolas da Alemanha. Passado e Presente) e recolheria
material para prosseguir seus estudos sobre a Sociologia da Religião.
Em seu retorno, publicaria (1905) a segunda parte de A Ética Protestante
e o Espírito do Capitalismo, que viria a ser seu mais conhecido livro. Em
1906, escreveria dois ensaios sobre a Rússia (A Situação da Democracia
Burguesa na Rússia e A Transição da Rússia para o Constitucionalismo de
Fachada) e As Seitas Protestantes e o Capitalismo.
Financeiramente independente, com o recebimento de uma herança
(1907), Max Weber abandonaria definitivamente a atividade acadêmica e
política para se dedicar a pesquisas históricas e sociológicas, ainda que
pronunciasse conferências nas Universidades de Viena e Munique, e
desse aulas particulares. Em janeiro de 1909, seria cofundador, ao lado de
Ferdinand Tönnies, Werner Sombart e Georg Simmel, da Sociedade Alemã
de Sociologia, e publicaria As Relações de Produção na Agricultura no Mundo
Antigo. No período de 1915-17, seriam publicados os capítulos da Sociologia
da Religião. Após o final da Primeira Guerra Mundial, escreveria Política
369
CARLOS AUGUSTO DE PROENÇA ROSA
como Vocação (1918), ingressaria no recém-fundado Partido Democrático
Alemão (DDP), de cunho liberal, participando ativamente das eleições de
janeiro de 1919, e colaboraria na elaboração da Constituição de Weimar.
Weber daria um curso na Universidade de Viena (1918) sob o título de
Uma Crítica Positiva da Concepção Materialista da História, e, em Munique
(1919), faria conferências que seriam publicadas com o título de História
Geral da Economia. Em 1919, participaria como conselheiro da delegação
alemã da Conferência de Versalhes (Tratado de Paz de Versalhes), vindo
a falecer, em Munique, de pneumonia, em 14 de junho de 1920. Sua viúva,
Marianne, publicaria, em 1922, Economia e Sociedade, obra póstuma de
Sociologia em que Max Weber rebate a visão materialista e o determinismo
histórico de Marx, por incompatíveis com a natureza da Ciência histórica
e social, incapaz de prever o futuro, que não é predeterminado, ou seja, o
curso da História não está determinado por antecipação.
7.7.1.1.2 Sociologia Weberiana
Max Weber escreveu diversos artigos, ensaios e opúsculos sobre
sua teoria sociológica, mas seu principal livro sobre o tema, intitulado
Economia e Sociedade, cuja elaboração iniciou em 1909, seria publicado
postumamente, em 1922. Para muitos autores, essa é sua principal obra,
apesar de não ser a mais conhecida.
Sociologia para Weber é a “ciência que pretende entender,
interpretando-a, a ação social para, desta maneira, explicá-la causalmente em
seu desenvolvimento e efeitos”192; é, pois, a Ciência do estudo e da interpretação
da ação social, “a captação da relação de sentido da ação humana”. Assim,
conhecer o fenômeno social é interpretar o sentido da ação ou das ações que
o configuram. Em outras palavras, o indivíduo e suas ações são objetos da
investigação da Sociologia, que pretende compreender e interpretar o sentido
que o ator atribui à sua conduta. A Sociologia deve entender ou compreender
o sentido da ação do indivíduo e não apenas o aspecto exterior de sua ação,
pois nem toda ação é social. A mera entrega de um papel por um indivíduo
a outro não tem significado para um cientista social, se não contiver algum
sentido, como, por exemplo, o de saldar uma dívida, ação que não se esgota
em si mesma por ter inúmeras significações sociais. Weber define, nessa
mesma obra, a ação social como “uma ação em que o sentido indicado por
seu sujeito, ou sujeitos, refere-se à conduta de outros, orientando-se por esta
em seu desenvolvimento”. A Sociologia é, assim, uma ciência da conduta
192 WEBER, Max. Economia e Sociedade.
370
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
humana, que procura compreender como os homens puderam viver em
sociedades diversas, com base em crenças diferentes, ao longo da História, ou
como, segundo a época, obcecados pela salvação ou pelo desenvolvimento
econômico, se dedicaram a esta ou aquela atividade. Não cabe, portanto, à
Ciência ensinar ao Homem como viver ou à Sociedade como se organizar, o
que coloca Weber em oposição a Comte e a Durkheim.
A análise da teoria weberiana pode ter como ponto de partida
sua classificação dos tipos de ação social, em número de quatro: i) ação
racional em relação a um objetivo determinado – é uma ação concreta com
um objetivo específico, como o de um engenheiro que constrói uma ponte,
ou de um general que quer ganhar uma batalha; nesse tipo de ação, o ator
tem muito claro seu objetivo e prepara os meios disponíveis para atingi-lo;
ii) ação racional em relação a um valor – é uma ação baseada na crença
consciente do valor (ético, religioso, estético ou qualquer outra forma)
absoluto de uma determinada conduta, como a de um capitão que afunda
com seu navio; nesse tipo de ação, o ator age racionalmente, consciente
dos riscos; iii) ação afetiva – é a ditada pelo estado de consciência do
indivíduo, é uma reação emocional, como a da mãe que bate no filho por
ter ele agido mal; e iv) a ação tradicional – é a ditada pelo hábito, costumes
e crenças, é uma ação que obedece a reflexos adquiridos pela prática, sem
que o ator necessite conceber um objeto ou valor, nem precisa ser impelido
pela emoção. Weber esclarece não se tratar de uma classificação exaustiva,
mas puros tipos conceituais para fins de investigação sociológica.
Para as Ciências naturais e sociais, o conhecimento é uma conquista
constante, sem fim, pois é sempre possível levar mais longe a investigação
e a análise. Conforme a História avança e renova os sistemas de valor e
as obras do espírito, o historiador e o sociólogo formulam novas questões
sobre os fatos presentes e passados. Não há, portanto, uma História ou
uma Sociologia acabada. A validade universal da Ciência exige, também,
que o cientista seja isento em suas investigações, não contamine a
pesquisa com seus juízos de valor e preconceitos. Weber identifica, então,
três características das Ciências Sociais: compreensiva (entendimento),
histórica e cultural. A compreensão do sentido da ação social não pode
ser realizada pela metodologia aplicada às Ciências naturais, embora
o cientista social não possa prescindir da rigorosa observação do fato a
ser estudado. Não podendo utilizar a técnica da experimentação numa
Ciência histórica, as condutas sociais, de inteligibilidade intrínseca,
são reconstruídas gradualmente pelos sociólogos com base em textos e
documentos, os quais servem de fundamento para a compreensão do fato
social. A característica cultural da Ciência Social estaria evidenciada na
371
CARLOS AUGUSTO DE PROENÇA ROSA
influência que as formas culturais, como a religião, têm na Sociedade,
inclusive sobre sua estrutura econômica.
A diferença entre os dois grupos de Ciências se reflete no tipo de leis
gerais, que, no caso das leis sociais, estabelecem relações causais em termos
de regras de probabilidades, segundo as quais a determinados processos
devem seguir-se, ou ocorrer simultaneamente, outros193. Conforme
explicou o já citado Aron, a elaboração característica das Ciências naturais
consiste em considerar os caracteres gerais dos fenômenos e estabelecer
as relações regulares ou necessárias entre eles. Elas tendem a um sistema
de leis cada vez mais gerais, tanto quanto possível de forma matemática.
O método é dedutivo e o sistema se organiza a partir de leis ou princípios
simples e fundamentais. No caso das Ciências históricas ou da cultura, a
matéria não se insere num sistema de relações matemáticas, mas se aplica
uma seleção à matéria relacionando-a com valores. Todo relato histórico
é uma reconstrução seletiva de ocorrência do passado194. Para tanto, a
Sociologia formula conceito de tipos e uniformidades generalizadas de
processos empíricos.
O sistema de tipos ideais consta da primeira parte da Economia e
Sociedade, com a definição de conceitos como os de capitalismo, feudalismo,
burocracia, democracia, sociedade e sultanismo. O conceito de tipo ideal
é uma conceituação que abstrai de fenômenos concretos o que existe de
particular; o tipo ideal não descreveria um curso concreto de ação, mas
um desenvolvimento normativo ideal, um curso de ação objetivamente
possível. O tipo ideal é um conceito vazio de conteúdo real que depura as
propriedades dos fenômenos reais pela análise para depois reconstruí-los195.
Os tipos ideais cumprem as funções de selecionar a dimensão do objeto que
será analisado e de apresentá-lo de forma pura, despido de suas nuanças
concretas; os tipos ideais permitiriam uma abstração que, segundo Weber,
converteria a realidade em “objeto categorialmente construído”. Assim, os
tipos ideais seriam elaborados “mediante acentuação mental de determinados
elementos da realidade”, relevantes para a pesquisa. As definições exageradas
da realidade, criadas pelo sociólogo-pesquisador, seriam posteriormente
utilizadas num trabalho de comparação com a realidade objetiva, auxiliando
no trabalho de compreensão e de imputação causal realizado pela Sociologia
e pela História. Cada aspecto concreto da realidade empírica poderia ser
compreendido em função de sua maior ou menor distância em relação à
definição do tipo ideal196.
TRAGTENBERG, Maurício. Coleção Os Pensadores – Max Weber.
ARON, Raymond. As Etapas do Pensamento Sociológico.
195 TRAGTENBERG, Maurício. Coleção Os Pensadores – Max Weber.
196 NOGUEIRA, Cláudio. Considerações sobre a Sociologia de Max Weber.
193 194 372
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Aspecto importante a registrar na sociologia weberiana é o de
sua teoria da estratificação social, a partir dos conceitos de “situação de
classe”, entendida como conjunto de probabilidades típicas de provisão
de bens, de posição externa e de sentido pessoal. Tal conjunto deriva,
dentro de uma determinada ordem econômica, da magnitude e da
natureza do poder de disposição de bens e serviços e das maneiras de
sua aplicabilidade para a obtenção de rendas ou receitas, e de “classe”
como todo grupo humano que se encontra numa igual situação de classe.
Classe e situação de classe indicam, apenas, o fato de situações típicas
de interesses iguais, nos quais se encontra o indivíduo juntamente com
muitos outros mais. Weber identificaria três classes: a proprietária, em
que as diferenças de propriedade determinam de um modo primário a
situação de classe; a lucrativa, em que as probabilidades da valorização de
bens e serviços no mercado determinam de modo primário a situação de
classe; e a social, em que a totalidade daquelas situações de classe é fácil
e costuma acontecer de modo típico. As classes proprietárias podem ser
positivamente privilegiadas (os que vivem de renda) e os negativamente
privilegiados (servos, proletários, devedores, pobres). Entre ambas estão
as classes médias, constituídas pelas camadas de toda espécie e incluem
os que possuem propriedades ou qualidades de educação (empresários,
proletário, camponeses, artesãos, empregados). De acordo, ainda, com
Weber, o relacionamento entre as classes proprietárias não conduz
necessariamente à luta de classe. As classes lucrativas positivamente
privilegiadas (comerciantes, industriais, banqueiros, profissionais liberais,
empresários agrícolas) detêm o monopólio da direção da produção no
interesse dos fins lucrativos e a garantia das oportunidades lucrativas
influindo na política econômica. As classes lucrativas negativamente
privilegiadas são os trabalhadores qualificados, semiqualificados e não
qualificados. Entre eles se encontram “classes médias”, formadas por
camponeses, artesãos independentes, funcionários (públicos e privados).
As classes sociais são constituídas pelo proletariado em geral, pela
pequena burguesia e pela “elite intelectual” sem propriedade, e os peritos
profissionais.
7.7.1.1.3 Sociologia Política
Sobre o tema, Weber escreveu vários textos importantes,
devendo-se assinalar, em particular, a Economia e a Sociedade e o ensaio
Política como vocação. Dois conceitos são básicos para Weber, na sua
373
CARLOS AUGUSTO DE PROENÇA ROSA
Sociologia política: dominação e legitimidade. A política é entendida,
genericamente, como qualquer tipo de liderança independente em ação,
e, de forma mais restrita, como liderança exercida pelo Estado, que tem
o monopólio do uso legítimo da força física dentro de seu território.
Para que um Estado exista, é necessário que sua população obedeça à
dominação exercida pelos detentores do poder, os quais devem possuir
uma autoridade legítima reconhecida como tal. Um grau mínimo de
vontade de obediência é essencial a toda relação autêntica de autoridade.
A política se caracteriza, assim, pela dominação exercida por um ou vários
homens sobre outros homens para mandatos específicos. Não consiste,
esclarece Weber, “em toda espécie de probabilidade de exercer ‘poder’ ou
‘influência’ sobre outros homens. Esta dominação pode assentar-se nos
mais diversos motivos de submissão: desde o hábito inconsciente até o
que são considerações puramente racionais segundo fins determinados”.
Nenhuma dominação, escreveu Weber, se contenta, voluntariamente, em
ter como probabilidade de sua persistência motivos puramente materiais,
afetivos ou racionais, segundo valores determinados. Ao contrário, todos
procuram despertar e fomentar a crença em sua “legitimidade”.
Weber distingue três tipos puros de dominação: a racional, a
tradicional e a carismática. A dominação de caráter racional se baseia na
crença da legalidade das ordenações instituídas e dos direitos de mando
dos que exercem a dominação, isto é, a autoridade legal. O exercício dessa
dominação é de ordem impessoal e universalista, e os limites desses poderes
são determinados pelas esferas de competência, defendidas pela própria
ordem. Seu quadro administrativo, hierarquizado e de estrutura burocrática,
é formado por funcionários qualificados profissionalmente, que exercem o
cargo como única ou principal profissão, recebem salário fixo e têm ante
si uma “carreira”. A dominação de caráter tradicional é fundamentada na
crença de que sua legitimidade repousa sobre a santidade de ordenações e
poderes de mando, herdados de tempos longínquos, acreditando-se nela
em virtude dessa santidade. O soberano não é um superior, mas um senhor
pessoal, seu quadro administrativo não é formado por funcionários, mas
por servidores, cuja relação com o soberano é de fidelidade pessoal, não
funcional. A dominação de caráter carismático se baseia no devotamento
fora do cotidiano, justificado pelo caráter sagrado ou pela força heroica de
uma pessoa. O carisma é uma qualidade extraordinária (de profeta, feiticeiro,
caudilho, chefe militar) graças à qual uma personalidade é considerada de
forças sobrenaturais, sobre-humanas ou não acessíveis a qualquer pessoa. A
relação dos seguidores com o líder carismático é do tipo pessoal. O quadro
administrativo não é nenhuma burocracia, não há nomeação, destituição,
374
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
hierarquia e carreira. A pessoa é escolhida e exercerá as funções para as
quais foi determinada, enquanto merecer o apoio do líder carismático.
7.7.1.1.4 Sociologia da Religião
A contribuição sociológica mais célebre de Max Weber, e que lhe daria
fama e prestígio nos meios intelectuais, principalmente protestantes e anglosaxão, seria no campo da chamada Sociologia da religião. Sobre o tema, seriam
escritos A Ética Protestante e o Espírito do Capitalismo (1ª parte em 1904 e a 2ª em
1905), Introdução e Confucionismo e Taoismo, em 1915, Hinduísmo e Budismo, em
1916, e O Judaísmo Antigo, em 1917, que seriam reunidos, posteriormente, em
Sociologia da Religião (três tomos). Um estudo sobre o Islã, projetado por Weber,
não chegou a ser escrito. Deve-se acrescentar que alguns capítulos da obra
Economia e Sociedade tratam, igualmente, da Sociologia da Religião.
Autores alemães anteriores a Weber, como Wilhelm Dilthey
(1833-1911), Ernst Troeltsch (1865-1923) e Werner Sombart, já haviam
tratado da influência das convicções religiosas e concepções éticas na
conduta econômica dos homens e de uma nova mentalidade espiritual
no final da Idade Média europeia, a qual teria sido instrumental para o
surgimento do capitalismo ocidental. No entanto, somente a partir da
contribuição de Weber, por meio de seus trabalhos de cunho histórico e
sociológico, fartamente documentados, é que o tema seria reconhecido
como fundamental para a compreensão da influência das concepções
religiosas no comportamento econômico das diferentes sociedades.
O propósito de Weber com sua obra era demonstrar que a conduta dos
homens nas diversas sociedades só poderia ser compreendida por sua visão
do mundo, a qual é determinada pelos dogmas religiosos e sua interpretação.
Por outro lado, Weber procuraria provar que as concepções religiosas são
uma determinante da conduta econômica do Homem, e, em consequência,
uma das causas das transformações econômicas das sociedades197.
Conforme Weber, houve, em todos os países civilizados (China,
Índia, Babilônia, Egito, Grécia, Roma, Europa medieval) capitalismo e
empreendimentos capitalistas baseados numa racionalização aceitável
das avaliações de capital. Nos tempos modernos, o Ocidente conheceu
outra forma de capitalismo, baseada na organização racional capitalista
do trabalho, associada às particularidades da separação entre a família,
a empresa e a contabilidade racional. O problema central numa história
universal da civilização, do ponto de vista puramente econômico, não
197 ARON, Raymond. As Etapas do Pensamento Sociológico.
375
CARLOS AUGUSTO DE PROENÇA ROSA
será, em última análise, o desenvolvimento da atividade capitalista em si
mesma, diferente de forma segundo as civilizações, mas o desenvolvimento
do “capitalismo de empresa burguês”, com sua organização racional do
trabalho livre, ou seja, o do nascimento da classe burguesa ocidental,
com seus traços distintivos. A burocracia, na definição de Weber, está
presente na empresa burguesa capitalista, por meio da cooperação entre
os indivíduos, em que cada um exerce uma função especializada separada
de sua vida familiar. Nesse sentido, sua definição de capitalismo é o da
empresa trabalhando para a acumulação indefinida de lucro e funcionando
segundo a racionalidade burocrática, pelo que seu desenvolvimento se
deveu em grande parte à acumulação de capital, a partir da Idade Média.
Instaurado o capitalismo, já não haveria necessidade de motivação
metafísica ou moral para que os indivíduos se conformem com lei do
capitalismo; “o capitalismo vitorioso já não tem necessidade desse apoio,
uma vez que se sustenta sobre uma base mecânica”198.
A questão a ser respondida é a de saber como o regime capitalista foi
instituído. A tese de Weber a essa questão é a de que certo protestantismo
(calvinista, batista, puritano, quaker, metodista) teria criado algumas
motivações que teriam favorecido a formação do capitalismo ocidental
(combinação da busca do lucro com a racionalidade do trabalho), isto
é, haveria uma relação causal entre capitalismo e protestantismo, uma
adequação significativa do espírito capitalista e do espírito do protestantismo.
Conforme explica Aron, ajusta-se ao espírito do protestantismo a adoção de
certa atitude em relação à atividade econômica, que é, ela própria, adequada
ao espírito do capitalismo. Há uma afinidade espiritual entre certa visão do
mundo e determinado estilo de atividade econômica199.
Contrário ao misticismo e à idolatria, o protestantismo, que
sustenta a crença na predestinação, propiciaria uma ética pragmática, de
valorização do trabalho, para vencer a angústia pela incerteza da salvação
da alma, e do ganho de dinheiro legal, já que o sucesso econômico seria
uma bênção divina, um sinal dessa escolha de Deus. Ao mesmo tempo, a
ética protestante seria um exemplo do ascetismo que não busca prazeres
materiais ou espirituais, mas simplesmente o cumprimento de um dever
terreno. Assim, a dedicação ao trabalho e o acúmulo de bens materiais
da parte de um indivíduo se explicam pela motivação da salvação de sua
alma, de uma possível demonstração de ter sido escolhido por Deus, e
não por um interesse de qualquer outra ordem, como de uma eventual
recompensa, ou para gozar a vida.
198 199 WEBER, Max. A Ética Protestante e o Espírito do Capitalismo.
ARON, Raymond. As Etapas do Pensamento Sociológico.
376
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A riqueza é condenável eticamente só na medida em que constituir uma
tentação para a vadiagem e para o aproveitamento pecaminoso da vida. Sua
aquisição é má somente quando é feita com o propósito de uma vida posterior
mais feliz e sem preocupações. Mas como empreendimento de um dever
vocacional, ela não é apenas moralmente permissível, como diretamente
recomendada200.
Só o trabalho sem descanso e o êxito econômico dissipam a
dúvida religiosa e dão a certeza da graça. A perda de tempo, escreveu
Weber, é o primeiro e o principal de todos os pecados, daí não ter
valor e ser condenável a contemplação passiva. A falta de vontade de
trabalhar é um sintoma da ausência do estado de graça. A afinidade
espiritual entre a atitude protestante e a atitude capitalista surge,
assim, de acordo com Weber, pois o capitalismo pressupõe que a
maior parte do lucro de um empreendimento não seja consumida,
mas poupada, a fim de ser reinvestida e permitir o desenvolvimento
dos meios de produção. A ética protestante, por sua vez, explica e
justifica esse comportamento, de que não há exemplo nas sociedades
não ocidentais, de busca do lucro máximo para a satisfação de
produzir cada vez mais.
Com o objetivo de comprovar sua tese sobre a influência
religiosa na origem do capitalismo, Max Weber examinaria as condições
históricas de civilizações não ocidentais para estabelecer a razão de não
ter sido possível o surgimento de uma economia capitalista nos moldes
ocidentais. Em seus estudos de Sociologia da Religião sobre as civilizações
da China e da Índia, Max Weber reconhece que não houve o mesmo
conjunto de circunstâncias exatamente iguais nas culturas não ocidentais
e na ocidental, na qual o único fator diferencial fosse a ausência de uma
ética religiosa do tipo da protestante. Weber sustentaria, contudo, por
meio de comparações históricas, a tese de que a ausência do antecedente
religioso, presente no Ocidente, explicaria não se ter desenvolvido nessas
sociedades não ocidentais o regime econômico capitalista. No caso da
China, por exemplo, haveria várias condições necessárias (burocracia)
para o surgimento do capitalismo, mas a ausência da variável religiosa
teria impedido seu desenvolvimento. Quanto à Índia, sua religião
ritualista, cujo tema central é a transmigração das almas, estabeleceria uma
sociedade conservadora, dividida em castas, que desvalorizava o destino
terreno dos indivíduos e acenava, para os desvalidos, com compensação
numa outra vida às injustiças e sofrimentos atuais. Assim, a falta de uma
200 WEBER, Max. A Ética Protestante e o Espírito do Capitalismo.
377
CARLOS AUGUSTO DE PROENÇA ROSA
adequada visão religiosa do mundo teria sido uma das principais causas
de não ter surgido nessas civilizações o capitalismo.
7.7.1.2 Desenvolvimento da Sociologia na Alemanha
Por suas contribuições para a teoria sociológica, e pela qualidade de
seus estudos de campo, Ferdinand Tönnies é, depois de Max Weber, um dos
mais conceituados sociólogos alemães da primeira metade do século XX.
Pertenceu à chamada “escola formalista”, que entende a Sociologia como uma
ciência autônoma, cujo âmbito próprio seriam as relações sociais consideradas
formalmente, abstração feita de todo fator psíquico e de todo conteúdo
cultural e histórico. Tönnies distinguia, ainda, três categorias de Sociologia:
pura, aplicada e empírica. A pura teria como objetivo estabelecer os conceitos
teóricos necessários para interpretar e compreender a sociedade em abstrato; a
aplicada analisaria dedutivamente a dinâmica dos eventos sociais; e a empírica
se basearia no enfoque indutivo para estudar as variáveis das condições sociais.
As sociologias pura, aplicada e empírica deveriam, no entender de Tönnies,
mutuamente se comunicar. Escritor prolífico, de extensa obra publicada, com
sua famosa distinção entre dois tipos básicos de organização social: comunidade e
sociedade. As relações de comunidade adviriam de pequenos grupos cuja união
social se baseia em laços de parentesco, práticas herdadas dos antepassados,
solidariedade e forte sentimento religioso, enquanto as relações da Sociedade,
agrupamento urbano, organizado em Estado e complexa divisão de trabalho,
teriam sua origem na noção de contrato social. Ferdinand Tönnies (1855-1936),
após estudar nas Universidades de Jena, Bonn, Leipzig, Berlim, formou-se
em Tubingen, com doutorado em 1877, sendo, já em 1881, conferencista da
Universidade de Kiel, posição que manteria até 1913 quando seria nomeado
professor, cargo que manteria por três anos. Tönnies voltaria a Kiel em 1921,
como “professor emérito” em Sociologia, mas seria destituído da Universidade
em 1933, por suas convicções antinazistas. Em 1887, escreveu sua importante
obra intitulada Comunidade e Sociedade. Em 1909, foi um dos cofundadores da
Sociedade Alemã de Sociologia. Dentre suas outras obras, caberia citar Opinião
Pública (1922), Estudos e Críticas Sociológicas, em três volumes (1924/26/29);
Introdução à Sociologia (1931); Conceitos Fundamentais de Sociologia (1935). Em sua
homenagem foi fundada, em Kiel, em 1956, a Sociedade Ferdinand Tönnies,
dedicada à pesquisa sociológica201.
O economista e sociólogo Werner Sombart (1863-1941) estudou
Direito e Economia nas Universidades de Pisa, Roma e Berlim, sendo que
201 CUIN, Charles-Henry; GRESLE, François. Histoire de la Sociologie.
378
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
nesta última obteve, em 1888, seu doutorado. Por seu ativismo social e
político de cunho socialista, não conseguiria ensinar nas mais prestigiosas
Universidades alemãs (Heidelberg, Friburgo), mas obteria uma cátedra
na Universidade de Breslau. Em 1902, escreveria sua principal obra,
intitulada O Capitalismo Moderno, completada, em 1928, com o livro O
Alto Capitalismo. Em 1906, aceitaria o cargo de professor da Escola de
Comercio de Berlim, ano em que escreveria Por que não há Socialismo nos
Estados Unidos?. Em 1911, publicaria Os Judeus e o Capitalismo Moderno, em
que ressaltava a contribuição judaica ao surgimento e desenvolvimento
do capitalismo, e, em 1915, A Quintessência do Capitalismo. Sombart
dividiria o desenvolvimento do capitalismo em três etapas: a primeira,
primitiva, abrangeria os séculos XV, XVI e metade do XVII; a segunda,
do alto capitalismo, se estenderia até a Primeira Guerra Mundial; e a
terceira, do capitalismo decadente, correspondente ao período atual,
que só poderia ser salvo pelo planejamento econômico. Em 1917, obteria
Sombart a posição de professor da prestigiosa Universidade de Berlim,
onde ensinaria até 1940. Durante a República de Weimar, passaria a
uma posição crítica do socialismo e dos movimentos de esquerda, vindo
a ser acusado de assumir posições pró-nazistas, por defender governos
autocráticos e intervenção estatal na economia, a fim de debelar as crises
crônicas do sistema capitalista. Nessa fase, escreveu O Socialismo Alemão
(1934) e Uma Nova Filosofia Social (1937).
Georg Simmel (1858-1918) estudou História e Filosofia na
Universidade de Berlim, onde, em 1881, obteve seu doutorado em
Filosofia, e onde permaneceria como conferencista, cuja remuneração
dependia das taxas pagas pelos estudantes. Suas conferências abarcavam
diversas disciplinas (Filosofia, Lógica, História, Sociologia, Psicologia
social). Bastante conhecido nos meios intelectuais da Alemanha e da
Europa, com vários artigos traduzidos para diversas línguas e com seis
livros já publicados, não conseguiria Simmel, contudo, ser aceito, por
preconceito cultural, como professor das principais universidades alemãs.
Com Weber e Tönnies, seria um dos cofundadores da Sociedade Alemã
de Sociologia. Além de Problemas da Filosofia da História e Ciência da Ética,
ambos de 1892-93, e Filosofia do Dinheiro (1900), Simmel é autor, ainda, de
Sobre a Diferenciação Social (1890), Questões Fundamentais de Sociologia (1917)
e Sociologia: Investigações sobre as formas de associação (1918).
Alfred Weber (1868-1958), economista e sociólogo, irmão de Max
Weber, foi professor da Universidade de Heidelberg, de 1907 até 1933,
quando seria destituído por suas críticas ao nazismo. Autor de Teoria
da localização industrial (1909), Ideen zur Staats als Kultursoziologie (1927)
379
CARLOS AUGUSTO DE PROENÇA ROSA
e Kulturgeschichte als Kultursoziologie (1935), Weber é conhecido por sua
contribuição à Geografia moderna com suas análises sobre localização
industrial (custos de transporte e mão de obra, e proximidade de outras
indústrias), e à Sociologia da cultura.
Alfred Vierkandt (1867-1953) estudou nas Universidades de
Leipzig e Brunswick, onde se formou. Foi professor de Sociologia da
Universidade de Berlim (1913) e um dos cofundadores da Sociedade
Alemã de Sociologia.
Robert Michels (1876-1936) estudou na Inglaterra, na Sorbonne,
em Munique, em Leipzig, em Halle e em Turim. Quando professor na
Universidade de Marburg tornou-se socialista ativo, membro do Partido
Social Democrático, do qual se afastaria, contudo, em 1907, vindo,
posteriormente, a aderir ao fascismo. Na Itália, ensinaria, em Turim,
Economia, Ciência Política e Sociologia, transferindo-se, em 1914, para a
Universidade da Basileia como professor de Economia, onde permaneceria
até 1926. De volta à Itália, Michels ensinaria Economia na Universidade
de Perugia. Sua obra mais importante foi Os Partidos Políticos (1911), na
qual descreveu “as leis de ferro da oligarquia” (todas as organizações,
democráticas ou autocráticas, tendem a se desenvolver em oligarquias),
sendo autor, igualmente, de Sindicalismo e Socialismo (1908), Socialismo e
Fascismo na Itália (1925) e Patriotismo (1929).
7.7.1.2.1 Segunda Fase
Em 1923, o milionário Félix Weil (1898-1975), ativista político,
participante de vários movimentos para a implementação do socialismo,
financiaria a fundação, em Frankfurt, do Instituto de Pesquisa Social
(Institut fur Socialforschung), que congregaria um grupo de intelectuais
e sociólogos dedicado à Pesquisa social e ao estudo e análise de questões
sociais, sob uma perspectiva marxista. Seus integrantes seriam bastante
influentes nos EUA, nos anos 30-40, onde foram atuantes nos meios
acadêmicos, e, posteriormente, na Alemanha (anos 50-70). Seu primeiro
diretor, até 1927, foi o economista austríaco Carl Grunberg, professor de
Ciência Política da Universidade de Viena, que contribuiria para o Arquivo
de História do Socialismo e Movimento Operário, publicações de orientação
marxista. O marxista Max Horkheimer, seu segundo diretor, daria grande
impulso aos trabalhos do Instituto, que publicaria muitos de seus escritos
na Revista de Pesquisa Social, que contava, também, com a colaboração,
entre outros, de Benjamin, Lowenthal e Pollock. Por defender ideias
380
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
marxistas, e por vários de seus integrantes serem judeus, o Instituto seria
fechado em 1933, com a ascensão do nacional-socialismo, transferindo--se,
inicialmente, para Genebra, e depois, para Paris, e finalmente, para
Nova York. Vários de seus principais participantes se refugiariam no
exterior (Horkheimer, Adorno, Pollock e Lowenthal trabalhariam nos
EUA durante a Guerra Mundial), mas vários retornariam, mais tarde, à
Alemanha, onde reinstalaram (principalmente Horkheimer e Adorno) o
Instituto. Se as principais teses de Horkheimer e Adorno, nos anos 30,
se relacionavam com a teoria do conhecimento, na década de 40, seus
trabalhos se distanciariam das teses marxistas, como a luta de classes, para
se concentrar na crítica de uma civilização técnica.
Seus mais proeminentes membros nessa fase foram Theodor
Ludwig Adorno (1903-1969), crítico do Iluminismo e da cultura de
massa, e Max Horkheimer (1895-1973), autor, com Adorno, de A Dialética
do Iluminismo (1947) e de Filosofia Burguesa da História (1930), Um Novo
Conceito de Ideologia (1930), Materialismo e Metafísica (1930), Materialismo
e Moral (1933), O Último Ataque à Metafísica (1937) e Teoria Tradicional e
Teoria Crítica (1937). Devem ser também mencionadas as contribuições de
Leo Löwenthal (1900-1993), autor de Sociologia da Literatura (1932 e 1948),
Friedrich Pollock (1894-1970), autor de Tentativas de Economia Planejada na
União Soviética (1929), e Walter Benjamin (1892-1940), que publicou, em
1936, A obra de arte na época da reprodutibilidade técnica. Em 1937, em sua
obra Teoria Tradicional e Teoria Crítica, verdadeiro manifesto do Instituto,
Horkheimer procuraria estabelecer as diferenças essenciais entre o que
denominou de teoria crítica, que está em consonância com o idealismo
alemão, e o que chamou de teoria tradicional, fundamentada no Discurso
do Método, de Descartes. Horkheimer voltaria a tratar do tema em sua
conferência Sobre o Conceito de Razão (1951) e em seu ensaio Filosofia e
Teoria Crítica (1968), no qual retomaria suas críticas ao positivismo, ao
funcionalismo e à metodologia científica de equiparação das Ciências
Naturais às Ciências Sociais, sem se ocupar da origem social dos
problemas202.
Hans Freyer (1887-1969), formado pela Universidade de Leipzig,
em 1911, professor das Universidades de Kiel (1920) e Leipzig (1925), onde
criou o Departamento de Sociologia, que dirigiria até 1948, é considerado
o principal representante da escola de Leipzig, que desenvolveria uma
sociologia com base histórica. Participavam deste grupo, entre outros,
Arnold Gehlen (1904-1976), Gotthard Gunther (1900-1984), Helmut
Schelsky (1912-1984) e Gunther Ipsen (1899-1984). Freyer é autor de
202 HORKHEIMER, Max. Teoria Tradicional e Teoria Crítica.
381
CARLOS AUGUSTO DE PROENÇA ROSA
O Estado (1926), Sociologia como Ciência da Realidade (1929), Einleitung in
die Soziologie (1931), Die Revolution Von Rechts (1931) e Herrschaft und
Planung (1933). Simpatizante do regime nazista, Freyer seria responsável
pelo fechamento da Sociedade Alemã de Sociologia. Após a Guerra,
trabalhou alguns anos numa editora, em Wiesbaden, foi conferencista da
Universidade de Munster (1953/55), e, em 1954, contribuiu para a criação
de um instituto de Sociologia em Ancara.
O húngaro Karl Mannheim (1893-1947), que estudara em
Budapeste, Berlim, Heidelberg e Paris, mantivera estreito contato com
Gyorgy Lukacs. Transferiu-se para a Alemanha, onde seria professor na
Universidade de Heidelberg (1923) e Frankfurt (1930). Nesse período,
escreveria sua mais importante obra, intitulada Ideologia e Utopia (1929),
na qual expôs sua Sociologia do conhecimento, relativa ao estudo das
condições sociais de produção do conhecimento. Com a ascensão do
nazismo, em 1933, emigrou para a Inglaterra, onde, a convite de Harold
Laski, seria, por 10 anos, conferencista da Escola de Economia de Londres
(LSE), sendo nomeado, em 1943, professor de Sociologia da Educação da
Universidade de Londres. Outras obras de Mannheim são O Homem e a
Sociedade na Época de Crises (1935), Diagnóstico de nosso tempo (1943) e a
póstuma Liberdade, Poder e Planejamento Democrático (1951). Mannheim
faleceria aos 53 anos de idade, sendo considerado por muitos como o
último dos fundadores da Sociologia clássica.
A grande contribuição de Mannheim à Sociologia, à Ciência e à
Filosofia seria sua formulação da Sociologia do conhecimento, que, ao
abordar tema considerado do âmbito exclusivo da Filosofia, traria ao
debate questões da maior relevância, ampliando, inclusive, seu campo da
investigação e dando uma dimensão social à formação do conhecimento
em geral e científico, em particular. De acordo com Mannheim, o
conhecimento seria fruto não apenas de fatores puramente teóricos, mas
também de elementos de natureza não teórica, provenientes da vida social
e das influências e vontades a que o indivíduo está sujeito, ou seja, suas
ideias sociais e políticas são inspiradas pela sua situação social. Assim,
cada período histórico seria influenciado por pensamento ou formulações
teóricas tidas como relevantes. Em cada período histórico, tendências
conflitantes, tanto para a conservação da ordem, quanto para sua
transformação, surgiriam em função dos interesses ideológicos, sociais e
políticos dos agentes envolvidos na prática da produção do conhecimento.
A conservação produz ideologias, a transformação utopias. Apesar de
reconhecida sua importância e inovação, a obra de Mannheim não teria
impacto significativo nos meios intelectuais, ainda predominantemente
382
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
favoráveis à epistemologia ou teoria do conhecimento, ramo da Filosofia
que examina a natureza do conhecimento203. A obra de Mannheim voltaria
a ter grande curso nos meios intelectuais a partir dos anos 60, graças à sua
influência na obra de Thomas Kuhn.
Leopold Von Wiese (1876-1969), professor da Universidade de
Colônia (1919), teve como principais obras Sistema de Sociologia Geral
(1924-29) em dois volumes, Sociologia: História e principais problemas (1932),
e Ética na perspectiva do Homem e da Sociedade (1947). Seguindo a mesma
orientação formalista de Simmel e Tönnies, sustentaria Von Wiese que os
homens vivem dentro de uma rede de processos sociais que dão origem às
relações sociais que têm caráter estático, em contraposição ao dinamismo
dos processos sociais, os quais, por sua vez, poderiam ser associativos ou
dissociativos. Em seu esforço analítico e sistemático, e em seu rigor lógico,
chegaria a especificar 650 formas diferentes de relações humanas. Em abril
de 1946, quando a Sociedade Alemã de Sociologia (dissolvida em 1934)
foi restabelecida, Von Wiese seria eleito para sua presidência, cargo que
ocuparia até 1955.
Theodor Geiger (1891-1952) estudou Ciência Política nas
Universidades de Munique (1910/12) e Wurzburg (1912/14). Em 1920,
ingressou no Partido Socialista Social Democrata (SPD). Em 1929, ensinou
Sociologia na Universidade de Brunswick, emigrando, em 1933, com a
subida do nazismo ao poder, para a Dinamarca, onde seria o primeiro
professor de Sociologia (1938-40) na Universidade de Arhus. Com a
invasão da Dinamarca pelas tropas alemãs em 1940, refugiou-se na cidade
de Odense, onde permaneceria até 1943, quando, já com a nacionalidade
dinamarquesa, fugiria para a Suécia, onde daria aulas nas Universidades
de Estocolmo, Lund e Uppsala. Após a Guerra, retornou a Arhus, onde
lecionaria e publicaria Estudos Nórdicos sobre Sociologia (1948/52). Em 1947,
escreveu Estudos preliminares para uma Sociologia do Direito, importante
contribuição, na Alemanha, para esta disciplina, e avançou o conceito de
estratificação social na análise de estruturas sociais.
7.7.1.2.2 Terceira Fase
O desenvolvimento da Sociologia na Alemanha (República
Federal da Alemanha), nessa fase, esteve condicionado à reconstrução de
um país dividido em dois, arrasado pela Guerra, e ocupado, vários anos,
por tropas estrangeiras, num contexto de Guerra Fria e de formação da
203 GIRAUD, Claude. Histoire de la Sociologie.
383
CARLOS AUGUSTO DE PROENÇA ROSA
Comunidade Econômica Europeia. Somente a partir da década de 60 com
a restauração da infraestrutura acadêmica, a normalização das atividades
universitárias e o retorno de intelectuais emigrados (Horkheimer, Adorno,
Pollock, Fromm) ao país, a Sociologia voltaria a ser objeto de estudos
teóricos e pesquisa de campo. Nesse contexto, a reinstalação do Instituto
de Pesquisa Social, conhecido como Escola de Frankfurt, a partir dos anos
60, teria um grande impacto no meio cultural, acadêmico e estudantil
alemão, ocupando posição de relevo na Sociologia desta fase. O Instituto
é, atualmente, dirigido por Axel Honneth (1949), ex-aluno de Habermas.
A convivência com a realidade americana e com sua comunidade
acadêmica teria, necessariamente, grande influência no pensamento
filosófico e sociológico de Theodor Adorno e Max Horkheimer.
Analisando a expansão do cinema e do rádio, bem como a importância da
técnica nesse desenvolvimento, considerariam que ambos não deveriam
ser considerados como arte, mas como negócio e indústria, por se tratar de
meros negócios programados para a exploração de bens culturais. A essa
exploração, dariam o nome de indústria cultural, expressão que usariam
em 1947, em A Dialética do Iluminismo, que substituiria cultura de massa,
que induz ao erro de se tratar de uma cultura surgida espontaneamente
das próprias massas. Segundo Adorno, se a indústria cultural adapta
seus produtos ao consumo de massa, ela igualmente determina o próprio
consumo e exerce seu papel de portadora da ideologia dominante.
Dentre as importantes obras de Adorno, caberia, ainda, citar Personalidade
Autoritária (1950), Minima Moralia (1951), Para a Metacrítica da Teoria do
Conhecimento – Estudos sobre Husserl e as Antinomias Fenomenológicas (1956),
Dialética Negativa (1966), Teoria Estética (1968) e Três Estudos sobre Hegel
(1969). Quanto a Horkheimer, além das obras já mencionadas dos anos
30 e 40, devem ser citadas Eclipse da Razão (1955) sobre o pensamento
ocidental e a barbárie da Segunda Guerra Mundial e Teoria Crítica: Ontem e
Hoje (1970), na qual sustenta que Filosofia e Religião, Teologia e Evolução
devem ser coadjuvantes204.
O mais importante integrante da nova geração da Escola de
Frankfurt seria o filósofo e sociólogo alemão Jurgen Habermas (1929),
que colaborou estreitamente com Adorno e Horkheimer no Instituto de
Pesquisa Social, de 1956 a 1959, e nos anos 70 e 80. Formado em 1954,
pela Universidade de Bonn, seu primeiro ensaio, com repercussão nos
meios intelectuais, seria A Transformação Estrutural da Esfera Pública, de
1962, uma história social do desenvolvimento da esfera pública burguesa
desde o século XVIII até sua transformação pela comunicação de massa,
204 ARANTES, Paulo Eduardo. Coleção Os Pensadores – Benjamin, Habermas, Horkheimer, Adorno.
384
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
influenciada pelo capital. Em 1961, seria professor na Universidade de
Marburg, e publicaria Entre a Filosofia e a Ciência, e em 1962 assumiria
a cátedra de Filosofia em Heidelberg, retornando a Frankfurt em 1964,
por insistência de Adorno, para substituir Horkheimer como professor
de Filosofia e Sociologia. Em 1971, assumiria Habermas o cargo de
diretor do Instituto Max Planck, em Stamberg (perto de Munique), onde
permaneceria até 1983. Nesse período escreveria sua principal obra, Teoria
da Ação Comunicativa (1981), na qual procura restabelecer a relação entre
democracia e socialismo. De retorno a Frankfurt, reassumiria sua cadeira
de professor de Filosofia e Sociologia, e assumiria a direção do Instituto
de Pesquisa Social, aposentando-se em 1994, o que não o impediu de
continuar a proferir conferências e a escrever livros. Além de A Teoria da
Ação Comunicativa, podem ser citados seus livros Teoria e Práxis (1963), Entre
os Fatos e as Normas e Técnica e Ciência como Ideologia (1968). As principais
teses contidas em seus livros e ensaios são de crítica ao cientificismo e
tecnicismo, que reduzem todo o conhecimento ao domínio da técnica e ao
modelo das ciências empíricas, limitando, assim, a razão humana a todo
conhecimento objetivo e prático. Para Habermas, as Ciências Naturais
seguem uma lógica objetiva, enquanto as Ciências Humanas, por serem
a sociedade e a cultura baseadas em símbolos, seguem uma lógica
interpretativa.
Em sua obra A Teoria da Ação Comunicativa, Habermas sustenta que
a comunicação deve ser clara a fim de permitir que a linguagem possa
assumir seu papel de garante da democracia, que pressupõe a compreensão
de interesses mútuos e o alcance de um consenso. A distorção de sua
interpretação impede uma comunicação efetiva, o consenso, e, portanto,
a prática efetiva da democracia. Para tanto, haveria que abandonar o uso
da razão instrumental, ou iluminista, isto é, o uso da razão para conhecer
e dominar a natureza, o que significa confundir conhecimento com
dominação, exploração, poder. A razão se torna, assim, um instrumento
de uma ciência que deixa de ser acesso ao verdadeiro conhecimento
para se limitar a um meio de dominação da natureza e os próprios seres
vivos. É necessária, portanto, uma razão que não seja instrumento de
exploração, mas de democracia, ou seja, a razão comunicativa, a qual,
além de compreender a esfera instrumental de conhecimentos objetivos,
alcança a esfera da interação entre sujeitos. Rompe-se, dessa forma, com a
razão comunicativa, o diálogo baseado em conhecimentos instrumentais
resultantes da relação entre sujeito e um objeto cognoscível (a partir do
qual o consenso, se possível, não seria democrático). Ao mesmo tempo,
se estabelece um diálogo entre sujeitos capazes de compartilhar, pela
385
CARLOS AUGUSTO DE PROENÇA ROSA
linguagem, um universo simbólico comum, e de interagir, criando um
conhecimento crítico fundamentado em argumentação submetida a
critérios de validade, sem ser orientada por domínios rígidos científicos.
As ideias de Habermas teriam grande divulgação no meio
acadêmico nos anos 70 e 80 e amplo apoio nos círculos esquerdistas
alemães.
Outro intelectual, cujo reconhecimento só se daria a partir dos
anos 70, seria o sociólogo Norbert Elias (1897-1990), formado pelas
Universidades de Breslau e Heidelberg, amigo de Karl Mannheim, desde
o início dos anos 30, quando trabalharia, como seu assistente, por algum
tempo, no Instituto de Pesquisa Social. Nessa época, escreveria Sociedade
de Corte, tese que o habilitaria a assumir cátedra na Universidade de
Frankfurt. Com a subida de Hitler ao poder, Elias se exilaria na França,
por dois anos, mas, em 1935, se mudaria para a Inglaterra, onde, devido a
seu pobre conhecimento da língua inglesa, teria limitadas suas atividades
acadêmicas. De 1945 a 1954, Elias daria aulas particulares na London
School of Economics (LSE). Em 1954, assumiria cargo de professor na
Universidade de Leicester, tornando-se, dois anos mais tarde, Professor
de Sociologia, cargo que manteria até 1962. De 1962 a 1964, seria professor
emérito de Sociologia na Universidade de Gana, retornando ao continente
europeu, mais precisamente a Amsterdã, mas se deslocaria a muitos
centros universitários para ministrar cursos e proferir conferências.
Sua mais importante obra, O Processo Civilizador, escrito em alemão,
e publicado na Basileia, em 1939, seria reeditado em 1969, quando o
projetaria no cenário intelectual da Alemanha, mas seria traduzido para
francês somente em 1975, e para o inglês em 1978, o que permitiria maior
divulgação de suas ideias nos principais meios acadêmicos. De 1978 a 1984,
Elias trabalharia no Centro de Pesquisa Interdisciplinária da moderna
Universidade de Bielefeld. Admirador de Marx, Weber e Mannheim, a
obra de Elias inovaria na análise da Sociedade atual e passada, inclusive
com um enfoque original, pelo que não pode ser considerado seguidor
desses sociólogos.
Na Sociedade de Corte (1933), Elias estudaria, tendo como modelo o
reinado de Luiz XIV, a evolução da sociedade europeia, desde os tempos
medievais até o século XVII, e o significado de uma sociedade regulada
pela etiqueta, intriga, linguagem polida, gostos refinados, vestuário
extravagante, boas maneiras, bajulação e ócio, e na qual o cortesão
substituiu o nobre guerreiro de outras épocas. O Processo Civilizador, de
1939, é um estudo ampliado e mais profundo da evolução da civilização
ocidental, em que retoma sua tese da mudança de uma Europa guerreira
386
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
para cortesã, em vista da criação e generalização de controles e tabus
que permitiram sufocar e reprimir os indivíduos. Trata-se, assim, de um
estudo histórico-sociológico no qual examina a contenção individual, as
regras inibidoras, as normas que sociabilizam, os freios que reprimem a
violência particular, temas que escaparam às análises, por exemplo, de
Durkheim e Weber.
Além dessas duas mencionadas obras, caberia citar, ainda, O que
é Sociologia? (1970), Contribuições à Sociologia do Conhecimento (1983), A
Solidão dos Moribundos (1983), Envolvimento e Alienação (1983), Mozart, a
Sociologia de um Gênio, Condição Humana (1985), Sobre o Tempo, A Sociedade
de Indivíduos (1987), A Dinâmica do Ocidente e seu último livro Os Alemães.
Elias escreveu também vários ensaios sobre a Sociologia do esporte, como
A Dinâmica do Esporte de Grupo, em especial o Futebol, Desporte e Ócio no
processo da civilização (com Eric Dunning), Futebol na Inglaterra medieval e
moderna, e Gênese do esporte como um problema sociológico.
Helmut Schelsky (1912-1984), inicialmente um nacional-socialista,
e muito próximo de Hans Freyer, formado em 1939, pela Universidade
de Königsberg, assumiria a cátedra de Sociologia na Universidade
de Estrasburgo em 1944. Em 1953, na Universidade de Hamburgo,
e em 1960, na Universidade de Munster. Em 1970, assumiria a direção
da recém-fundada Universidade de Bielefeld, onde permaneceria por
cerca de três anos, retornando a Munster em 1973. Crítico da Escola de
Frankfurt, escreveu diversos livros sobre sociologia da família, sociologia
da sexualidade, sociologia industrial, sociologia da educação, sociologia
da juventude, como Sobre a estabilidade das instituições (1952), Mudanças na
atual família alemã (1953), Sociologia da sexualidade (1955), O Resultado social
da automação (1957) e Escola e educação na sociedade moderna (1957)
René König (1906-1992), com doutorado em 1930, pela Universidade
de Berlim, por suas convicções políticas contrárias ao nacional-socialismo
não obteria pós-doutorado para ensinar na Alemanha, o que o forçou
a emigrar, em 1937, para a Suíça, onde, no ano seguinte, foi aprovado
no exame na Universidade de Zurique. Em 1949, assumiu a cátedra de
Sociologia da Universidade de Colônia, que ocuparia até o final, recebendo,
em 1974, o título de professor emérito. Muito influenciado pela Sociologia
francesa, em particular por Durkheim, Mauss e Halbwachs, fundaria a
chamada Escola de Colônia. Seria muito ativo na Associação Sociológica
Internacional.
O sociólogo e antropólogo Dieter Claessens (1921-1997), que fora
prisioneiro de Guerra dos russos, ao regressar à Alemanha estudaria
na Universidade Livre de Berlim, onde obteve seu doutorado em 1957.
387
CARLOS AUGUSTO DE PROENÇA ROSA
Com um pós-doutorado em Sociologia, da Universidade de Munster, aí
assumiria a cátedra de Sociologia em 1962, retornando à Universidade
Livre em 1966, onde permaneceria até sua aposentadoria, em 1986.
Claessens é mais conhecido por seus trabalhos sobre a ontogênese e a
filogênese do Homem.
Niklas Luhmann (1927-1998) participou da Guerra por dois anos,
tendo sido feito prisioneiro pelos americanos. Após a Guerra, estudaria
Direito na Universidade de Friburgo, e ingressaria, temporariamente,
no serviço público. Em 1961, estudaria em Harvard, com Talcott
Parsons, influente teórico americano de sistemas sociais. Luhmann
seria conferencista (1962/65) da Universidade Alemã para Ciências
Administrativas, transferindo-se para o Centro de Pesquisa Social
da Universidade de Munster, sob a direção de Helmut Schelsky. Em
1968-69, proferiu conferências na Universidade de Frankfurt, vindo a
ocupar a cadeira de Sociologia da Universidade de Bielefeld até 1993. Já
aposentado, Luhmann completaria o que viria a ser seu livro principal,
intitulado Sociedade da Sociedade (1997). É autor, também, entre outros, de
Sistemas Sociais (1984), Comunicação Ecológica (1986) e Arte como um sistema
social (1995). Crítico da teoria de Parsons, Luhmann formularia o que é
conhecido como a teoria dos sistemas dinâmicos.
Ralf Dahrendorf (1929), sociólogo, cientista político e político alemão,
formado pela Universidade de Hamburgo (1952), prosseguiria seus estudos
na London School of Economics (1953-54), doutorando-se em 1956. Exerceria a
cátedra de Sociologia em Hamburgo (1957-60), Tubingen (1960-64) e Konstanz
(1966-69). Dahrendorf foi membro (1969/70) do Parlamento alemão pelo Partido
Democrático Livre, e Comissário alemão na Comissão Europeia, em Bruxelas,
de 1970 a 1974. Assumiria a direção da LSE (1974-84) e retornaria à Alemanha
para assumir o cargo de professor de Ciência Política na Universidade de
Konstanz (1984-86). Transferiu-se definitivamente para a Inglaterra em 1968,
assumindo a cidadania inglesa em 1988, e de 1987 a 1997 esteve vinculado à
Universidade de Oxford. Seu mais importante livro foi escrito em 1957, com
o título Classes e Luta de Classes na Sociedade Industrial, no qual critica o conceito
de classe, de Marx, baseado na propriedade, para sustentar que a origem das
diferenças de classes estaria no poder, portanto a Sociedade estaria dividida
entre os que recebem ordens e os que “dão ordens”.
7.7.2 A Sociologia na França
A Sociologia pós-Durkheim, na França, pode ser dividida em
388
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
dois períodos: o primeiro, que corresponderia aos anos entre as duas
Grandes Guerras, e o segundo, situado após o segundo conflito, e que
se estenderia até os tempos atuais. O primeiro se caracterizaria pela
continuada presença influente da chamada Escola sociológica francesa,
de Émile Durkheim, nos meios acadêmicos e culturais, e o segundo, pela
reconstrução e criação de instituições de altos estudos e pela retomada
de pesquisas de campo e de estudos teóricos. A perda prematura de
Durkheim e a fragilidade institucional da Sociologia, tanto na pesquisa
quanto no ensino, seriam desastrosas para a Sociologia na França, que
deixaria, inclusive, de ser uma das principais referências mundiais neste
domínio. A deterioração das condições sociais, políticas e econômicas nos
anos 30, e as nefastas consequências do conflito mundial retardariam a
recuperação da Sociologia no país, que só se daria a partir dos anos 60,
com a modernização, criação e expansão dos centros universitários e dos
institutos de Ensino superior e de pesquisa.
7.7.2.1 Primeiro Período
O pensamento sociológico de Émile Durkheim contaria com
a divulgação por meio da revista Année Sociologique, fundada em 1898,
e com uma eficiente e dedicada equipe de cerca de 40 competentes
colaboradores (sociólogos, juristas, economistas, geógrafos). Apesar da
grande perda que significaria a morte de Durkheim, em 1917, o grupo
continuaria a trabalhar segundo a orientação de seu mestre, e a publicar,
semestralmente, sua revista, com ensaios, artigos e crítica bibliográfica.
O trabalho, segundo o tema, estava atribuído a seis seções: a primeira,
Sociologia geral, a cargo de Bouglé; a segunda, Sociologia religiosa, sob a
supervisão de Mauss e Hubert; a terceira, Sociologia Moral e Jurídica, sob
a responsabilidade de Fauconnet; a quarta seção, Sociologia econômica, a
cargo de Simiand e Halbachs; a quinta, Morfologia social, sob a supervisão
direta de Halbachs; e uma sexta seção de Diversos, para tratar de Sociologia
estética, linguagem e tecnologia.
Dos vários colaboradores da revista Année Sociologique, seguem
breves comentários sobre a vida e a obra daqueles mais representativos
do grupo.
Célestin Bouglé (1870-1940), professor de Sociologia na Sorbonne
(1901), diretor da Escola Normal Superior (1935), autor, entre outras
obras, de Les Idées Egalitaires. Étude sociologique (1899), Le Solidarisme
(1907), Qu’est-ce que la Sociologie? (1907), De la Sociologie à l’Action Sociale
389
CARLOS AUGUSTO DE PROENÇA ROSA
(1923), Leçons de Sociologie sur l’évolution des valeurs (1922), Bilan de
la Sociologie Française Actuelle (1935), Inventaires I - La crise sociale et les
idéologies nationales (1936), Inventaires II - L‘Économique et le politique (1937),
Inventaires III – Classes moyennes (1939) e Humanisme, Sociologie, Philosophie:
Remarques sur la conception française de la culture générale (1938). Bouglé, um
dos idealizadores da revista e do círculo mais íntimo de Durkheim, foi
defensor de uma Sociologia baseada numa moral laica e liberal, e como
uma Ciência positiva, na linha de Comte.
Maurice Halbwachs (1877-1945), professor de Sociologia da
Faculdade de Estrasburgo (1919) e da Sorbonne (1935), presidente do
Instituto Francês de Sociologia (1938), eleito para uma cadeira no Colégio
de França (maio de 1944), não chegaria a ocupá-la, pois foi preso pela
Gestapo, em julho, e deportado para Buchenwald, onde morreria. Autor
de muitas obras, caberia citar La classe ouvrière et les niveaux de vie (1913), Les
cadres sociaux de la mémoire (1925), Les causes du suicide (1930), L‘Évolution
des besoins dans les classes ouvrières (1933), Morphologie sociale (1938), e as
póstumas La mémoire collective (1950) e Classes sociales et morphologie (1972).
Marcel Mauss (1872-1950), aluno e sobrinho de Durkheim, fundador
(com Levy-Bruhl e Paul Rivet) do Instituto de Etnologia (1925), e com Jean
Jaurès, do jornal Humanité, incorporou-se, em 1901, à equipe da Année
Sociologique, criou a noção de fato social total (com dimensão econômica,
jurídica e religiosa) e ensinaria na Escola Prática de Altos Estudos “história
das religiões dos povos não civilizados”. Dentre suas obras, devem ser
citadas o Ensaio sobre o Dom (1924), Sociologia e Antropologia e Sociologia:
objeto e método (com Paul Fauconnet).
Henri Hubert (1872-1927), arqueólogo e sociólogo, especialista em
religiões comparadas, professor da Escola do Louvre (1906), é conhecido
por seus estudos sobre os celtas Les Celtes depuis l‘époque de la Tène et la
civilisation celtique (1932), e Les Germains (1952), ambas publicações póstumas.
Colaborou na Année Sociologique, desde 1898, e foi encarregado da seção
Sociologia da Religião, ano de sua nomeação como conservador-adjunto do
Museu de Antiguidades Nacionais, em Saint-Germain-en-Laye. Escreveu
Ensaio sobre o tempo: um curto estudo sobre a representação do tempo na religião
e na mágica, e com Marcel Mauss, Ensaio sobre a natureza e função social do
sacrifício (1899) e Esboço de uma teoria geral da mágica (1904).
Georges Davy (1883-1977), professor de Letras na Faculdade de
Dijon (1922/31) e na Faculdade de Rennes (1931-38), Inspetor-geral de
Instrução Pública (1938-44), professor na Sorbonne (1945-55), que seria
sucedido por Raymond Aron, autor de La foi jurée (1922) e Éléments de
Sociologie appliquée à la morale et à l‘éducation (1924).
390
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Paul Fauconnet (1874-1938), professor da Universidade de
Toulouse (1907), e depois, da Faculdade de Direito de Paris (1921), autor,
em 1920, de La Responsabilité. Com Marcel Mauss escreveu, em 1901, A
Sociologia: objeto e método.
Louis Gernet (1882-1964), filólogo e sociólogo, especialista em
Grécia antiga, obteve seu doutorado em Letras em 1917, com a tese
Recherches sur le développement de la pensée juridique et morale en Grèce.
Escreveria, ainda, Le Génie grec dans la réligion (1932), Anthropologie de la
Grèce Antique. Secretário-geral da revista Année Sociologique de 1949 a 1961,
colaborou com a revista sob rubrica Sociologia Jurídica e Moral. Gernet
colaboraria com Levy-Bruhl na École Pratique des Hautes Études (EPHE),
a partir de 1948, no ensino da Antropologia histórica da Grécia antiga.
Robert Hertz (1882-1915), aluno e amigo de Marcel Mauss, que
coligiria seus escritos e anotações na publicação póstuma Mélange de
Sociologie religieuse et de folklore (1928) e A Preeminência da Mão Direita
(1909). Sua morte prematura seria lamentada por Durkheim.
François Joseph Charles Simiand (1873-1953), sociólogo,
economista e historiador, aluno de Henri Bergson, escreveu, em 1908,
La méthode positive en sciences économiques, no qual expôs seus métodos
de análise dos fenômenos econômicos, Le salaire: l‘évolution sociale et la
monnaie (1932), no qual procurou estabelecer uma teoria sobre salários, na
base das observações estatísticas. Simiand colaborou no jornal L‘Humanité,
criou uma revista, Notas Críticas, e, como historiador, manteve célebre
controvérsia com Charles Segnobos, da linha tradicional.
Paul Huvelin (1873-1924), especialista em Direito romano, professor
de Direito da Universidade de Lyon, dos primeiros colaboradores da
Année Sociologique, particularmente da seção jurídica e moral, participaria
com vários artigos (Histoire du Droit, Magie et Droit Individuel, Les Cohésions
Humaines) para a revista.
Paul Lapie (1869-1927), professor na Faculdade de Letras de
Bordeaux, Rennes e Toulouse, colaborador da Année Sociologique desde sua
fundação, autor de A Lógica da vontade, Pedagogia Francesa (1920), A Escola
e Os Alunos (1923), Moral e Ciência (1923) e Moral e Pedagogia (1927), seria
atuante na área da educação. Diretor do Ensino Elementar do Ministério
de Instrução Pública, Lapie trabalhou na reforma do ensino elementar e
superior e na reorganização das Escolas normais, e foi reitor, em 1925, da
Academia de Paris.
Charles Lalo (1877-1953), especialista em Estética e Arte, com
estudos sob o ponto de vista sociológico, seria o principal integrante da
revista Année Sociologique. Sobre o tema, escreveu Esquisse d‘une esthétique
391
CARLOS AUGUSTO DE PROENÇA ROSA
musicale scientifique (1908), Les Sentiments esthétiques (1910), Programme
d‘une esthétique sociologique (1914) e L‘Art et la vie sociale (1921).
Além dos estudos efetuados pelos seguidores de Durkheim,
as pesquisas de vários sociólogos na França devem ser igualmente
registradas, uma vez que tais contribuições refletem influências de outras
Escolas sociológicas, como a de Frédéric Le Play, e, igualmente, o interesse
pelo tratamento científico de certos temas da atualidade. Seguem curtas
referências da vida e obra de alguns desses sociólogos.
René Worms (1869-1926), professor de Direito em Caen (1897-1902) e do Instituto Comercial de Paris (1902); de Sociologia na Escola
de Altos Estudos Sociais; auditor do Conselho de Estado; fundador da
Revista Internacional de Sociologia (1893), é considerado adepto da Escola
organicista (o organismo como modelo para caracterizar a estrutura, as
funções e a evolução sociais). Worms é autor, entre outros, de Organismo e
Sociedade (1896), Filosofia das Ciências Sociais, em três volumes (1903-07), e
La Sociologie: sa nature, son contenu, ses attaches (1921).
René Maunier (1887-1946), jurista e etnólogo, atuante no Instituto
Internacional de Sociologia, foi autor de L‘Origine et la fonction économique
des villes (1910), Sociologie et Économie Politique (1910), La Localisation des
industries urbaines, Les formes primitives de la ville, Vie Religieuse et Vie
Économique. La division du Travail, Introduction à la Sociologie (1929), Essai
sur les Groupements Sociaux. Na Escola Prática de Altos Estudos (1907-11),
manteve contatos com diversos colaboradores (Mauss, Halbachs) da
revista Année Sociologique e daria curso, a partir de 1925, de Introdução
à Sociologia. Associado a Worms, colaboraria (1907/12) na Revista
Internacional de Sociologia.
Paul Descamps (1873-1946), adepto da Escola de Le Play, autor
dos estudos: As Três Formas Essenciais da Educação e A Educação nas Escolas
Inglesas, e dos livros La Sociologie Expérimentale (1924), L‘Etat social des
peuples sauvages (1930), Le Portugal: La vie sociale actuelle (1935).
Lucien Lévy-Bruhl (1857-1939), professor de Filosofia, de 1879 a 1882,
no Liceu de Poitiers, e de 1882 a 1885 do Liceu de Amiens, doutor em Filosofia,
com a tese A Ideia da Responsabilidade. Professor do Liceu Louis le Grand
(1885/95), foi nomeado diretor de estudos da Sorbonne em 1900, assumindo,
em 1902, a cadeira de História da Filosofia. Sob a influência do pensamento
sociológico de Durkheim, procurou elaborar uma ciência dos costumes, em
que a moral, relativa, seria determinada pelas épocas históricas. Para tanto,
estudou as sociedades primitivas. De suas obras, podem ser selecionadas: A
Filosofia de Augusto Comte (1900), A Moral e a ciência dos costumes (1903), As
Funções mentais nas sociedades inferiores (1910), A Mentalidade Primitiva (1922),
392
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
A Alma primitiva (1927), O Sobrenatural e a mentalidade primitiva (1931) e A
Experiência mística e os símbolos entre os primitivos (1938).
Albert Bayet (1880-1961), professor na Sorbonne, defensor e
propagandista do movimento laico na França, autor de La Morale Laïque
et ses Adversaires (1925) e La Science des faits moraux (1925). Após a Guerra,
Bayet contribuiria para a criação de centros de estudos, tornando-se
professor da recém-criada Escola Prática de Altos Estudos (EPHE), e
escreveria Laïcité aux XXème siècle (1958). Uma rua no XIII arrondissement de
Paris tem seu nome.
Jean Stoetzel (1910-1987), professor em Bordeaux, introdutor, na
França, do método de aferição de sondagem de opinião, fundador do
Instituto Francês de Opinião Pública e da Revista Sondage, escreveria
sobre o assunto Théorie des Opinions (1943).
Georges Gurvitch (1894-1965), nascido na Rússia, e naturalizado
francês em 1928, especialista em Sociologia do conhecimento, bastante
atuante e muito influente no Pós-Guerra, escreveu, neste primeiro período,
Essais de Sociologie (1938), Éléments de Sociologie Juridique (1940), e Sociologia
do Direito (1942).
7.7.2.2 Segundo Período
Diante de uma nova realidade social e política de uma França
Pós-Guerra, a tarefa prioritária seria identificar e remover os obstáculos
sociais a seu crescimento e à sua modernização, de forma a permitir a
reconstrução da Sociologia francesa, por meio da criação de uma nova
estrutura de ensino e pesquisa e do início da edificação institucional
que permitisse e favorecesse seu desenvolvimento. Os primeiros anos
deste período seriam dedicados a essa obra de reconstrução: em 1945,
foram criados o Instituto Nacional de Estudos Demográficos (INED) e
a Fundação Nacional de Ciências Políticas (FNSP). Em 1946, o Instituto
Nacional de Estatística e de Estudos Econômicos (INSEE), e, em 1947, a
sexta seção (Ciências Econômicas e Sociais) da Escola Prática de Altos
Estudos (EPHE). Na mesma época, seriam fundados, por Jean Stoetzel,
o Instituto Francês de Opinião Pública (IFOP); por Georges Gurvitch, em
1946, o Centro de Estudos Sociológicos (CES), anexo ao Centro Nacional
de Pesquisa Científica (CNRS), criado pouco antes da Guerra, e lançada a
revista Cahiers Internationaux de Sociologie (1946); e por Georges Friedmann,
o Instituto de Ciências Sociais do Trabalho (ISST), em 1953205. Ainda nos
205 CUIN, Charles-Henry; GRESLE, François. Histoire de la Sociologie.
393
CARLOS AUGUSTO DE PROENÇA ROSA
anos 50, além da cooperação da UNESCO, contariam os centros de estudo
de Sociologia com o financiamento de instituições francesa (Renault) e
americanas (Ford, Kodak, Rockefeller), o que lhes permitiria assegurar
condições de estudos e pesquisa. Numerosos estudantes franceses do CES,
sob direção de Friedmann, seriam contemplados com bolsas de estudos para
cursos nos EUA (Crozier, Boudon, Mendras). Nessa fase de reconstrução,
contundentes críticas à influência americana e à pretensão da Sociologia
de se emancipar da Filosofia e da História, por parte de importantes e
significativos segmentos dos meios acadêmicos, conturbariam o ambiente
universitário e seriam um óbice para o desenvolvimento das pesquisas.
Nesse sentido, os estudos mais representativos seriam do domínio do
trabalho, como Problèmes humains du machinisme industriel, de Georges
Friedmann (1947), Les Syndicats en France, de J. D. Reynaud, L’Évolution du
travail ouvrier aux usines Renault, de Alain Touraine (1955), e da religião,
como Études de Sociologie religieuse, de Gustave Le Bras (1955).
Uma nova etapa se abriria, a partir do final dos anos 50, com a
maior participação do Estado no processo de reconstrução e a iniciativa
de algumas personalidades. Em 1958, graças aos esforços do sociólogo
Raymond Aron, seria instituído o doutorado de Sociologia nas novas
Faculdades de Letras e Ciências Sociais. Três publicações científicas
seriam lançadas: em 1959, a revista Sociologia do Trabalho (Friedmann,
Stoetzel), e, em 1960, a Revista Francesa de Sociologia (Stoetzel) e Arquivos
Europeus de Sociologia (Aron, de Dampierre). Em 1962, seria fundada a
Sociedade Francesa de Sociologia (depois Instituto Francês de Sociologia).
Adicionalmente, pode ser citada, ainda, a criação de institutos de pesquisa,
como o Laboratório de Sociologia Industrial (1958), por Alain Touraine, o
Centro de Sociologia Europeia (1959), por Raymond Aron, e o Grupo de
Sociologia das Organizações (1966), por Michel Crozier. Em 1968, já havia
26 centros de pesquisa, com 582 pesquisadores e auxiliares.
A exemplo do que ocorreria em outros países, a profissionalização
do sociólogo e o crescente e continuado interesse público e privado
nas pesquisas de campo seriam um incentivo à expansão da atividade
sociológica, a qual se transformaria, em muitos casos, num instrumento
de exame de problemas sociais, segundo a ótica dos interesses dos agentes
financiadores das pesquisas. Sociologia do trabalho, Sociologia das
organizações e Sociologia urbana seriam as áreas mais estudadas, em vista
das questões sociais mais prementes da sociedade francesa no período.
Além de Albert Bayet, autor de Laïcité au XXème siècle e de Georges
Gurvitch (1894-1965), sociólogo importante no Pós-Guerra, quando
dirigiria o Centro de Estudos Sociológicos, embrião da sexta seção
394
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
da Escola Prática de Altos Estudos (EPHE), depois chamada de Escola
de Altos Estudos Sociais (EHES), e escreveria La vocation actuelle de la
Sociologie (1950), Le concept de classes sociales de Marx à nos jours (1954),
Determinismes sociaux et liberté humaine (1955), Dialectique et Sociologie
(1962) e Traité de Sociologie (1960), outro importante sociólogo no processo
de institucionalização da Sociologia na França foi Georges Friedmann.
Georges Friedmann (1902-1977), um dos iniciadores da Sociologia
do trabalho na França com sua tese (1947) Problemas Humanos do
Maquinismo Industrial, dedicou a maior parte de seus estudos ao exame
das relações trabalhistas e do homem com a máquina na Sociedade
industrial. Ingressou na Escola Normal Superior em 1921. Nos anos
30, estudou russo e visitou (1932 e 1936) a URSS, e durante a Guerra,
participou da resistência aos invasores. Intelectual marxista, mas
crítico do stalinismo, demonstraria sua decepção e suas críticas à União
Soviética em La Sainte Russie à l’URSS (1938). Teve importante papel
na institucionalização da Sociologia na França, dirigindo o Centro de
Estudos Sociológicos, criado por Gurvitch. Fundou, em 1953, o Institut
des Sciences Sociales du Travail, e, em 1955, a Revue Sociologie du Travail.
Friedmann é autor, entre outros livros, de Crise du Progrès (1936), Où Va
le Travail Humain? (1950), Villes et Campagne (1953), Le Travail en miettes
(1956), Traité de Sociologie, Traité de Sociologie du Travail (em colaboração
com Pierre Naville, 1961-62), Sete Estudos sobre o Homem e a Técnica (1966)
e La Puissance et la Sagesse (1970).
Maurice Duverger (1917), professor da Faculdade de Direito e
Ciências Econômicas de Paris, em seus estudos sociológicos procurou
inserir os problemas jurídicos no processo político e social. Assim, estudou
temas políticos, como os partidos, as constituições, os regimes políticos.
Escreveu Les Partis Politiques (1951), Méthodes de la Science Politique (1959),
De la dictadur (1961), Introduction à la Politique (1964), Les Regimes Politiques
e Les Constitutions de la France.
Roger Bastide (1898-1974) estudou no Liceu de Nîmes de 1908 a
1915, mas os estudos seriam interrompidos por seu ingresso no exército,
no qual atuou como telegrafista durante a Guerra. Em 1919, concluiu os
estudos para a Escola Normal Superior e obteve bolsa da Universidade
de Bordeaux, onde seguiria o curso de Sociologia, de Gaston Richard. Em
1921, escreveria seu primeiro artigo: Patronat social et christianisme social.
Permaneceria anos como professor de liceus: Clamec, Cahors, Lorient e
Valence, período em que escreveu Mysticisme et Sociologie e Les Problèmes
de la vie mystique, ambos de 1931, e Éléments de sociologie religieuse. Em 1937,
ensinaria em Versailles, quando escreveu Les équilibres socio-religieuses.
395
CARLOS AUGUSTO DE PROENÇA ROSA
Convidado para substituir Lévy-Strauss, ocuparia a cadeira de Sociologia
na recém-criada Universidade de São Paulo, onde ensinaria desde o início
do ano letivo de 1938 até final de 1951. De 1952 a 1954 voltaria ao Brasil
para cursos e conferências. Sobre a cultura brasileira, Bastide escreveu
um grande número de artigos e livros, como O Candomblé da Bahia, As
religiões africanas no Brasil e As Américas negras: as civilizações africanas no
Novo Mundo.
Claude Lévy-Strauss (1908-2009), belga de nascimento, estudou
Direito e Filosofia na Sorbonne. Em 1935, aceitou o convite para integrar
missão cultural francesa, na qual serviria como professor-visitante da
Universidade de São Paulo. Lévy-Strauss permaneceria no Brasil quatro
anos, visitaria a Amazônia e o Pantanal, e estudaria algumas tribos
indígenas, o que seria determinante para sua resolução de se dedicar à
Antropologia. De regresso à França, em 1938, permaneceria no país até
o armistício, viajando para os EUA (1940-44), quando se familiarizaria
com a Antropologia americana, por meio de Roman Jakobson, Franz
Boas e outros antropólogos americanos. Em 1948, recebeu o doutorado da
Sorbonne, com suas teses As Estruturas Elementares do Parentesco e A Vida
familiar e social dos índios Nambikwara. Professor de Antropologia social do
Collège de France (1959/82), é considerado o fundador da Antropologia
estrutural ao introduzir o método estruturalista na Antropologia, isto
é, descobrir as estruturas que sustentam os valores e costumes de uma
sociedade, os quais explicam as semelhanças e as diferenças entre as
culturas, sendo autor de Les Structures élémentaires de la parenté (1949), Race
et Histoire (1952), Anthropologie structurale (1958), Le Totemisme aujourd’hui
(1962) e Anthropologie structurale deux (1973). Os estudos relacionados
diretamente com sua experiência no Brasil são A Vida familiar e social dos
índios Nambikwara, Tristes Tropiques (1955), La Pensée sauvage (1962), Le Cru
et le Cuit (1964), Du Miel aux Cendres (1966), L’ Origine des manières à la table
(1968) e L’ Homme Nu (1971), nos quais procura retratar uma sociedade
sem o romantismo e a exaltação que caracterizaram pesquisadores e
viajantes do passado.
Raymond Aron (1905-1983), após terminar seus estudos no
Liceu Condorcet, ingressou na Escola Normal Superior, onde estudaria
(1924/28) Filosofia, concluindo seu doutorado. Prosseguiria, de 1930
a 1933, seus estudos na Alemanha (Colônia e Berlim) e permaneceria
em Paris até o início da Grande Guerra. De volta à França, lecionou na
Escola Nacional de Administração (1945-47) e no Instituto de Estudos
Políticos de Paris (1948-54). De 1955 a 1968, foi professor de Sociologia da
Sorbonne. De 1960 a 1983, diretor de estudos da Escola Prática de Altos
396
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
Estudos (EPHE). E, a partir de 1970, professor do Colégio da França. Aron
é autor de Introduction à la Philosophie de l’Histoire (1938), Les Guerres en
chaine (1951), L’ Opium des Intelectuels (1955), de crítica ao totalitarismo
dos regimes marxistas, La Tragédie Algérienne (1957), em defesa da
independência da Argélia, Dix-Huit Leçons sur la Société Industrielle (1962),
Paix et guerre entre les nations (1962), La Lutte de Classes, Nouvelles Leçons
sur les Societés Industrielles (1964), Démocratie et Totalitarisme (1965), Trois
Essais sur l’âge industriel (1966), As Etapas do Pensamento Sociológico (1967) e
Republique Impériale: Les États Unis dans le Monde 1945-1972 (1973), contra
as críticas da esquerda francesa aos EUA.
Pierre Naville (1904-1993), sociólogo engajado politicamente
na linha trotskista, que abandonaria antes da Guerra, procuraria criar,
na França, uma esquerda marxista, sem os desvios stalinistas, com
a criação do Partido Socialista Unificado. No campo da Sociologia,
escreveu bastante sobre a área do trabalho e das relações laborais.
Dentre suas obras sociológicas, caberia mencionar La Vie de Travail et ses
problèmes (1954), Essai sur la qualification du travail (1956), L’Automaion
et le travail humain (1961), Traité de Sociologie du Travail (1961/62), Vers
l’automatisme social (1963), Sociologie d’aujourd’hui (1981) e La maîtrise du
travail (1984).
Jean Cazeneuve (1915-2005), pesquisador do Centro Nacional de
Pesquisa Científica (CNRS), de 1959 a 1966, professor de Sociologia da
Sorbonne (1966), membro da Academia de Ciências Morais e Políticas,
primeiro presidente da ORTF (1964-74) e da TF1 de 1974 a 1978, integrante
do Centro de Estudos Diplomáticos e Estratégicos, do qual foi Presidente,
autor de L’Avenir de la morale (1998), Sociologie de la radiotélévision (1963),
Du Calembour, du mot d’esprit (1996), La Sociologie (1970), Les Pouvoirs de la
télévision (1970), Sociologie du rite (1971), Dix grands notions de la Sociologie
(1976), Les Communications de masse (1976) e La Personne et la Société (1995).
Paul-Henri Chombart de Lauwe (1913-1998), conhecido por sua
Sociologia urbana e da vida quotidiana, formulou a chamada teoria da
aspiração coletiva, e é autor de Paris et l’agglomération parisienne (1952),
La Vie Quotidienne des Familles Ouvrières (1963), La Femme dans la Société
(1963), Pour une Sociologie d’Aspirations (1969), Aspirations et Transformations
Sociales (1970), Des Hommes et des Villes (1970), Transformations Sociales et
Dynamique Culturelle (1981).
Julien Freund (1921) obteve seu doutorado na Sorbonne, em 1965,
no que foi escolhido para professor de Sociologia na Universidade de
Estrasburgo, onde assumiria depois da Faculdade de Ciências Sociais.
Freund ensinaria de 1973 a 1975 no Collège d’Europe, em Bruges, e
397
CARLOS AUGUSTO DE PROENÇA ROSA
contribuiria para a revista de extrema-direita Nationalisme et République.
Sua obra está influenciada principalmente pelo pensamento de Weber e
Pareto, tendo escrito sobre esses sociólogos: La Sociologie de Max Weber
(1966), que fez muito sucesso e foi traduzido para o inglês, Max Weber
(1969), Pareto: la théorie de l’ équilibre (1974), e Études sur Max Weber (1990).
Escreveu, ainda, entre outro livros, Utopie et Violence (1978), Philosophie et
Sociologie (1984) e D’ Auguste Comte à Max Weber (1992).
Michel Crozier (1922), doutor em Direito, em 1949, professor de
Sociologia na Universidade de Paris X – Nanterre (1967-68), estágios na
Universidade de Stanford (1959-60 e 1973-74), membro da Academia de
Ciências Morais e Políticas, fundador, em 1961, do Centro de Sociologia das
Organizações (transformado, em 1976, em laboratório do Centro Nacional
de Pesquisa Social – CNRS), formulador, com Erhard Friedberg, da análise
de estratégia em Sociologia das Organizações (aplicação da Sociologia ao
estudo das organizações). Crozier é autor de Petits fonctionnaires au travail
(1955), Le Phénomène bureaucratique (1963), Le Monde des employés de bureau
(1965), La Société bloquée (1971), L’Acteur et le système (1977, em colaboração
com Erhard Friedberg), Le Mal américain (1980), État modeste, état moderne,
Stratégies pour un autre changement (1986), L’Entreprise à l’écoute (1989),
La Crise de l’intelligence (1995) e A quoi sert la Sociologie des Organisations?
(2000).
Jean Daniel Reynaud (1926) ingressaria como pesquisador no
Centro Nacional de Pesquisa Científica (CNRS) em 1950, trabalhando no
Centro de Estudos Sociológicos, dirigido por Georges Friedmann, sob
a influência metodológica americana. Em 1944, fundaria, com Crozier
e Touraine, a revista Sociologie du Travail. Professor de Sociologia do
trabalho, Reynaud, particularmente interessado na análise do processo
de barganha e de resolução de conflito nas relações industriais,
elaboraria, nos anos 70-80, sua teoria da regulação social, sobre a
criação e transformação das regras sociais por meio da ação coletiva,
isto é, como as regras podem permitir a um grupo social se estruturar e
preparar uma ação coletiva. Les Syndicats en France (1963/75), Tendances
et volontés de la societé française (1966), Les Syndicats, les patrons et l’État
(1978), Sociologie des conflits du travail (1982), Les Règles du Jeu. L’action
collective et la régulation sociale (1989) são algumas de suas obras mais
conhecidas.
Pierre Bourdieu (1930-2002), professor de Filosofia, Diretor da
Escola de Altos Estudos Sociais (1964-80), diretor da revista Actes de la
Recherche en Sciences Sociales, catedrático de Sociologia no Collège de France
(1981), fundaria, em 1996, editora para a divulgação de livros de críticas
398
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
ao neoliberalismo. Com grande influência no meio intelectual e estudantil,
Bourdieu analisaria, em suas obras, os mecanismos de reprodução das
hierarquias sociais, em que reconhece a importância dos fatores culturais e
simbólicos. Crítico da teoria marxista do primado dos fatores econômicos,
aplicaria sua Teoria dos campos sociais aos diversos setores da sociedade,
como Arte, Banca, Igreja, Patronato. Três conceitos básicos de sua obra: poder
simbólico (mecanismo para a imposição da dominação), campo (espaço da
competição social) e habitus (princípio da ação dos atores). Bourdieu é autor
de Les Héritiers (1964), La Reproduction (1970) com Jean-Claude Passeron, de
crítica ao sistema de ensino superior francês, La Distinction, Critique sociale
du jugement (1979), considerada sua obra principal, Le Sens Pratique (1980),
La Noblesse d’État (1989), Langage et Pouvoir Simbolique (1989), La Misère du
Monde (1992), de denúncia da desigualdade social, Les Règles de l’ Art (1992)
sobre o contexto social do autor e La Domination Masculine (1998).
Raymond Boudon (1934), professor da Sorbonne (2002), diretor
do Grupo de Estudos dos Métodos de Análise Sociológica (GEMAS),
membro do Instituto de França (1990) e do recém-criado Alto Conselho
da Ciência e da Tecnologia (2006). Nos anos 60, nos EUA, colaboraria
com Paul Lazarsfeld. Influenciado pelas correntes teóricas da sociologia
americana, de análise quantitativa, publicaria, em 1967, sua tese A Análise
Matemática dos Fatos Sociais. Outras obras: À quoi sert la notion de structure?
(1968), La Méthode en Sociologie (1969), Les Mathématiques en Sociologie
(1971), L’Inégalité des Chances (1973), La Mobilité sociale dans les sociétés
industrielles (1973), Effets Pervers et Ordre Social (1977), La Logique du Social
(1979), Dictionnaire Critique de la Sociologie (1982) com François Bourricaud,
La Place du desordres, Critique des théories du changement social (1984),
L’Idéologie (1986), Le Juste et le Vrai (1995) e Le Sens des Valeurs (1999).
Jean Baudrillard (1929-2007), intelectual, participante do
movimento estudantil de maio de 1968, ficou conhecido por suas
críticas à sociedade de consumo em seus estudos sobre o impacto da
comunicação e da mídia na sociedade e nas culturas contemporâneas,
bem como do desenvolvimento da tecnologia. Professor de Sociologia
em Nanterre (1968), sustentaria que produtos, tecnologia e mídia criam
um universo de ilusão e fantasia, no qual os indivíduos são dominados
por valores do consumidor, ideologias da mídia e tecnologias
sedutoras. Baudrillard é autor de Le Système des objets (1968), La Société
de consommation (1970), Le Miroir de la production (1973), La Consommation
des signes (1976), À l’Ombre des majorités silencieuses (1978), Simulacre
et simulation (1981), La Guerre du golf n’a pas eu lieu (1991), La Pensée
radicale (1994).
399
CARLOS AUGUSTO DE PROENÇA ROSA
Henri Mendras (1927-2003), fundador da Sociologia rural na
França, ingressou, em 1949, no Centro de Estudos Sociológicos. Bolsista
na Universidade de Chicago, se entusiasmou com o Ensino superior
americano e com a metodologia sociológica. De regresso à França, retornou
ao CES e escreveu Éléments de Sociologie (1967). Ainda em 1967, escreveu La
Fin des Paysans, no qual acentuou futuros aspectos negativos do fenômeno
tecnológico e econômico, e esboçou quadro negativo sobre a realidade da
sociedade camponesa ocidental. A partir de 1980, se dedicaria mais ao
estudo da sociedade global europeia, e, em 1988, escreveria La Seconde
révolution française 1965-1984.
Alain Touraine (1925) permaneceria nos anos 1952-53 nos EUA
(Universidades de Harvard, Nova York e Chicago) como bolsista da
Fundação Rockefeller. Touraine criou o Fundo de Pesquisa para a Sociologia
do trabalho, da Universidade do Chile (1956), e, em 1958, o atual Centro para
o Estudo de Movimentos Sociais. Em 1960, ingressou como pesquisador
da Escola de Altos Estudos em Ciências Sociais. Dos mais influentes
sociólogos franceses da segunda metade do século XX, Touraine, numa
primeira etapa, dedicou-se à Sociologia do trabalho, na base de pesquisas
de campo na América Latina, seguindo-se estudos sobre os acontecimentos
de maio de 1968 nas universidades francesas, golpes militares em diversos
países latino-americanos e o movimento de solidariedade na Polônia; numa
terceira etapa, a estudos sobre os movimentos sociais. Seus trabalhos se
baseiam na sociologia da ação, que sustenta a sociedade evoluir por meio de
mecanismos estruturais e suas próprias lutas sociais. Suas mais conhecidas
obras são: L’Évolution du travail aux Usines Renault (1955), Sociologie de l’Action
(1965), La Conscience Ouvrière (1966), La Société Post-Industrielle (1969),
Production de la Société (1973), Pour la Sociologie (1974), Lutte étudiante (1978),
La Voix et le Regard (1981), em que desenvolveu seu método de pesquisa de
intervenção sociológica, Le Mouvement ouvrier (1984), Le Retour de l’ Acteur:
Essai de Sociologie (1984), Solidarité: Analyse d’ un mouvement social (1993),
Comment sortir du libéralisme? e Un nouveau paradigme: Pour comprendre le
monde d’aujourd’hui.
Henri Lefebvre (1901-1991), membro do Partido Comunista Francês
(1928-58), participou da resistência francesa durante a Segunda Guerra
Mundial. Em 1961, assumiu a cátedra de Sociologia da Universidade de
Estrasburgo, e, em 1965, a da Faculdade de Nanterre. Dentre suas diversas
obras, caberia ressaltar Critique de la vie quotidienne. Fondements d’une
Sociologie de la quotidianneté (1961), La vallée de Campan – étude de Sociologie
Rurale (1963), Sociologie de Marx (1968), Le Droit à la ville (1968), La Révolution
urbain (1970), The Survival of Capitalism (1973) e La Production de Space
400
A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO
(1974), sendo estas duas últimas as mais representativas do pensamento
de Lefebvre. Em suas obras, tratou das questões da vida quotidiana, dos
problemas urbanos e da urbanização da sociedade.
Michel Foucault (1926-1984), licenciado em Filosofia (1948) e em
Psicologia (1949) pela Sorbonne. Das suas obras com dimensão sociológica,
em que aborda o tema do poder, podem ser citadas A História da Loucura
(1981), As Palavras e as Coisas (1966), A Arqueologia do Saber (1969), A
Sociedade Punitiva (1972), Vigiar e Punir (1975) e Do Governo dos vivos (1979).
Nicos Poulantzas (1936-1979), grego de nascimento, membro do
Partido Comunista Grego, exilou-se na França em 1960, onde lecionaria,
até sua trágica morte (suicídio). Escreveu Lógica dialética e Lógica
moderna (1966), Fascismo e Ditadura (1971), As classes sociais no capitalismo
contemporâneo (1974), A Crise da Ditadura (1975) e Estado, Poder e Socialismo
(1978).
Renaud Sainsaulieu (1935-2002
Download

história da ciência