História da Ciência Volume III A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo Carlos Augusto de Proença Rosa 2ª Edição Fundação Alexandre de Gusmão O autor argumenta que uma nova era científica teve início no século XX com o definitivo triunfo do espírito científico no meio intelectual sobre quaisquer outras considerações. A Ciência, agora de âmbito mundial, totalmente laica e positiva, tem reconhecida sua função social. Na era do Conhecimento, a Ciência contemporânea passa a se caracterizar, por sua crescente complexidade teórica e experimental, além dos altos custos envolvidos, como uma atividade de grupo, empenhado num trabalho de criação coletiva, na qual a obra pessoal e solitária do cientista individual tende a ser substituída pelo trabalho solidário de um grupo de pesquisadores. As instituições científicas, com apoio público e privado, adquiririam posição de relevo na Sociedade. Todos os ramos da Ciência fundamental evoluiriam a um ritmo acelerado com inovações teóricas que colocam a Ciência contemporânea num patamar imprevisto no século anterior. A incessante busca do Homem por um maior e melhor conhecimento dos fenômenos naturais e sociais assegura, como afirma o autor, o continuado progresso dos diversos ramos da Ciência. HISTÓRIA DA CIÊNCIA A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo Volume III Ministério das Relações Exteriores Ministro de Estado Embaixador Antonio de Aguiar Patriota Secretário-Geral Embaixador Ruy Nunes Pinto Nogueira Fundação Alexandre de Gusmão Presidente Embaixador José Vicente de Sá Pimentel Instituto de Pesquisa de Relações Internacionais Centro de História e Documentação Diplomática Diretor Embaixador Maurício E. Cortes Costa A Fundação Alexandre de Gusmão, instituída em 1971, é uma fundação pública vinculada ao Ministério das Relações Exteriores e tem a finalidade de levar à sociedade civil informações sobre a realidade internacional e sobre aspectos da pauta diplomática brasileira. Sua missão é promover a sensibilização da opinião pública nacional para os temas de relações internacionais e para a política externa brasileira. Ministério das Relações Exteriores Esplanada dos Ministérios, Bloco H Anexo II, Térreo, Sala 1 70170-900 Brasília, DF Telefones: (61) 2030-6033/6034 Fax: (61) 2030-9125 Site: www.funag.gov.br Carlos Augusto de Proença Rosa HISTÓRIA DA CIÊNCIA A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo Volume III 2ª Edição Brasília, 2012 Direitos de publicação reservados à Fundação Alexandre de Gusmão Ministério das Relações Exteriores Esplanada dos Ministérios, Bloco H Anexo II, Térreo 70170-900 Brasília – DF Telefones: (61) 2030-6033/6034 Fax: (61) 2030-9125 Site: www.funag.gov.br E-mail: [email protected] Equipe Técnica: Eliane Miranda Paiva Fernanda Antunes Siqueira Fernanda Leal Wanderley Gabriela Del Rio de Rezende Jessé Nóbrega Cardoso Rafael Ramos da Luz Wellington Solon de Souza Lima de Araújo Capa: Rafael Sanzio, A Escola de Atenas Programação Visual e Diagramação: Gráfica e Editora Ideal Impresso no Brasil 2012 R788 ROSA, Carlos Augusto de Proença. História da ciência : a ciência e o triunfo do pensamento científico no mundo contemporâneo / Carlos Augusto de Proença. ─ 2. ed. ─ Brasília : FUNAG, 2012. 3 v. em 4; 23 cm. Conteúdo: v.1. Introdução geral; Tempos pré-históricos. ─ v.2. A ciência moderna. ─ v.3. A ciência e o triunfo do pensamento científico no mundo contemporâneo. Inclui bibliografia. ISBN: 978-85-7631-396-0 1. Pensamento científico. 2. Matemática. 3. Astronomia. 4. Física. 5. Química. 6. Biologia. 7. Sociologia. I. Fundação Alexandre de Gusmão. CDU: 930.85 Ficha catalográfica elaborada pela bibliotecária Talita Daemon James – CRB-7/6078 Depósito Legal na Fundação Biblioteca Nacional conforme Lei n° 10.994, de 14/12/2004. Plano Geral da Obra VOLUME I INTRODUÇÃO GERAL Tempos Pré-Históricos Capítulo I: A Técnica nas Primeiras Grandes Civilizações Mesopotâmia Egito China Índia Outras Culturas Antigas (Hititas, Hebraica, Fenícia e Persa) Capítulo II: A Filosofia Natural na Civilização Greco-Romana A Civilização Grega e o Advento do Pensamento Científico e da Ciência A Técnica na Cultura Romana 5 Capítulo III: A Filosofia Natural nas Culturas Orientais A China da Dinastia Tang à Ming e a Filosofia Natural A Índia Gupta e dos Sultanatos e a Filosofia Natural A Filosofia Natural no Mundo Árabe Islâmico Capítulo IV: A Filosofia Natural na Europa Medieval A Ciência na Europa Oriental Grega e o Império Bizantino O Mundo Eslavo e a Filosofia Natural A Ciência na Europa Ocidental Latina Capítulo V: O Renascimento Científico VOLUME II A CIÊNCIA MODERNA Tomo I Capítulo VI: A Ciência Moderna O Advento da Ciência Moderna O Desenvolvimento Científico no Século das Luzes VOLUME II A CIÊNCIA MODERNA Tomo II O Pensamento Científico e a Ciência no Século XIX VOLUME III Capítulo VII: A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo Sumário VOLUME III Capítulo VII: A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo................................................................... 15 7.1 - Introdução............................................................................................................. 15 7.2 - Matemática............................................................................................................ 24 7.2.1 - Aspectos Atuais........................................................................................... 25 7.2.1.1 - Os Problemas de Hilbert.................................................................... 28 7.2.1.2 - Matemática de Âmbito Mundial...................................................... 28 7.2.1.3 - Instituições Nacionais........................................................................ 32 7.2.1.4 - Instituições e Conclaves Internacionais. Premiação...................... 33 7.2.1.5 - Publicações........................................................................................... 37 7.2.1.6 - Vínculos e Contribuições................................................................... 38 7.2.1.7 - Problemas do Milênio........................................................................ 39 7.2.1.8 - Temas.................................................................................................... 39 7.2.2 - Fundamentos e Filosofia da Matemática.................................................. 40 7.2.2.1 - Axiomatização..................................................................................... 40 7.2.2.2 - Paradoxos da Teoria dos Conjuntos................................................ 44 7.2.2.3 - Filosofia Matemática.......................................................................... 46 7.2.2.3.1 - Logicismo.................................................................................... 46 7.2.2.3.2 - Intuicismo................................................................................... 48 7.2.2.3.3 - Formalismo................................................................................. 51 7.2.3 - Desenvolvimento da Matemática.............................................................. 54 7.2.3.1 - Álgebra Moderna................................................................................ 54 7.2.3.1.1 - Teoria dos números................................................................... 57 7.2.3.1.2 - Teoria dos Conjuntos................................................................ 58 7.2.3.2 - Geometria............................................................................................. 58 7.2.3.2.1 - Geometria Algébrica................................................................. 58 7.2.3.2.2 - Geometria Projetiva................................................................... 60 7.2.3.2.3 - Geometria Diferencial............................................................... 61 7.2.3.2.4 - Geometria Fractal....................................................................... 62 7.2.3.3 - Topologia............................................................................................. 63 7.2.3.4 - Análise.................................................................................................. 67 7.2.3.4.1 - Equações Diferenciais............................................................... 67 7.2.3.4.2 - Análise Funcional...................................................................... 68 7.2.3.4.3 - Integração e Medida.................................................................. 69 7.2.3.5 - Probabilidade Matemática................................................................. 70 7.3 - Astronomia............................................................................................................ 73 7.3.1 - Características Atuais.................................................................................. 74 7.3.1.1 - Astronomia de Âmbito Mundial...................................................... 76 7.3.1.2 - Instrumentos e Tecnologia................................................................ 78 7.3.1.3 - Instituições Internacionais. Premiação............................................ 79 7.3.1.4 - Publicações........................................................................................... 82 7.3.1.5 - Temas.................................................................................................... 83 7.3.2 - Astronomia do Espectro Eletromagnético. Instrumentos Astronômicos e Novas Técnicas de Pesquisas................................................................................83 7.3.2.1 - Astronomia Óptica. Telescópios e Observatórios.......................... 85 7.3.2.2 - Radioastronomia................................................................................. 89 7.3.2.3 - Astronomia do Infravermelho.......................................................... 92 7.3.2.4 - Astronomia do Ultravioleta.............................................................. 95 7.3.2.5 - Astronomia dos Raios -X................................................................... 96 7.3.2.6 - Astronomia dos Raios-Gama............................................................ 99 7.3.2.7 - Novas Técnicas de Pesquisa............................................................ 100 7.3.2.7.1 - Interferometria......................................................................... 101 7.3.2.7.2 - Radar.......................................................................................... 103 7.3.2.7.3 - Maser/Laser............................................................................. 104 7.3.3 - Astronomia Planetária.............................................................................. 105 7.3.3.1 - Primeira Fase..................................................................................... 106 7.3.3.2 - Segunda Fase..................................................................................... 109 Mercúrio..................................................................................................... 109 Vênus.......................................................................................................... 109 Marte........................................................................................................... 110 Júpiter......................................................................................................... 111 Saturno........................................................................................................ 111 Urano.......................................................................................................... 112 Netuno........................................................................................................ 112 7.3.3.2.1 - Planetas anões – Plutoides................................................ 112 7.3.3.2.2 - Lua....................................................................................... 113 7.3.3.2.3 - Cometas – Cinturão de Kuiper – Nuvem de Oort........ 114 7.3.3.2.4 - Asteroides........................................................................... 117 7.3.4 - Astronomia Estelar.................................................................................... 117 7.3.4.1 - Astrometria. Catálogos.................................................................... 118 7.3.4.1.1 - Distância e Classificação das Estrelas................................... 120 7.3.4.2 - Energia das Estrelas.......................................................................... 123 7.3.4.3 - Pulsares/Estrelas de Nêutron......................................................... 124 7.3.4.4 - Planetas Extrassolares ou Exoplanetas.......................................... 126 7.3.4.5 - Anãs Marrons.................................................................................... 128 7.3.4.6 - Meio Interestelar............................................................................... 129 7.3.4.7 - Buracos Negros................................................................................. 129 7.3.5 - Astronomia Galáctica................................................................................ 131 7.3.5.1 - Formação e Classificação Morfológica........................................... 134 7.3.5.1.1 - Galáxias Ativas......................................................................... 135 7.3.5.1.2 - Grupos, Aglomerados e Superaglomerados........................ 139 7.3.6 - Cosmologia................................................................................................. 141 7.3.6.1 - A Teoria da Relatividade e a Cosmologia Moderna.................... 142 7.3.6.2 - Modelo Cosmológico de Einstein................................................... 145 7.3.6.3 - Modelo Cosmológico de De Sitter.................................................. 145 7.3.6.4 - Universo em Expansão. Modelos Cosmológicos......................... 146 7.3.6.4.1 - Friedmann................................................................................. 146 7.3.6.4.2 - Lemaître. Átomo Primordial.................................................. 147 7.3.6.4.3 - Hubble e a Demonstração da Expansão do Universo........ 149 7.3.6.4.4 - O Big Bang................................................................................ 150 7.3.6.5 - Matéria Escura. Radiação Cósmica................................................ 152 7.3.6.6 - Radiação Cósmica de Fundo........................................................... 154 7.3.6.7 - Energia Escura................................................................................... 155 7.3.6.8 - Modelo Cosmológico Padrão.......................................................... 156 7.3.6.9 - Outras Teorias sobre o Universo.................................................... 158 7.4 - Física..................................................................................................................... 159 7.4.1 - Teoria Quântica.......................................................................................... 166 7.4.1.1 - Radiação dos Corpos Negros.......................................................... 168 7.4.1.2 - A Concepção de Planck................................................................... 169 7.4.1.3 - Confirmação da Teoria: O efeito Fotoelétrico............................... 170 7.4.2 - Teoria da Relatividade.............................................................................. 172 7.4.2.1 - 1905 – O Ano Miraculoso................................................................. 173 7.4.2.2 - Teoria Especial da Relatividade .................................................... 175 7.4.2.3 -Teoria Geral da Relatividade........................................................... 178 7.4.3 - Física Atômica e Nuclear.......................................................................... 180 7.4.3.1 - Modelo Atômico de Thomson........................................................ 181 7.4.3.2 - Modelo Atômico de Rutherford..................................................... 183 7.4.3.3 - Modelo Atômico de Bohr................................................................ 185 7.4.3.4 - Outros Desenvolvimentos............................................................... 188 7.4.3.5 - Fissão Nuclear................................................................................... 191 7.4.4 - Física Quântica........................................................................................... 192 7.4.4.1 - Dualidade Partícula/Onda e Outros Desenvolvimentos........... 193 7.4.4.2 - Mecânica Quântica........................................................................... 195 7.4.4.3 - Modelo Atômico Orbital.................................................................. 196 7.4.4.4 - Controvérsia Einstein-Bohr. O Paradoxo EPR............................. 199 7.4.5 - Física das Partículas................................................................................... 201 7.4.5.1 - Desenvolvimento das Pesquisas. Descobertas. Modelos............ 201 7.4.5.2 - Modelo dos Quarks e Glúons. Gell-Mann.................................... 205 7.4.5.3 - Interações Fundamentais................................................................. 208 7.4.5.4 - Eletrodinâmica Quântica................................................................. 210 7.4.5.5 - Flavourdinâmica ou Teoria da Interação Eletrofraca.................. 212 7.4.5.6 - Cromodinâmica Quântica............................................................... 213 7.4.5.7 - Unificação das Interações................................................................ 214 7.4.5.8 - Bóson de Higgs................................................................................. 215 7.4.5.9 - Modelo Padrão das Partículas Elementares.................................. 215 7.5 - Química............................................................................................................... 217 7.5.1 - Química Analítica...................................................................................... 225 7.5.2 - Físico-Química............................................................................................ 231 7.5.2.1 - Termoquímica................................................................................... 232 7.5.2.2 - Cinética Química............................................................................... 235 7.5.2.3 - Eletroquímica. Ligações Químicas................................................. 236 7.5.2.4 - Ácidos e Bases................................................................................... 242 7.5.3 - Química Inorgânica................................................................................... 243 7.5.3.1 - Os Elementos e a Tabela Periódica................................................. 243 7.5.3.2 - Isótopos.............................................................................................. 245 7.5.3.3 - Elementos Transurânicos................................................................. 247 7.5.3.4 - A Tabela Periódica dos Elementos................................................. 252 7.5.4 - Química Orgânica...................................................................................... 253 7.5.4.1 - Estereoquímica.................................................................................. 254 7.5.4.2 - Reações Químicas............................................................................. 257 7.5.4.3 - Síntese Orgânica................................................................................ 261 7.5.4.4 - Macromoléculas................................................................................ 268 7.5.5 - Bioquímica.................................................................................................. 270 7.5.5.1 - Proteínas e Enzimas.......................................................................... 271 7.5.5.2 - Ácido Nucleico – DNA e RNA....................................................... 277 7.5.5.3 - Carboidrato........................................................................................ 282 7.5.5.4 - Metabolismo...................................................................................... 284 7.6 - Biologia................................................................................................................ 287 7.6.1 - Fisiologia..................................................................................................... 295 7.6.1.1 - Neurociência...................................................................................... 302 7.6.1.2 - Sistema Sensorial.............................................................................. 307 7.6.2 - Biologia Celular e Molecular.................................................................... 309 7.6.3 - Microbiologia............................................................................................. 315 7.6.4 - Genética....................................................................................................... 323 7.6.4.1 - Primeiro período. Confirmação das Leis de Mendel................... 325 7.6.4.2 - Segundo período. Desenvolvimento e Pesquisa.......................... 330 7.6.4.3 - Terceiro Período. DNA e RNA. Código Genético........................ 335 7.6.4.4 - Quarto Período. Engenharia Genética........................................... 341 7.6.4.5 - Quinto Período. Genoma Humano. Clonagem............................ 345 7.6.4.5.1 - Sequenciamento do Genoma Humano................................. 345 7.6.4.5.2 - Clonagem.................................................................................. 348 7.6.5 - Evolução...................................................................................................... 351 7.6.5.1 - Síntese Evolutiva .............................................................................. 355 7.6.5.2 - Criação X Evolução........................................................................... 360 7.7. - Sociologia........................................................................................................... 363 7.7.1 - A Sociologia na Alemanha....................................................................... 367 7.7.1.1 - Max Weber......................................................................................... 368 7.7.1.1.1 - Nota Biográfica e Bibliográfica.............................................. 369 7.7.1.1.2 - Sociologia Weberiana ............................................................. 370 7.7.1.1.3 - Sociologia Política.................................................................... 373 7.7.1.1.4 - Sociologia da Religião............................................................. 375 7.7.1.2 - Desenvolvimento da Sociologia na Alemanha............................. 378 7.7.1.2.1 - Segunda Fase............................................................................ 380 7.7.1.2.2 - Terceira Fase............................................................................. 383 7.7.2 - A Sociologia na França.............................................................................. 388 7.7.2.1 - Primeiro Período............................................................................... 389 7.7.2.2 - Segundo Período............................................................................... 393 7.7.3 - A Sociologia na Itália................................................................................. 401 7.7.3.1 -Vida e Obra de Pareto....................................................................... 402 7.7.3.2 - Desenvolvimento da Sociologia..................................................... 406 7.7.4 - A Sociologia em Outros Países Europeus.............................................. 409 7.7.4.1 - A Sociologia na Grã-Bretanha......................................................... 410 7.7.4.2 - A Sociologia na Áustria................................................................... 414 7.7.4.3 - A Sociologia na Rússia/URSS......................................................... 417 7.7.4.4 - A Sociologia nos Países Escandinavos........................................... 419 7.7.5 - A Sociologia nos Estados Unidos da América....................................... 424 7.7.5.1 - Primeiro Período............................................................................... 425 7.7.5.1.1 - Escola de Chicago.................................................................... 426 7.7.5.1.2 - Escola de Colúmbia................................................................. 430 7.7.5.1.3 - Escola de Harvard................................................................... 431 7.7.5.1.4 - Outras Instituições de Pesquisa. Sociologia Empírica ....... 434 7.7.5.2 - Segundo Período............................................................................... 435 7.7.5.2.1 - Escola de Chicago.................................................................... 436 7.7.5.2.2 - Teoria Funcionalista-Estrutural............................................. 439 7.7.5.2.3 - Teoria do Intercâmbio Social.................................................. 440 7.7.5.2.4 - Etnometodologia...................................................................... 441 7.7.5.2.5 - Sociologia Crítica ................................................................... 442 7.7.6 - A Sociologia na América Latina.............................................................. 445 7.7.6.1 - A Sociologia no Brasil...................................................................... 447 7.7.6.1.1 - Primeira Fase............................................................................ 448 7.7.6.1.2 - Segunda Fase............................................................................ 450 7.7.6.1.3 - Terceira Fase............................................................................. 456 7.7.6.2 - A Sociologia na Argentina............................................................... 459 7.7.6.2.1 - Primeiro Período...................................................................... 460 7.7.6.2.2 - Segundo Período...................................................................... 462 7.7.6.2.3 - Terceiro Período....................................................................... 463 7.7.6.2.4 - Quarto Período......................................................................... 464 7.7.6.3 - A Sociologia no México.................................................................... 466 7.7.6.3.1 - Primeira Etapa.......................................................................... 467 7.7.6.3.2 - Segunda Etapa.......................................................................... 470 7.7.6.3.3 - Terceira Etapa........................................................................... 471 Bibliografia Geral....................................................................................................... 475 Capítulo VII A Ciência e o Triunfo do Pensamento Científico no Mundo Contemporâneo 7.1 Introdução O período histórico atual, conhecido como “contemporâneo”, se caracteriza por profundas mudanças nos âmbitos social, político, econômico, cultural, científico e tecnológico dos diversos países do Planeta. Uma Sociedade com novas ambições e reivindicações e com novos anseios e propósitos emergiria de um novo contexto que, inicialmente originário da Europa ocidental, se espalharia, rapidamente, por todos os cantos do Globo. A efervescência cultural e uma nova postura mental, particularmente no meio intelectual de uma emergente burguesia e classe média europeia do século XIX, ansiosa pelo poder político e econômico para usufruir os benefícios da Revolução Industrial, seriam decisivas na formação de uma Sociedade dinâmica, defensora de novos valores. O formidável legado dos últimos séculos, nos diversos campos da atividade humana, contudo, não deve ser minimizado, dada sua decisiva contribuição para a reformulação das novas bases doutrinária, filosófica e moral da Sociedade contemporânea. A contestação aberta dos tradicionais valores, individuais e institucionais, significaria, a partir da segunda metade do século XIX, a falência das doutrinas e das políticas sustentadoras do status quo, criando, deste modo, as condições necessárias para o surgimento de uma nova Sociedade – industrial, capitalista, laica – em substituição ao velho regime absolutista, feudal, mercantilista. 15 CARLOS AUGUSTO DE PROENÇA ROSA Na história da evolução das ideias no campo filosófico, social e político, verdadeira fonte do aperfeiçoamento da Humanidade, somente o período áureo da civilização grega pode ser comparado com o extraordinário desenvolvimento ocorrido na Europa ocidental, do século XVI ao XIX. As inestimáveis contribuições de pensadores desse período, como Bacon, Descartes, Locke, Montesquieu, Vico, Hume, Adam Smith, Diderot, d’Alembert, Beccaria, Condorcet, Kant, Comte e Marx, para citar apenas alguns dos pensadores mais representativos do período, seriam decisivas para a renovação do pensamento ocidental, prestigiando a racionalidade e assegurando o avanço do espírito científico. A revolução das ideias não atingiu imediatamente a grande maioria da população, apegada à tradição, mas ganhou espaço e adeptos nos meios acadêmicos e governamentais, vindo a ser uma das alavancas das profundas mudanças na Sociedade. Conceitos como os de Igualdade, Liberdade, Racionalidade, Humanidade, Progresso e Natureza, seriam debatidos e veiculados através de sociedades secretas, salões aristocráticos, clubes políticos, livros e panfletos, permitindo uma transparência e um fluxo de novas ideias, em detrimento das normas vigentes, sociais, políticas e morais, representativas de uma Sociedade em crise. Ao mesmo tempo, a confiança na Ciência (e sua metodologia) e na Razão, e não mais na Teologia e na Fé, como resposta adequada para o entendimento dos fenômenos naturais e sociais, ganharia força e adesões no meio intelectual, gerando a noção de progresso e de aperfeiçoamento continuado do Homem e da Sociedade. Em consequência, haveria uma radical mudança da visão do Mundo e da Sociedade, que, de teológica, passaria a se caracterizar como laica. O dogmatismo e o obscurantismo seriam combatidos pelo anticlericalismo, que se reforçaria com a adesão de segmentos interessados em ocupar fatias do Poder, até então privilégio da hierarquia religiosa. A consequente conquista pela Ciência teórica e aplicada de buscar entender os fenômenos naturais, da Vida e da Sociedade, sem recurso a argumentos fantasiosos, asseguraria, a partir do século XX, o triunfo do espírito científico, o qual passaria a privilegiar estudos e pesquisas, evidências e verificação, em vez de mera especulação. Uma nova era, a da positividade científica, se inauguraria, assim, no período contemporâneo, após 2500 anos em que a curiosidade humana se satisfez com explicações nascidas de pura imaginação. Necessária no processo histórico da evolução mental e intelectual do Homem, deve ser reconhecida, no entanto, a importância da etapa, agora esgotada, na aquisição de conhecimento científico e no aprimoramento da mentalidade humana, indispensável para se atingir a atual fase. 16 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A criação de academias e observatórios, a partir do século XVII, com o apoio oficial, já demonstrava a consciência, em alguns círculos, da importância da Ciência para o desenvolvimento econômico, social e tecnológico. A reformulação do ensino científico e o crescente reconhecimento do valor do método experimental contribuiriam, principalmente desde o século XVIII, para o avanço de vários ramos da Ciência. A evolução do conhecimento das Matemáticas (Aritmética, Álgebra, Geometria, Cálculo), da Astronomia (Heliocentrismo, Mecânica Celeste, Astronomia Observacional, Espectroscopia), da Física (Mecânica, Óptica, Eletromagnetismo, Termodinâmica, Radioatividade), da Química (Elementos e Substâncias, Nomenclatura e Classificação, Conservação da Matéria, Leis Quantitativas, Química Orgânica, Atomismo), da Biologia (Anatomia, Fisiologia, Teoria Celular, Embriologia, Evolução) e a criação da Sociologia são marcos, no século XIX, do processo evolutivo da Ciência, que orientariam os estudos e pesquisas posteriores. Tal evolução estaria diretamente vinculada à aplicação da metodologia científica, baseada na observação sistemática, verificação, comparação, comprovação e quantificação, na busca das leis reguladoras dos fenômenos naturais e sociais. A partir dessa época, estariam desmoralizadas a Alquimia e a Astrologia, que perderiam prestígio e respeitabilidade, e sofreriam forte golpe a superstição e o sobrenatural, que continuariam, no entanto, a usufruir da aceitação popular. Essa extraordinária mudança de mentalidade, de enfoque e de interesses, como atestam as diversas Escolas filosóficas, políticas e econômicas, ocorreu, fundamentalmente, no meio intelectual europeu, limitado, porém, a pensadores, filósofos, escritores, pesquisadores, grandes senhores e membros da alta burguesia, cuja influência nas esferas de Poder era crescente. As Igrejas Romana, Ortodoxas e Protestantes, manteriam, contudo, suas autoridades, temporal e espiritual, junto aos governos e ao povo, com o objetivo de sustentar a vigência da realidade social, política e religiosa, que lhe era vantajosa. A grande massa populacional, sem participação na vida política do Estado e sem gozar os benefícios da expansão mercantil e financeira, e da Revolução Industrial, era relegada à condição de pária social, mantendo-se crente e supersticiosa, dependente da orientação moral e religiosa do clero, ainda que crítica e reticente quanto ao papel e à atuação das instituições religiosas. As crescentes objeções ao conservadorismo da hierarquia das Igrejas não afetariam a religiosidade do povo, mas seriam elementos importantes na perda de sua autoridade na esfera de assuntos públicos. O mundo contemporâneo não pode ser entendido, contudo, como mero prosseguimento cronológico ou como simples continuação da obra 17 CARLOS AUGUSTO DE PROENÇA ROSA dos séculos precedentes. Beneficiada pelas conquistas obtidas no período anterior, principalmente no terreno das ideias e do espírito, a Sociedade contemporânea teve condições para criar e expandir, para reformular e inovar nos diversos âmbitos – social, político, cultural, econômico, científico, tecnológico –, lançando, decisivamente, os fundamentos para o extraordinário progresso atual ocorrido nessas áreas. A pretensão, ao final do século XIX, de que se teria chegado ao esgotamento do possível conhecimento científico nas diversas áreas seria imediatamente desmentida pelas realizações do período atual. As profundas transformações na vida social e dos indivíduos, inicialmente circunscritas à Europa, e, depois, exportadas para os demais recantos do Globo, refletem e explicam as condições de uma nova Sociedade, cujas características, interesses e objetivos situam o século XX num novo período histórico. No contexto da História da Ciência, se firmaria, ao menos na comunidade acadêmica e científica, o espírito independente e livre de conotações metafísicas, ao mesmo tempo em que ocorreria um espetacular desenvolvimento de pesquisas e estudos em Ciência pura e aplicada. As extraordinárias realizações no campo industrial, resultantes do conhecimento e da aplicação da Ciência, teriam como consequência inevitável a elevação, ainda mais, de seu prestígio junto à opinião pública. A nova e marcante situação desse desenvolvimento no mundo contemporâneo se traduziria no triunfo definitivo da Ciência sobre a ignorância, o preconceito e o dogmatismo, permitindo à comunidade científica uma grande liberdade de pesquisa. Na evolução do conhecimento científico, ficaria, assim, cada vez mais patente, a importância da afirmação do espírito científico, o qual seria responsável pelo correto encaminhamento das pesquisas conducentes ao melhor entendimento dos fenômenos. Os movimentos de massas populares adquiriram especial relevância nos planos social, político, econômico e cultural. Ganhariam relevância os fenômenos sociais (reivindicações operárias, urbanização, direitos humanos, poder da burguesia, conscientização do proletariado), a radicalização decorrente de uma nova ordem econômica (capitalismo, industrialização, competitividade, finanças e comércio internacionais, colonialismo), o impacto de um cenário político cambiante e de dimensão global (representação e direitos políticos, cooperação e antagonismo internacionais, conflitos armados e “Guerra Fria”), a decrescente influência do poder espiritual, e de suas instituições, sobre os assuntos de Estado e de Governo (separação do Estado e da Igreja em grande número de países) em 18 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO função do fortalecimento de um espírito laico, embora a grande maioria da população continuasse crente e mantivesse sua religiosidade, e a grande efervescência cultural (massificação da instrução, surgimento de novas Escolas artísticas, manifestação e importância da arte popular, folclore). Tais desdobramentos foram acontecimentos que indicam o dinamismo da Época Contemporânea e que lhe dão contornos bem distintos dos séculos anteriores. As grandes mudanças doutrinárias, promovidas por um meio intelectual cada vez mais influente nos círculos governamentais, não seriam limitadas, no entanto, às esferas social, política, econômica e cultural. Uma das atividades que experimentaria decisivas transformações seria a da Ciência, cujo espantoso e extraordinário avanço seria um dos aspectos mais relevante e característico da Época Contemporânea, servindo, inclusive, de marco de uma nova etapa da História da Ciência. Sua contribuição para o progresso em diversos âmbitos foi decisiva, bem como devem ser realçadas a estreita vinculação e a crescente cooperação entre a Ciência e a Tecnologia, o que viria a determinar o atual fantástico desenvolvimento técnico e científico. As descobertas e invenções, os aperfeiçoamentos e inovações permitiriam, em curto prazo de tempo, e num ritmo veloz, uma mudança radical no cotidiano da nova Sociedade. O Homo Sapiens, que levara milhares de anos, desde a revolução agrícola e a descoberta e a utilização dos metais para iniciar a Revolução Industrial, necessitaria apenas de cerca de um século, no período contemporâneo, para ingressar na era do computador e da Informática. A Ciência, criação humana para explicar racionalmente os fenômenos, adquiriria uma nova dimensão ao se colocar a serviço da Sociedade e do Homem. Sua missão de desvendar os mistérios dos fenômenos continuaria vigente e permaneceria fundamental, pois somente através do conhecimento, abstrato e positivo, é possível entendê-los e explicá-los. A Ciência Moderna, desde seu advento, se utilizaria do modelo da Física, e de sua metodologia, para expandir o conhecimento, através da investigação dos fenômenos ocorridos no ramo das Ciências exatas, como a Astronomia e a Química, bem como em seus novos ramos, como o Eletromagnetismo e a Termodinâmica. A mensuração, a experimentação, a verificação e a comprovação continuariam a ser procedimentos válidos e atuais da metodologia científica, a qual rejeita, assim, a busca das causas dos fenômenos, com conotação teleológica e qualitativa. O conceito de causalidade, no qual se buscava o “porquê”, seria substituído pelo estudo de “como” ocorrem os fenômenos. A descoberta de leis gerais, de caráter universal, que expressem matematicamente as relações entre os fenômenos, e os expliquem, se firmaria como objetivo da Ciência 19 CARLOS AUGUSTO DE PROENÇA ROSA experimental. Para as Ciências históricas, como a Sociologia, a Geologia, a Biologia Evolutiva, a Paleontologia e a Arqueologia, a observação e a narrativa histórica seriam os principais instrumentos para o correto entendimento do ocorrido em épocas pretéritas. Nesse processo, a crença e o misticismo deixariam de ser o caminho para o conhecimento, que passaria a ser adquirido, através da racionalidade e da pesquisa, pelo método científico, o qual inclui critérios e instrumentos apropriados para o fenômeno em estudo. Assim, a expansão, por exemplo, do método científico aos fenômenos sociais e da evolução, pela utilização do procedimento comparativo e histórico, colocaria tais Ciências em bases firmes e seguras. Os seis grandes ramos da Ciência fundamental contemporânea evoluiriam a um ritmo acelerado nunca visto, como atestam os estudos pioneiros, as pesquisas sistemáticas, as descobertas inovadoras e as teorias “revolucionárias”. Além do grande avanço conceitual e prático na Matemática, na Astronomia e na Física, cujos campos de atividade já estavam praticamente delineados, deve ser consignado o extraordinário progresso registrado, ao longo do século XX, na Química, na Biologia e na Sociologia, a partir das respectivas estruturações, como objetos de atividade científica. Nesse processo, a vinculação mútua das Ciências se patentearia, inclusive com a criação de novas disciplinas científicas, como a Astrofísica, a Físico-Química, a Bioquímica e a Bioinformática. Paralelamente ao desenvolvimento das Ciências fundamentais, se ampliaria extraordinariamente o campo do conhecimento com a criação ou o avanço nos estudos e nas investigações, segundo metodologia e procedimentos científicos, de várias novas áreas. Assim, o progresso em diversos campos, como da Geologia, da Antropologia, da Arqueologia, da Paleontologia, da Meteorologia, da Cosmologia e da Psicologia, seria da maior importância para o entendimento objetivo e racional dos fenômenos naturais e da evolução da Espécie e da Sociedade. O desenvolvimento da pesquisa no domínio da Ciência pura, e o fortalecimento progressivo do espírito científico, particularmente na comunidade científica, seriam características fundamentais da Sociedade humana no mundo contemporâneo, e seriam, igualmente, responsáveis pelo ritmo acelerado do avanço teórico e investigativo nos diversos ramos da Ciência. O aumento significativo da escala enciclopédica determinaria, por outro lado, a aplicação inevitável da lei da divisão do trabalho, deixando para o passado o conhecimento universalista, decorrente da escassez dos conhecimentos adquiridos. O surgimento de novas áreas de conhecimento e a velocidade e o volume do conhecimento produzido tornariam o 20 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO cientista cada vez mais dedicado e restrito à sua área de trabalho e de preocupações, o que deve ser considerado como um aspecto favorável da pesquisa contemporânea, desde que não seja levado ao extremo. A especialização daí decorrente levaria a um espetacular progresso no conhecimento disciplinar, que contribuiria, também, para uma frutífera vinculação da Ciência com a Tecnologia. A primeira Revolução Industrial (segunda metade do século XVIII), resultado de inovações técnicas na engenharia e na indústria, pouco deveu ao conhecimento científico, tendo sido realizada, principalmente, por engenheiros e práticos. Uma das importantes consequências desse desenvolvimento para a Ciência seria a compreensão de que a investigação não deveria ter um caráter contemplativo, em que o conhecimento seria um fim em si mesmo, mas deveria ser uma atividade pragmática, com o objetivo de ser útil ao Homem. Tal conhecimento, assim adquirido, passaria a ser reconhecido, como no aforismo baconiano de “saber é poder”, como fonte indispensável para o progresso da Sociedade humana. A noção de Ciência aplicada ganharia terreno, transformando-se numa das características da Ciência contemporânea, sendo decisiva para o sucesso da segunda Revolução Industrial, ocorrida, principalmente, a partir da segunda metade do século XIX. As pesquisas industriais pioneiras no século XIX se dariam nos ramos das Ciências experimentais (Física e Química), e abarcariam os setores de eletricidade, ferro e aço, adubos, açúcar, produtos farmacêuticos, corantes e petróleo, para se estenderem, depois, a todas as demais áreas industriais. Seriam notáveis os avanços nas indústrias química, mecânica, de energia, de transporte e de comunicação, numa segunda Revolução Industrial, dessa vez em estreita vinculação com a Ciência. Dessa forma, a Ciência atual substituiria a mera erudição de acumulação de fatos desconexos, com recurso a especulações, pela previsão racional decorrente das relações constantes estabelecidas entre os fenômenos, colocando esse conhecimento a serviço da Humanidade. Não haveria mais lugar para a predição ou para a especulação. O saber racional, baseado em metodologia científica, passaria a ser a base para previsão, que, por sua vez, seria indispensável para prover o Homem e a Humanidade dos meios necessários para seu aperfeiçoamento. Outra característica atual da Ciência seria sua abrangência universal, no sentido de que seria cultivada e praticada nos cinco continentes, deixando de ser uma atividade, como no passado, restrita, praticamente, à Europa ocidental. A partir do Renascimento Científico, os estudos e as pesquisas se espalhariam desde a Itália para outros reinos europeus, mantendo-se o Reino Unido e a França na liderança 21 CARLOS AUGUSTO DE PROENÇA ROSA científica por todo o período da História Moderna. Pouco há a registrar de original e pioneiro, nesse campo, nos países da Europa Central e do Leste. A situação começaria a se alterar na segunda metade do século XIX, com a Alemanha, reunificada, assumindo, com aqueles dois países, a liderança nos estudos e investigações científicas, ao mesmo tempo em que a pesquisa despertava interesse na Europa central e oriental, no Japão e nos EUA. Ainda dependentes, do ponto de vista político, econômico e cultural, da Europa, continuariam ausentes desse processo os países latino-americanos e caribenhos, as colônias africanas e asiáticas, a China, a Índia, o Império Otomano e as áreas sob domínio islâmico. Apenas no período contemporâneo, a partir dos anos 50, a Ciência adquiriria, finalmente, âmbito mundial, com pesquisas e estudos sendo efetuados em diversos países dos vários continentes. A liderança, a partir da década dos anos de 1930, seria assumida pelos EUA, que se transformaria no maior centro de investigações científicas da História. A formação da União Europeia, a constituição da Rússia e a modernização da China, ocorridas no final do século XX, confirmariam tais regiões como polos de excelência científica, dada a prioridade, reconhecida pelo Estado e pelas empresas, públicas e privadas, às atividades de estudo e de investigação, tanto da Ciência pura, quanto da Ciência aplicada. O atual caráter internacional da Ciência propiciaria uma crescente cooperação entre os Estados, por meio de acordos bilaterais e multilaterais, e de criação de organismos específicos de financiamento e divulgação de pesquisas, e entre instituições, oficiais e privadas, criadas com o propósito declarado de promover investigação e estudo. Conferências, seminários, cursos e publicações especializadas diversas aproximariam as comunidades científicas nacionais, ampliando a divulgação e o conhecimento recíproco dos estudos efetuados e das conquistas obtidas. Cabe assinalar que, do ponto de vista da evolução das instituições dedicadas ao desenvolvimento do conhecimento, as universidades, criadas no início do Renascimento Científico em várias cidades da Europa, pouco contribuíram para o progresso da Ciência, já que estavam limitadas ao ensino da Escolástica e à preservação dos ensinamentos clássicos. No entanto, as academias, sociedades, bibliotecas e outras instituições culturais, fundadas fora do âmbito universitário, a partir do século XVII contribuiriam, através da pesquisa e da divulgação científicas, significativamente, para o advento da Ciência Moderna, sendo, em boa medida, responsáveis por esse avanço. As universidades, ameaçadas de perda de prestígio, e também pressionadas pelas contribuições das instituições de pesquisa ao progresso da Ciência, abandonariam sua 22 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO tradicional postura acadêmica e participariam positivamente, com laboratórios de investigação e com estudos teóricos, do esforço de expansão do conhecimento científico. O desenvolvimento da atividade científica passou a requerer, na atualidade, enormes recursos financeiros, indisponíveis em nível individual, ou, mesmo, em empreendimentos de pequena monta, para custear pessoal, equipamentos, material, viagens, etc. A Ciência passou a ser uma atividade de alto risco, altamente custosa, que requer grande capital. É a chamada Ciência de equipe, ou Big Science, uma realidade nos diversos campos científicos. Na impossibilidade de enfrentar, individualmente, os altos custos e a crescente complexidade teórica e experimental, a pesquisa tende a se tornar cada vez mais uma pesquisa de grupo, financiada por grandes empresas e laboratórios privados, ou por entidades públicas. Dezenas, ou centenas, de pesquisadores empenhados num trabalho de criação coletiva se dedicam, segundo suas especialidades, a estudos e experiências em centros de pesquisas para a compreensão e elucidação de alguma teoria ou de algum determinado aspecto fundamental; o Projeto Genoma pode ser citado como o mais recente e importante exemplo dessa pesquisa coletiva, que, aliás, reflete, também, o alto grau da cooperação internacional científica. A obra pessoal e solitária do cientista individual seria substituída pelo trabalho solidário de grupos de pesquisadores. A obra científica resultante desse trabalho de equipe, ou de equipes, tende a ser creditada à entidade financiadora ou patrocinadora da pesquisa, ou ao chefe da equipe, desconhecendo a contribuição importante de grande número de colaboradores. Tal situação, inevitável, não significa a desvalorização das realizações individuais, nem pode ser considerado como demérito para os pesquisadores, mas, simplesmente, espelha uma realidade imposta como o único meio atual de se poder avançar na pesquisa científica. Apesar do anonimato a que é relegada a quase totalidade do enorme número de pesquisadores e de sua contribuição para se alcançar o objetivo perseguido, há a consciência, da parte da Sociedade, de seu mérito e do papel importante que representam para o avanço da Ciência. A decorrente competição comercial, com a entrada de grandes quantidades de novos produtos no mercado, criaria a “patente”, instrumento defensivo da aquisição e proteção do processo produtivo, o que pode ser um ônus na expansão dos benefícios advindos do avanço científico. Sob o pretexto de segurança nacional, de perigo de proliferação nuclear e de desenvolvimento de armamentos de destruição em massa, e de aquisição de material e equipamentos de uso dual (civil e militar), uma série de obstáculos ao comércio tem sido criada com a finalidade 23 CARLOS AUGUSTO DE PROENÇA ROSA de impedir o acesso e seu uso equivocado por parte de países não detentores dessas tecnologias. Esse problema não se coloca, no entanto, ao conhecimento teórico, cujo produto é objeto de ampla divulgação em revistas especializadas, pois, não se tratando de um bem comercial, não sofre, ao menos ostensivamente, qualquer tipo de restrição. Tal desenvolvimento da Sociedade e do Homem contemporâneos confirmaria o continuado interesse pela pesquisa na Ciência pura, teórica, conceitual, o que afasta o perigo de se pensar ter atingido a fronteira do conhecimento científico. As contribuições de um grande número de cientistas, em suas diferentes áreas de pesquisas e estudos, comprovam, ainda, o continuado interesse pela Ciência pura e sua reconhecida importância no processo, em curso, de libertação do espírito humano da tutela teológica e metafísica. Dado que a grande maioria da população está, ainda, alheia a esse processo, é forçoso reconhecer que considerações de ordem teológico-metafísica, como a incessante busca de causas primeira e final, continuam presentes na atualidade, retardando o pleno e completo triunfo do espírito positivo. Em consequência, incompreensão e objeções, resultantes de um dogmatismo anacrônico, são atuantes, por exemplo, na Biologia e na Sociologia, criando obstáculos a seu pleno desenvolvimento. Apesar de tais dificuldades e obstáculos, o aludido processo tem resultado em crescente número de adeptos, principalmente nos meios intelectuais, imbuídos de espírito científico, expresso pela positividade e racionalidade. O decorrente progresso das Ciências, que beneficia a Sociedade como um todo, tem contribuído para aumentar a confiança na atividade científica e para assegurar seu prestígio. Na impossibilidade de cobrir a evolução de todo o vasto domínio científico na Época Contemporânea, o exame, a seguir, se limitará ao desenvolvimento das seis Ciências fundamentais, com as referências necessárias aos antecedentes mais importantes, de forma a ressaltar o caráter evolutivo desse desenvolvimento. Buscar-se-á, igualmente, enfatizar o vínculo entre as diversas Ciências, o qual é mais estreito entre as Ciências Exatas (Matemática, Astronomia, Física e Química) que entre essas e a Biologia e a Sociologia. 7.2 Matemática A Matemática teve início como uma técnica de contagem e de medição, na qual predominava seu caráter intuitivo. Seu desenvolvimento ao longo dos séculos esteve baseado em noções 24 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO fundamentais (espaço, grandeza, quantidade, número, medida, dimensão, forma, posição, ordem), introduzidas mediante percepções de objetos materiais e figuras geométricas. O caráter de Ciência abstrata e dedutiva seria introduzido pelos gregos no campo da Geometria, através do método postulacional (axioma, teorema, postulado). Ao mesmo tempo, a indução nunca esteve ausente da Matemática, como evidenciam o método empregado por Arquimedes (para a obtenção da quadratura dos arcos da parábola) ou por Fermat (proposição não dedutiva do Teorema). A convicção generalizada de que a Matemática lidava com objetos reais (números, pontos, retas, planos) foi expressa, ainda no século XIX, por Charles Hermite, ao sustentar que os números e as funções da Análise não são produtos arbitrários, mas uma realidade com as mesmas características da realidade objetiva. No entanto, a base realista em que se assentaria a Matemática já fora estremecida com a introdução dos números negativos e dos números imaginários, ambos necessários ao Cálculo algébrico. Golpe mais recente seria a criação das Geometrias não euclidianas, já que implicou não ser mais a Geometria a descrição do espaço físico; o ponto, a reta e o plano não poderiam mais servir para designar tais figuras físicas. A partir daí, decorreria que os axiomas da Geometria não seriam verdades físicas, mas convenções para a construção de Geometrias. Perdido, desta forma, o elo com a realidade, a Matemática deixaria de inferir do mundo físico as relações e as propriedades dos objetos matemáticos, e passaria a lhes atribuir relações e propriedades de acordo com as necessidades da própria Matemática. Na ausência de estrutura natural dos objetos, impôs-se, inevitavelmente, o estudo e o desenvolvimento da noção de estrutura matemática, que corresponde a um objeto matemático (abstrato e sem relação com qualquer objeto concreto em particular). 7.2.1 Aspectos Atuais À medida que o pensamento matemático se orientava para uma crescente abstração, o raciocínio se apartava, portanto, das figuras, formulava com maior precisão e refinamento os conceitos básicos e concatenava, com mais rigor, as proposições fundam entais. Um dos aspectos extraordinários do desenvolvimento da Matemática moderna, ocorrido no século XIX, se referiria exatamente à ênfase no rigor da análise dos seus fundamentos, como, por exemplo, no Cálculo com os infinitésimos e na Álgebra com os números complexos. A impossibilidade 25 CARLOS AUGUSTO DE PROENÇA ROSA da demonstração do V Postulado de Euclides, e a criação de Geometrias não euclidianas, determinariam a eliminação dos poderes da intuição na fundamentação e na elaboração de uma Teoria geométrica, reduzindo o axioma de “verdade evidente” a mero ponto de partida, escolhido convencionalmente para servir de base de uma construção dedutiva. As contribuições de Gauss, Cauchy, Bolzano, Weierstrass, Dedekind, Riemann, Cantor, Peano e Hilbert foram decisivas para o gradual rigor na fundamentação da Álgebra, da Geometria e da Análise, assegurando base confiável e segura para seu desenvolvimento. Tal ênfase, que correspondia a repensar os tradicionais fundamentos, prosseguiria como prioridade, constituindo-se no aspecto mais relevante da Matemática na atualidade. A Lógica matemática, ou Lógica simbólica, seria outro importante legado do século XIX. Com os estudos pioneiros de George Boole (1815-1864), e a partir dos trabalhos de Gottlob Frege (1848-1925) e de Giuseppe Peano (1850-1932), o tema ganharia importância com a obra Principia Mathematica (1910/13), de Bertrand Russel e Alfred Whitehead, na qual procuraram estabelecer uma estreita relação entre a Matemática e a Lógica. Um número crescente de matemáticos se dedicaria, na atualidade, à tarefa de reduzir a símbolos as proposições fundamentais de um sistema. A Teoria geral dos conjuntos, de Cantor, teria repercussões praticamente em toda a extensa área da Matemática, por suas implicações em todos os seus ramos (Álgebra, Topologia, Teoria dos grupos, Análise funcional e Teoria das funções de variável real) e por explicar conceitos abstratos como o de “infinito”. A descoberta de alguns paradoxos (ou antinomias) teria profundas e inquietantes repercussões, conduzindo à axiomatização das teorias matemáticas, com influência sobre a Lógica e os Fundamentos da Matemática. Estabelecer-se-ia um laço entre a Lógica e a Filosofia e entre a Filosofia e a Matemática, o que redundaria no nascimento de três grandes Escolas de Filosofia da Matemática dos dias atuais: a do logicismo, a do formal ou axiomática e a do intuicionismo, tema que, por sua relevância, merece especial atenção. Assim, as mudanças estruturais ocorridas na Matemática balizam o início deste novo período de sua evolução, em que a penetração crescente da Teoria dos conjuntos, de Cantor, as investigações relacionadas com os Fundamentos da Matemática e o desenvolvimento de estruturas abstratas na Álgebra, Lógica e Espaços gerais são marcas decisivas. Do tradicional conceito da Matemática como teoria da quantidade, ganhariam terreno as pesquisas na área da teoria da estrutura em geral. Novos campos se abririam, como a Teoria da integração, de Lebesgue, a Análise funcional, 26 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO o Cálculo operacional e os Tensores, bem como ampla discussão sobre a Filosofia da Matemática (logicistas, formalistas, intuicionistas). A famosa lista de vinte e três problemas, relacionados por Hilbert, em 1900, no II Congresso Internacional de Matemáticos (Paris), daria a pauta dos grandes desafios da Matemática atual. Historiadores da Matemática costumam equiparar a grande controvérsia gerada pelas demonstrações provocadas pela Teoria dos conjuntos (contradições em certos Fundamentos da Matemática) às duas grandes crises anteriores, a primeira relativa à descoberta, pela Escola pitagórica, dos números irracionais (incompatível com a natureza do número), e a segunda, relativa às contradições na fundamentação do Cálculo infinitesimal (uma quantidade “h” ou “dx” tinha de ser zero ou não ser zero na mesma operação); tais contradições seriam eliminadas de maneira dialética1. O sistema de sete axiomas, de Zermelo (1908), seria uma tentativa de resolver as contradições da Teoria dos conjuntos, de Cantor. A crescente complexidade matemática (abstração e rigor na fundamentação), a ampliação de sua habitual área de competência e a definição de novos conceitos estabeleceriam zonas comuns e de estreito contato entre os tradicionais ramos – Álgebra, Geometria e Análise –, pondo fim ao isolamento dessas áreas e à estrita compartimentalização da Matemática. A Topologia, por exemplo, se constitui, para uns estudiosos, num ramo autônomo da Matemática, enquanto para outros é objeto da Geometria, se Topologia geral, e da Álgebra, se Topologia algébrica; a Geometria diferencial pode ser incluída em Geometria ou em Análise; Teoria das Probabilidades, Estatística e Computação são estudadas como Matemática aplicada; Filosofia da Matemática, Lógica simbólica e Teoria dos conjuntos são incluídas, muitas vezes, como integrantes de um novo ramo, o dos Fundamentos. Tal evolução não significa, assim, a extinção de ramos ou setores, mas apenas que aumentaram as dificuldades para um acordo, entre os matemáticos, sobre os critérios para a classificação atual da Matemática. A complexidade e a amplitude se estendem, inclusive, em campos específicos. Assim, a Teoria dos Números comporta seis campos: teorias elementar, analítica, algébrica, geométrica, combinatória e computacional dos números; a Análise funcional compreende o exame dos Espaços de Banach, de Hilbert e de Fréchet; e a Álgebra abstrata (ou Álgebra moderna) lida com estruturas algébricas (Grupos, Anéis, Campos, Espaços vetoriais, Módulos). 1 STRUIK, Dirk J. História Concisa das Matemáticas. 27 CARLOS AUGUSTO DE PROENÇA ROSA 7.2.1.1 Os Problemas de Hilbert Os famosos vinte e três problemas da Matemática, formulados por Hilbert, em 1900, dariam a tônica das investigações ao longo do século XX. Em 1975, a American Mathematical Society (AMS) publicaria, em dois volumes, coleção de artigos e estudos atualizando o progresso em cada um desses temas, com exceção dos problemas n° 3 (igualdade do volume de dois tetraedros, se a base, a área e a altura forem iguais) resolvido, em 1903, por Max Dehn e n° 16 (o problema da Topologia das curvas e superfícies algébricas). O desafio lançado por Hilbert continua a incentivar pesquisas, apesar de quase todos os problemas relacionados terem sido resolvidos, ou totalmente (# 1 – a cardinalidade do contínuo, de Cantor, por Paul Joseph Cohen, em 1960; # 2, demonstrado por Godel, em 1931; # 3, resolvido por Dehn; # 9, demonstrado por Emil Artin, em 1927; # 13, demonstrado por Kolmogorov, em 1954; # 15, comprovado por van der Waerden, em 1930; # 17 – resolução de equações definidas, por Emil Artin, em 1927; # 18, por Thomas C. Hales, em 1998; # 19, demonstrado por Sergei Bernstein e Tibor Rado, em 1929; # 20, por Sergei Bernstein; # 21, por Helmut Rölr, em 1957; e # 22, por Paul Koebe e Poincaré, em 1907), ou parcialmente (# 5 – a conjectura de Hilbert de que a qualquer Grupo topológico euclidiano pode ser dada uma estrutura para que se transforme num Grupo de Lie, seria parcialmente solucionada por von Neumann, em 1929, para Grupos compactos, e em 1934, por Pontryagin, para Grupos abelianos, e # 7 – a irracionalidade e transcendência de alguns números, por Alexander Gelfond, em 1924) ou negativamente (# 10 – resolução da Equação Diofântica, por Yuri Matiyasevich, em 1970, e # 14, provado por Nagata, em 1959). Consequência inevitável dessa expansão e da complexidade dos temas seria a especialização atual, dedicado o pesquisador a algumas poucas áreas. O especialista substituiria o generalista, pelo que muitos autores consideram Poincaré e Hilbert como os últimos grandes matemáticos, por suas extraordinárias contribuições nos diversos ramos, inclusive na Filosofia da Matemática2. 7.2.1.2 Matemática de Âmbito Mundial A Matemática, uma atividade científica, até o final do século XIX, quase que exclusivamente da Europa ocidental e do norte, seria cultivada 2 EVES, Howard. Introdução à História da Matemática. 28 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO e prestigiada, igualmente, em outras partes do Planeta, como Japão e EUA, já no início do século XX, adquirindo rapidamente âmbito mundial. A Alemanha, principal centro de pesquisa, desde Gauss, Jacobi, Riemann, Weierstrass, Dirichlet, Plucker, Grassmann, Clebsch e Krönecker, manteria sua posição privilegiada frente aos demais países, graças às contribuições teóricas de Cantor, Dedekind, Frege, Klein, Frobenius, Minkowski, Planck e Hilbert nos diversos ramos da Matemática. Uma nova geração, com excelente qualificação, adquirida nos grandes estabelecimentos de ensino (como Göttingen, Erlangen, Berlim, Breslau), seria capaz de manter, por algum tempo, a Alemanha na liderança; dessa lista, constam, entre outros, Zermelo, Hausdorff, Stewitz, Landau, Hahn, Emmy Noether, Weyl, Bieberbach e Hopf. O advento do regime nazista e a eclosão da Segunda Guerra Mundial desmantelariam a rede de alta qualidade de ensino e propiciaria a fuga de “cérebros” alemães para outros países, situação que começaria a se reverter a partir dos anos 60, voltando a Alemanha a ser importante centro científico e cultural. A França, de longa tradição matemática (Viète, Desargues, Fermat, Descartes, Pascal, Clairaut, d’Alembert, Lagrange, Monge, Fourier, Cauchy, Galois), mas que perdera a liderança para a Alemanha, continuaria, no entanto, como importante centro de referência matemática. Poincaré é, reconhecidamente, sua maior expressão no período, que contaria, igualmente, com as contribuições de Gaston Darboux, Camille Jordan, Émile Picard, Jacques Hadamard, Élie Cartan, Émile Borel, René Baire, Henri Lebesgue, Gaston Julia e Maurice Fréchet. Uma nova geração de matemáticos (Jean Dieudonné e André Weil seriam os principais colaboradores do Grupo Bourbaki) representada por Henri Cartan, Laurent Schwartz, Jean Pierre Serre, Jean Delsarte, René Thom, Claude Chevalley, Laurent Lafforgue, Jean Christophe Yoccoz e Alain Connes asseguraria a retomada da França no Pós-Guerra como referência na pesquisa matemática. Nesse contexto, caberia citar Alexander Grothendieck, alemão de nascimento, mas francês naturalizado, Medalha Fields, especialista nas áreas da Geometria algébrica, da Álgebra homológica e da Análise funcional, que, apesar de suas críticas ao meio matemático e rebeldia às convenções, é considerado um dos maiores matemáticos da segunda metade do século XX. A Itália, que após sua reunificação política voltara a ter presença marcante no cenário internacional, com Betti, Cremona, Beltrami, Veronese e Bianchi, contaria, na primeira metade do período, com as importantes contribuições de Ricci, Peano, Volterra, Burali-Forti, Castelnuovo, Enriques, Levi-Civita. O fascismo e o conflito de 1939/45 seriam fatores 29 CARLOS AUGUSTO DE PROENÇA ROSA determinantes da queda de produção matemática italiana até meados do século, quando voltariam a prevalecer condições favoráveis ao ensino e à pesquisa. No Pós-Guerra, sobressaíram os trabalhos de Segre, Gian Carlo Rota, Dionisio Gallarati e Enrico Bombieri (Medalha Fields). O filósofo Bertrand Russell seria o grande matemático da Grã-Bretanha na primeira metade do período, contemporâneo de Whitehead, Pearson, Young, Hardy, Paul Bernays, John Littlewood, Dirac. O novo e promissor campo da Computação teria em Turing um de seus iniciadores; da nova geração britânica, da qual caberia citar Michael Atiyah, David Mumford, Simon Donaldson e Richard Borcherds, Andrew Wiles tornou-se famoso com a solução para o Último Teorema de Fermat. O Império Russo, que formara matemáticos de primeira grandeza no passado (Lobachevski, Chebyshev, Kovalevski, Karpov, Ostrogradski) se transformaria, no período atual, como URSS, num dos mais importantes centros de Matemática do Mundo. De uma longa lista de eminentes pesquisadores e teóricos, valeria citar, como exemplo, Markov, Egorov, Luzin, Vinogradov, Aleksandrov, Lyapunov, Chebyshev, Khinchin, Petrovsky, Kolmogorov, Gelfond, Zariski, Bernstein, Gelfand, Aleksandr, Pontryagin, Chermikov e Gnedenko; da nova geração, Margulis, Novikov, Zelmanov, Kontsevich e Voevodsky receberam a Medalha Fields. A Polônia ocuparia um lugar de grande relevância até a II Guerra Mundial; seus mais renomados matemáticos desse período seriam Lukasiewicz, Lesniewski, Sierpinki, Mazurkievski, Tarski, Kuratowski, Banach, Steinhaus, Eilenberg, Mandelbrot e Zygmund. Ainda na Europa, nos Países Baixos sobressaíram Brouwer, Arendt Heyting e van der Waerden; na Hungria Friedrich Riesz, Alfred Haar, John von Neumann, Imre Lakatos, Paul Erdos e Tibor Rado; na Áustria von Mises, Emil Artin e Kurt Gödel; na Bélgica Pierre Deligne e Jean Bourgain (ambos ganhadores da Medalha Fields); na Suécia Harald Cramer, Lars Hörrmander e Erik Fredholm e na Noruega Thoralf Skolem. Até então praticamente circunscrita ao continente europeu, a Matemática passaria, no atual período de seu desenvolvimento, a ser estudada, pesquisada e cultivada em outras regiões. Os EUA, cujos matemáticos do período anterior não contribuiriam significativamente para o desenvolvimento da Matemática, passaria a ter um papel de crescente importância no cenário internacional, convertendo-se, depois do fim da Segunda Guerra Mundial, num dos principais centros de pesquisa, em parte pela chegada de perseguidos e exilados políticos e refugiados europeus, em parte pela excelência da rede universitária. Dickson, Veblen, Polya, Wiener, Wald, Church, Quine, Kleene, Marshall Hall, Shannon, Appel, Paul Joseph 30 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Cohen, Shing Yau, Stephen Smale, William Thurston, John Thompson, David Mumford e Michael Freedman (estes sete últimos matemáticos citados receberam a Medalha Fields) são alguns nomes que atestam o avanço ocorrido no campo da Matemática, pura e aplicada, nesse país. Com a Era Meiji, o governo japonês incentivaria o estudo da Matemática e propiciaria contato e intercâmbio com pesquisadores e entidades estrangeiras, em particular da Alemanha, França e EUA. Desta forma, viria o Japão a se beneficiar com a reformulação do ensino superior e a formação de matemáticos atualizados com o estágio de desenvolvimento da Matemática no Ocidente. Takagi, Suetuna, Shoda e Iyanaga foram dos primeiros beneficiados pela nova política imperial, seguindo-se Sasaki, Kakutani, Iwasawa, Ito e Kodaira (Medalha Fields). Uma nova geração de hábeis matemáticos seria representada por Hironaka (Medalha Fields), Honda, Kumano-Go, Matsushima, Sato e Mori (Medalha Fields). Ainda no Extremo Oriente, a China avançaria bastante na pesquisa matemática durante o período até a Revolução Cultural, conforme atesta o progresso alcançado em vários domínios (aeroespacial, comunicações, computação) que requerem vasto conhecimento e capacidade matemática. A partir dos anos 80, as novas autoridades de Beijing buscariam estabelecer contatos e colaboração com a cultural ocidental, particularmente no campo científico. Desta forma, as perspectivas, já para um futuro próximo, serão de crescente interação de matemáticos chineses com seus colegas ocidentais, e de ampla participação nos foros internacionais, que, além de extremamente proveitosas para a República Popular da China, permitirão ao Ocidente conhecer o real desenvolvimento da Matemática nesse país asiático. O primeiro matemático conhecido da Índia do período atual seria Srinivasa Ramanujan (1887-1920), por seus trabalhos principalmente em Álgebra. A partir de sua independência política, a Índia priorizaria o estudo e a pesquisa matemática, o que lhe criaria condições para desenvolver outros ramos da Ciência pura e aplicada. Os vários países da América Latina (Brasil, Argentina, México, Chile, Cuba, Peru, Venezuela) procurariam recuperar o tempo perdido estimulando, através do ensino e da investigação, em universidades, centros de pesquisa e sociedades, a formação de seus matemáticos e o desenvolvimento do conhecimento dos vários ramos da Matemática. Ainda que não figurem pesquisadores latino-americanos da lista de contemplados com afamados prêmios internacionais, o intenso contato, a estreita colaboração e a constante participação em foros multilaterais asseguram, para o futuro, a crescente presença latino-americana no cenário mundial. 31 CARLOS AUGUSTO DE PROENÇA ROSA 7.2.1.3 Instituições Nacionais Se a pesquisa e o estudo da Matemática superior estiveram, anteriormente, concentrados nos grandes centros universitários (Alemanha, França, Grã-Bretanha, Itália, Rússia e EUA, por exemplo), no período atual passariam a ter grande importância os centros de pesquisa, vinculados ou não às universidades, mas espalhados num grande número de países. Via de regra, tais centros estabelecem áreas de investigação, formam equipes de trabalho, sob a coordenação de um matemático mais experiente, dispõem de recursos financeiros, de pessoal e mantêm contato e colaboração com outras instituições. Um pequeno número desses centros, de uma longa lista, é apresentado a seguir, a título meramente exemplificativo: Centre de Recherches Mathématiques (Universidade de Montreal), Centre de Mathématique de l’École Polytechnique (Paris), Centro de Recerca Matematica (Barcelona), Consiglio Nazionale delle Ricerche (Roma), Euler International Mathematical Institute (São Petersburgo), Geometry Center (Universidade de Minnesota), Institute for Advanced Study (Universidade de Princeton), Instituto de Matemática Pura e Aplicada (Rio de Janeiro), Institut des Hautes Études Scientifiques (Paris), Institute for Pure and Applied Mathematics (UCLA), Isaac Newton Institute for Mathematical Sciences (Universidade de Cambridge), Max Planck Institut für Mathematik (Bonn), Mathematical Sciences Research Institute (Universidade de Berkeley), Research Institute for Mathematical Sciences (Universidade de Kyoto), Clay Mathematics Institute, de Cambridge (Mass. - EUA), Mittag-Leffler Institute (Estocolmo), Center for Scientific Computing (Finlândia), Mathematical Research Institute, dos Países Baixos, Tata Institute for Fundamental Research (Bombaim). Hoje em dia, todo país com razoável e ativa comunidade científica dispõe de um Centro de Pesquisa Matemática e mantém estreito relacionamento com entidades congêneres de outros países. Como no período anterior, quando foram criadas sociedades em alguns países e cidades (como Holanda, Praga, Moscou, Londres, França, Finlândia, Alemanha, Dinamarca, Tóquio, Hungria, São Petersburgo, Palermo, EUA, Bulgária, Romênia), instituições nacionais especializadas para o desenvolvimento, divulgação e cooperação no campo da Matemática seriam fundadas em diversos outros países, dos cinco continentes. Tais sociedades civis não têm vínculos governamentais, não têm fins lucrativos e são financiadas por contribuições e donativos particulares. Suas atividades compreendem, normalmente, realização de simpósios, 32 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO conferências e cursos, além de divulgação de trabalhos em publicações periódicas, de participação em reuniões internacionais e do patrocínio de contatos entre pesquisadores nacionais e intercâmbio com estrangeiros. A titulo exemplificativo podem ser citadas as Sociedades Matemáticas: de Viena (1903) mais tarde denominada Sociedade Austríaca de Matemática, da Polônia (1917), da Noruega (1918), da Grécia (1918), da Bélgica (1921), da Itália (1922), da China (1935), da Argentina (1936), de Portugal (1940), do México (1943), do Canadá (1945), da Coreia (1946), da Islândia (1947), da Turquia (1948), da Suécia (1950), da Austrália (1956), da África do Sul (1957), do Vietnam (1965), do Brasil (1969), da Irlanda (1970), da Malásia (1970), das Filipinas (1972), da Nova Zelândia (1974), do Chile (1982) e da Europa (1990). Tais iniciativas, de cunho nacional, atestam o grande interesse pelo desenvolvimento e divulgação da Matemática, além de terem servido de impulsionadoras de fecunda e mutuamente benéfica cooperação entre matemáticos das diversas nacionalidades. 7.2.1.4 Instituições e Conclaves Internacionais. Premiação No final do século XIX, cientistas de vários países e de diversas especializações começariam a se reunir, de forma regular e periódica, para discutir questões relevantes de sua área de competência. Conferências internacionais, entre outras, de químicos, de astrônomos, de médicos, de biólogos e de estatísticos seriam celebradas com o intuito de permitir debate de temas que requeriam exame conjunto e cooperação multilateral. Célebres são, por exemplo, o Congresso Internacional de Estatística, em Bruxelas (1853) e a Conferência Internacional de Química, em Karlsruhe (1860). O século XX testemunharia, igualmente, uma inédita e ampla cooperação internacional no campo da Matemática3, a qual se iniciara, de forma tímida e restrita, no I Congresso Internacional de Matemática (Zurique, 1897) com cerca de 200 participantes, em que os temas centrais foram as Funções Analíticas e a Teoria dos conjuntos, de Georg Cantor, os Fundamentos da Lógica e as Funções das Funções. O II Congresso Internacional (Paris, 1900), com cerca de 260 participantes, ficou célebre devido à apresentação, por David Hilbert, dos vinte e três problemas que relacionara como os que requereriam maior atenção dos matemáticos nos anos vindouros. Seguiram-se os Congressos de Heidelberg (1904), Roma (1908) e Cambridge, na Inglaterra (1912), 3 TATON, René (dir.). La Science Contemporaine. 33 CARLOS AUGUSTO DE PROENÇA ROSA iniciativas que seriam interrompidas por causa da Primeira Guerra Mundial, mas que não impediria a realização, em 1914, do Congresso de Filosofia da Matemática. Terminado o conflito, seria criado em Bruxelas o Conselho Internacional de Pesquisa (1919), ao qual se associariam as sociedades matemáticas nacionais, e seria fundada a União Internacional de Matemática (UIM), filiada ao Conselho. A partir de 1920, voltaria a se reunir o conclave internacional de Matemática, agora como Congresso Internacional de Matemáticos (CIM), sob a égide da União Internacional de Matemática (UIM). O VI Congresso se realizou em Estrasburgo (1920), enquanto Toronto sediou o VII Congresso (1924) e Bolonha, o VIII Congresso (1928). Em 1931, o Conselho Internacional de Pesquisa transformou-se em Conselho Internacional das Uniões Científicas, com o intuito de congregar as diversas entidades científicas espalhadas pelo Mundo. Em 1932, realizou-se, em Zurique, o IX Congresso Internacional de Matemáticos, com cerca de 670 participantes, de quarenta países; entretanto, problemas vinculados à participação de não membros levariam à dissolução da UIM, mas seria aprovada a criação da Medalha Fields, a ser outorgada, a cada quatro anos, a matemáticos jovens, com relevantes contribuições para o desenvolvimento da Matemática. Apesar de não ser conhecida do grande público, a Medalha Fields é considerada como o Prêmio Nobel da Matemática, e, como tal, muito prestigiada no meio matemático. Uma série de colóquios se realizaria nos anos seguintes: Teoria quântica, 1933; Lógica matemática, 1934; Geometria diferencial, 1934; Topologia, 1935; Probabilidades, 1937. Mesmo com a UIM dissolvida, realizou-se em Oslo (1936) o X Congresso Internacional de Matemáticos, seguindo-se, por causa da Segunda Guerra Mundial, uma longa interrupção de reuniões, só retomada em 1950, com o XI Congresso, em Cambridge (EUA). Em 1951, a União Internacional de Matemática foi recriada ou reconstituída, sendo bastante atuante desde então. Os Congressos Internacionais de Matemáticos que se seguiram foram os de Amsterdã (1954), Edimburgo (1958), Estocolmo (1962), Moscou (1966), Nice (1970), Vancouver (1974), Helsinque (1978), Varsóvia (1983), Berkeley (1986), Kyoto (1990), Zurique (1994), Berlim (1998), Beijing (2002) e Madri (2006). Com o intuito de prestigiar a Matemática e expressar reconhecimento pelo trabalho de matemáticos, várias entidades, nacionais e internacionais, concedem prêmios a relevantes obras nesse campo. Referências a algumas dessas premiações são apresentadas a seguir. 34 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Dentre os laureados com a Medalha Fields da UIM, caberia mencionar Lars Ahlfors (1936), Laurent Schwartz (1950), Kunihiko Kodaira e Jean Pierre Serre (1954), Klaus Roth e René Thom (1958), Alexander Grothendieck, Michael Francis Atiyah, Paul Joseph Cohen e Stephen Smale (1966), Richard Borcherds, William T. Gowers, Maxim Kontsevich e Curtis T. MacMullen (1998), Laurent Lafforgue e Vladimir Voevodsky (2002) e Terence Tao, Andrei Okounkov e Wendelin Werner (2006). Além da Medalha Fields (matemático canadense John Charles Fields, 1863-1932), foram criados: i) em 1981 (e outorgados a cada quatro anos, a partir de 1982) o Prêmio Rolf Nevanlinna, destinado a jovens matemáticos com relevantes contribuições a aspectos matemáticos da Ciência da Computação (Robert Tarjan, em 1982; Leslie Valiant, em 1986; Peter Shor, em 1998; Madhu Sudan, em 2002; e Jon Kleinberg, em 2006) e ii) em 2002 (e outorgado pela primeira vez em 2006 a Hiyoshi Ito) o Prêmio Karl Friedrich Gauss (homenagem pelos 225 anos de nascimento do matemático alemão) para matemáticos cujas pesquisas sejam de relevância para outros campos. Em 1o de janeiro de 2002, o Parlamento norueguês criou o “Fundo Comemorativo Niels Hendrik Abel”, para celebrar o segundo centenário de nascimento do matemático, com a finalidade de conceder prêmio por contribuições relevantes em Matemática. O Prêmio, a ser outorgado, anualmente, a matemáticos de qualquer idade, e que tem o valor aproximado de 750 mil euros, foi concedido, pela primeira vez, em 2003, a Jean Pierre Serre, do Colégio de França, por seus trabalhos em Topologia, Geometria algébrica e Teoria dos Números; em 2004, a Michael Atiyah, da Universidade de Edimburgo, e Isadore Singer, do MIT, por suas pesquisas em Topologia, Análise e Geometria; em 2005, a Peter D. Lax, do Instituto de Ciências Matemáticas da Universidade de Nova York, por seu trabalho em teoria e aplicação de equações diferenciais e à informatização de suas soluções; em 2006, a Lennart Carleson, do Instituto Real de Tecnologia, da Suécia, por suas contribuições à Análise harmônica (Séries Fourier); em 2007, ao indiano Srinivasa, professor do Instituto Courant da Universidade de Nova York; e em 2008, a John Griggs Thompson, professor da Universidade da Flórida e o belga Jacques Tits, do Colégio de França. O Fundo Abel, em parceria com o Centro Internacional de Física Teórica (ICTP) e a União Internacional de Matemática, criaria, ainda, o Prêmio Ramanujam, para homenagear Srinivasa Ramanujam (1887-1920), matemático indiano com relevantes contribuições em Teoria dos Números, Funções elípticas e Séries infinitas. Outorgado aos matemáticos de idade 35 CARLOS AUGUSTO DE PROENÇA ROSA até 45 anos com relevantes pesquisas em países em desenvolvimento, o Prêmio Ramanujam foi concedido pela primeira vez, em 2005, ao brasileiro Marcelo Viana, do Instituto de Matemática Pura e Aplicada (Rio de Janeiro), por seus trabalhos em Sistemas dinâmicos, Teoria ergódiga e Teoria de bifurcação. O Prêmio foi concedido em 2006 à professora indiana Ramdorai Sujatha, e em 2007, a Jorge Lauret. Outros importantes prêmios de caráter internacional são outorgados pela Sociedade Matemática Americana (AMS): i) o Prêmio Böcher, em memória de Maxime Böcher, Presidente da AMS em 1909-1910; concedido desde 1923, atualmente, a cada três anos; já foram laureados, entre outros, David Birkhoff, Marston Morse, John von Neumann, Paul J. Cohen e Alberto Brassan; ii) o Prêmio Frank Nelson Cole, em Álgebra, em homenagem ao Professor Frank Cole (1861-1926), secretário da AMS por vinte e cinco anos e editor-chefe do Boletim da entidade por vinte e um anos; concedido, desde 1928, a membros da Sociedade, por trabalhos sobre Teoria dos Números, publicados nos seis anos anteriores, ou por não membros, desde que os artigos tenham sido publicados pela AMS; atualmente, o prêmio Cole é concedido a cada três anos, o último tendo sido em 2006; dentre os laureados, cabe citar Claude Chevalley, John T. Tate, Andrew Wiles, Peter Sarnak; e Prêmios Leroy P. Steele, criados, em 1970, em homenagem a George David Birkhoff, William Fogg Osgood e William Caspar Graustein, e concedidos, até 1976, anualmente, por pesquisas relevantes no campo da Matemática. A Sociedade, em 1977, modificaria os termos para a concessão dos prêmios, no limite de três por ano e com a criação de três categorias i) pela influência cumulativa do trabalho total matemático do laureado, alto nível de pesquisa por um período de tempo, influência sobre o desenvolvimento de um campo e influência na Matemática por meio de estudantes PhD; ii) por um livro, pesquisa substancial ou um artigo expositivo de pesquisa; e iii) por um trabalho, recente ou não, de grande importância num determinado campo. Solomon Lefschetz e Jean Dieudonné estão entre os laureados da primeira fase, podendo-se citar Antoni Sygmund, André Weil, John Nash, Oscar Zariski, Gian Carlo Rota e Robert Langlands na fase atual. A Fundação Wolf, com sede em Israel, foi criada em 1976, com fundos doados por Ricardo Wolf, e concede, anualmente, prêmios a várias atividades científicas e artísticas (Agricultura, Química, Matemática, Física, Medicina e Arte). Quanto à Matemática, o prêmio é concedido anualmente, tendo sido agraciados, até o momento, entre outros, Izrael Gelfand, Carl Siegel, André Weil, Henri Cartan, Kolmogorov, Paul Erdos, Kiyoshi Ito, Alberto Calderon, Gregori Margulis, Novikov. 36 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.2.1.5 Publicações Em decorrência da importância e do interesse da comunidade intelectual e acadêmica pela Matemática pura e aplicada, aumentariam consideravelmente o número e a qualidade das publicações especializadas, cujo total é, hoje, superior a dois mil títulos. Revistas de universidades e das sociedades e institutos nacionais, de entidades internacionais e de organizações públicas e privadas divulgam e comentam trabalhos, investigações, eventos e obras no amplo campo da Matemática, tornando mais disponível o acesso, pela comunidade científica, às descobertas, linhas de pesquisa e correntes de pensamento. Especial menção deve registrar a contribuição da Mathematical Review, publicada desde 1940, pela Sociedade Matemática Americana (AMS). Em fascículos de cerca de 150 páginas cada um, a revista apresenta, mensalmente, resumo da produção matemática mais importante em todo o Mundo, tornando-se indispensável nas bibliotecas especializadas e de consulta obrigatória da comunidade científica. Os sumários ou resumos críticos de livros e artigos publicados nas principais revistas abrangem 59 grandes títulos, distribuídos em onze partes, que cobrem extensa variedade de temas, tanto de Matemática pura quanto de Matemática aplicada (Mecânica, Elasticidade e Plasticidade, Acústica, Óptica, Termodinâmica, Eletromagnetismo, Mecânica dos fluidos) e questões de Ciências afins (Astronomia, Geofísica, Relatividade, Estrutura da Matéria, Biologia, Economia, Informática, Comunicação). No vasto campo da Matemática pura caberia citar, a título exemplificativo, alguns temas tratados regularmente nos comentários bibliográficos pela Review: Álgebra, Geometria, Análise, Lógica, Teoria dos conjuntos, Topologia, Geometria algébrica, Teoria dos Números, Álgebras e Anéis, Equações integrais, Análise de Fourier, Teoria dos grupos, Probabilidades, Equações diferenciais, Análise funcional. Revistas periódicas, dedicadas a pesquisas, como a polonesa Fundamenta Mathematicae (fundada em 1920, por Sierpinski, Mazurkiewicz e Janizewski), o Journal (1926), da Sociedade Matemática de Londres e a Historia Mathematicae (1974), da Comissão Internacional da História da Matemática, viriam juntar-se a outras importantes publicações especializadas, algumas editadas desde a segunda metade do século XIX, de universidades e sociedades, como a publicação sueca Acta Mathematica (fundada por Mittag-Leffler) e a alemã Matematische Annalen. Atualmente, há um grande número de importantes publicações eletrônicas especializadas em vários ramos da Matemática. A título 37 CARLOS AUGUSTO DE PROENÇA ROSA exemplificativo, caberia citar a Documenta Mathematica (1996), da Sociedade Matemática Alemã, a Annonces de Montpellier en Algèbre (AMA), a Algebraic and Geometric Topology, da Universidade de Warwick, em Coventry (Inglaterra), a Central European Journal of Mathematics, de Varsóvia, o New York Journal of Mathematics e o Lobachevskii Journal of Mathematics, da Universidade Estatal de Kazan. 7.2.1.6 Vínculos e Contribuições A Matemática foi decisiva no advento do espírito científico moderno e no desenvolvimento da Ciência experimental. O crescente e generalizado reconhecimento, nos meios intelectuais e nos círculos governamentais e empresariais, da importância da Matemática aplicada para o progresso tecnológico, comprovado com a Segunda Revolução Industrial, seria um incentivo adicional para os avanços nas investigações matemáticas, que se acelerariam a partir da segunda metade do século XIX. Em consequência, o prestígio do matemático se firmaria na comunidade científica e industrial, o ensino da Matemática se tornaria obrigatório em todos os níveis, se multiplicariam os centros de pesquisa e os cursos especiais, e se intensificaria a colaboração internacional. Se o notável desenvolvimento, expansão, especialização e abstração da Matemática, na atualidade, reforçariam a sua já estreita e tradicional vinculação com outras Ciências4, por outro lado, restringiriam a pesquisa matemática ao profissional. Ao contrário de épocas anteriores, quando foram inúmeros os exemplos de físicos, químicos e biólogos envolvidos em investigações matemáticas e vice-versa, atualmente, a área de pesquisa matemática está restrita, pela complexidade dos temas, aos matemáticos profissionais. As universidades continuariam a desempenhar papel fundamental nos avanços teóricos da Matemática pura, porém seria crescente a investigação em laboratórios e centros de pesquisa, públicos e privados, no campo da Matemática aplicada, em particular na Física e na Engenharia. A Indústria tem sido, portanto, uma das grandes impulsionadoras atuais do desenvolvimento científico, por sua reconhecida dependência de pesquisa tecnológica (Robótica, Nanotecnologia, Cibernética, Informação, Biotecnologia, Meio Ambiente, novos materiais) para aplicação em diversos setores (manufatureiro, radiocomunicação, 4 COTARDIÈRE, Philippe de la. Histoire des Sciences. 38 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO informática, computação, aeroespacial, energia, química, farmacêutica e outros). Diante da premente necessidade de inovação tecnológica numa sociedade competitiva e consumista, setores da indústria mantêm laboratórios de pesquisa, com a participação de matemáticos, cientistas e técnicos, com a finalidade de encontrar solução aos constantes desafios devidos a uma demanda em expansão. A resultante desse quadro de cooperação e vinculação científica e tecnológica de uma Sociedade industrial é o incentivo ao desenvolvimento da investigação matemática. Dessa forma, a inestimável contribuição da Matemática e dos matemáticos ao desenvolvimento científico e tecnológico é hoje amplamente reconhecida. 7.2.1.7 Problemas do Milênio Finalmente, é importante assinalar o novo desafio lançado à comunidade matemática pelo Clay Mathematics Institute, de Cambridge, Massachussets. A exemplo do anúncio, em 1900, de Hilbert, durante a Conferência Internacional de Matemáticos, em Paris, do que se convencionou chamar de “os vinte e três problemas matemáticos”, o mencionado Instituto, em reunião no Collège de France (Paris), em maio de 2000, estabeleceu um prêmio de um milhão de dólares para a solução de cada um dos seguintes sete problemas, chamados de “problemas do Milênio”: Conjectura Birch e Swinnerton-Dyer (1965), Conjectura Hodge (1950), Conjectura Poincaré (1904), Equações Navier-Stokes (1850), P versus NP (1971), Hipótese Riemann (1859) e Teoria Yang-Mills (1950). 7.2.1.8 Temas Em vista das características atuais da Matemática, o exame de sua evolução neste período começará com um capítulo sobre Fundamentos e Filosofia da Matemática, seguido de outro sobre Desenvolvimento da Matemática, no qual serão abordados vários temas, como Álgebra moderna, Teoria dos Números, Geometria algébrica, Geometria diferencial, Geometria fractal, Topologia, Equações diferenciais, Análise funcional, Integração e Medida. Os temas da Teoria das Probabilidades e da Cibernética/Computação serão examinados em dois tópicos em separado e independentes. 39 CARLOS AUGUSTO DE PROENÇA ROSA 7.2.2 Fundamentos e Filosofia da Matemática As importantes questões dos Fundamentos e da Filosofia da Matemática, temas estreitamente relacionados, serão examinados em três tópicos: Axiomatização, Paradoxos da Teoria dos conjuntos e Filosofia da Matemática. 7.2.2.1 Axiomatização O questionamento dos Fundamentos da Matemática em função de objeções e críticas a conceitos e princípios, aceitos, até então, sem discussão, determinaria o início do reexame, no século XIX, das suas próprias bases, o que, pela importância e repercussões do tema, seria o assunto central das investigações da Matemática na atualidade. A busca pelo rigor matemático em seus Fundamentos levaria a uma série de revisões de seus pressupostos, que resultaria no triunfo de uma postura de bases mais sólidas para a Matemática. O resultado foi a criação da Axiomática, ou estudo de um conjunto de postulados e suas propriedades principais, conhecidas como da “consistência” (não pode haver contradições), da “independência” (não serem consequência lógica um do outro) e da “equivalência” (os conceitos primitivos de cada um deles podem ser definidos por meio de conceitos primitivos do outro, e os postulados de cada um podem ser deduzidos dos postulados do outro)5. Desde a criação do Cálculo infinitesimal (Leibniz, Newton) surgiram objeções a certas noções imprecisas e complexas (diferencial, infinitesimal) e a certas contradições, como a de a quantidade “h” ou “dx” ser zero e não ser zero na mesma operação. O reconhecimento generalizado da necessidade de maior rigor nos Fundamentos da análise (d’Alembert, Euler, Lagrange, Gauss, Cauchy, Bolzano, Grassmann, Weierstrass, Peano) originaria noções de continuidade de uma função, de derivada, de limite, de integral de uma função, de convergência e mesmo da definição de “infinitamente pequeno”. O interesse em estabelecer raízes sólidas e seguras, igualmente, para a Álgebra (Dedekind, Cantor, Weierstrass) seria tentado por Frege (Os Fundamentos da Aritmética, 1884, e As Leis Básicas da Aritmética, 1893 e 1903), com base na Teoria dos conjuntos (Cantor), cuja abrangência tinha repercussões em toda a Matemática. Peano, em Os Princípios de Aritmética logicamente expostos, 1889, e no Formulário Matemático (1894-1908), 5 EVES, Howard. Introdução à História da Matemática. 40 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO estabeleceria a base axiomática para seus Fundamentos da Aritmética. Hilbert, que reduzira a consistência dos axiomas da Geometria aos da Aritmética, conceberia um método (formalismo) destinado à axiomatização da Aritmética. A base conceitual dedutiva da Matemática, firmemente estabelecida pelos gregos na Geometria com Euclides, por meio de teoremas fundamentados em axiomas (verdades evidentes indemonstráveis) e postulados (admitidos sem discussão), seria questionada, a partir do surgimento das Geometrias não euclidianas (Lobachevski, Bolyai, Riemann). A axiomatização da Geometria, por Hilbert (Fundamentos da Geometria, 1898-1899) substituiria os cinco axiomas e os cinco postulados por vinte e um postulados (oito sobre a incidência, quatro para propriedades de ordem, cinco acerca da congruência, três sobre continuidade e um postulado sobre paralelas), os quais enfeixam pressupostos fundamentais e certos termos básicos não definidos (ponto, reta, plano). Nesse sentido, Hilbert defendia que as relações não definidas deveriam ser tratadas como abstrações, e a necessidade de abstração dos conceitos geométricos, como a substituição de “pontos, retas e planos”, por “mesas, cadeiras, canecas de cerveja”6. Nessa mesma época, Peano publicaria Os Princípios de Geometria logicamente expostos (1899), influenciado pela afirmação (1882), de Moritz Pasch, de que a dedução deveria independer dos significados de conceitos geométricos. A axiomatização da Álgebra começaria com os trabalhos de George Peacock, em 1830, no Treatise on Algebra, no qual iniciaria um trabalho de fundamentação lógica axiomática, a exemplo da Geometria de Euclides; no mesmo sentido seria a obra de Augustus de Morgan, no mesmo ano de 1830, intitulada Trigonometry and Algebra. As pesquisas para uma sólida e rigorosa fundamentação dos ramos da Matemática (Álgebra, Geometria, Análise) se estenderiam à Teoria dos conjuntos, em vista de sua ampla repercussão em vários domínios. A Teoria dos conjuntos seria axiomatizada por Ernst Zermelo (1871-1953) em 1908, na publicação Newer Beweis, sendo seu sistema constituído por sete axiomas: da extensão, de conjuntos elementares, de separação, de conjunto de poder, de união, de escolha e do infinito. Com vistas a evitar paradoxos, inclusive descobertos pelo próprio Zermelo, o sistema axiomático seria refinado, independentemente, por Adolf Fraenkel (1891-1965) em duas oportunidades (1922 e 1925) e pelo norueguês Thoralf Skolem (1887-1963), em 1922 e 1929. O atual sistema axiomático da Teoria dos conjuntos (dez axiomas – da extensão, do conjunto vazio, dos pares, 6 BOYER, Carl B. História da Matemática. 41 CARLOS AUGUSTO DE PROENÇA ROSA da união, do infinito, de conjunto de poder, da regularidade, da separação, da substituição e da escolha) é hoje conhecido como ZFS, iniciais dos três matemáticos. Outro sistema axiomático (mencionado, igualmente, mais adiante, na parte relativa à corrente formalista) para a Teoria dos conjuntos seria estabelecida por John von Neumann (1903-1957), Paul Bernays (1888-1977) e Kurt Gödel (1906-1978), conhecido pela inicial dos três matemáticos NBG. Inicialmente formulado por von Neumann, em 1925, 1928 e 1929, o sistema seria modificado, em 1937, por Bernays, e simplificado por Gödel, em 1940. O húngaro von Neumann, estudante de Hilbert em Göttingen, em 1926-1927, daria importantes contribuições em várias áreas, como Álgebra, Teoria dos conjuntos, Análise funcional e Mecânica quântica. Pioneiro da Teoria dos jogos (autor, com Oskar Morgenstern, do livro Teoria dos Jogos e o Comportamento Econômico, de 1944), e pioneiro da Ciência da computação, von Neumann participaria do Projeto Manhatann, e seria um dos seis primeiros professores do recém-criado Instituto de Estudos Avançados, de Princeton (os outros cinco professores eram Albert Einstein, Hermann Weyl, Oswald Veblen, Harold Marston Morse e James Waddell Alexander). Em sua tese de doutorado (1925), von Neumann aprimoraria a axiomatização de Zermelo e Fraenkel, da Teoria dos conjuntos. Para tanto, introduziria o “axioma da fundamentação”, pelo qual seria possível excluir a possibilidade de conjuntos pertencerem a si mesmos, e as definições de “conjunto” como uma classe que pertence a outras classes e de “classe própria” como classe de todas as classes que não pertencem a si mesmas. Em 1917, o lógico Paul Bernays (1888-1977) se juntaria a Hilbert, e, na condição de assistente em Göttingen, colaboraria em novas contribuições para a Lógica formal, com um sofisticado desenvolvimento de lógica de primeira ordem, base do curso de 1917, de Hilbert, sobre Princípios da Matemática e da palestra, em 1923, sobre os Fundamentos lógicos da Matemática. Bernays, além de revisar, em 1956, os Fundamentos da Geometria, de Hilbert, escreveria (1937/54) uma série de artigos no Journal of Symbolic Logic (fundado em 1935), com o propósito de estabelecer um conjunto de axiomas para base da Teoria dos conjuntos, ao mesmo tempo em que colaboraria com Hilbert no preparo do livro Fundamentos da Matemática (primeiro volume, em 1934, e o segundo em 1939). Em 1931, Kurt Gödel (1906-1978), austríaco nascido na cidade de Brno (República Tcheca), publicaria um pequeno trabalho que teria uma influência decisiva na filosofia da Matemática. Em sua Consistência do Axioma da Escolha e da Generalizada Hipótese do Contínuo com os Axiomas da 42 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Teoria dos Conjuntos, Gödel formularia dois teoremas, conhecidos como Teoremas da incompletude, concluindo que nos sistemas matemáticos a completude é incompatível com a consistência, uma das propriedades da Axiomática. Desta forma, seria impossível estabelecer uma base axiomática para toda a Matemática, uma vez que haveria proposições cuja verdade ou falsidade não poderia ser demonstrada com os axiomas do sistema. Gödel mostraria (1938/40), ainda, que se os axiomas da Teoria (restrita) dos conjuntos (Zermelo/Fraenkel) são consistentes, eles deveriam continuar a ser, com a adição do “axioma da escolha” e da “Hipótese do contínuo”, postulados que não podem ser, portanto, desaprovados pela Teoria estrita dos conjuntos. Em outras palavras, pelos dois Teoremas da incompletude, o sistema não pode ser consistente e completo, pelo que concluiria Gödel, de forma revolucionária, pela limitação fundamental do método axiomático: qualquer sistema matemático é essencialmente incompleto, isto é, dado qualquer conjunto consistente de axiomas aritméticos, sempre existem enunciados aritméticos verdadeiros não dedutíveis desses axiomas. Se o sistema é consistente, a consistência dos axiomas não pode ser provada pelo sistema. O impacto da obra de Gödel seria de grande alcance, colocando em posição defensiva, mas atuante, as três principais correntes do pensamento matemático, conforme ocorreu no Congresso Internacional de Lógica e Metodologia da Ciência, em Stanford (1960). Na segunda metade do século XX, as divergências entre os seguidores das tendências logicista, intuicionista e formalista tenderiam a ser minimizadas, buscando-se uma conciliação que atendesse ao objetivo geral de colocar a Matemática em bases firmes e seguras. Seria o caso, por exemplo, de Alonzo Church (1903-1995), professor das Universidades de Princeton e da Califórnia, fundador do Journal of Symbolic Logic (1936), formulador, em 1936, do Teorema de Church sobre a “indemonstrabilidade” da Aritmética de Peano (ampliando a prova de incompletude de Gödel) e da “tese Church-Turing”, e descobridor do “Cálculo lambda”. Church é autor, entre outras obras, de Formulação de uma Simples Teoria de Tipos (1940), Introdução à Lógica Matemática (1944, e ampliado em 1956), Bibliografia de Lógica Simbólica, Um Problema Insolúvel da Teoria dos Números e Sobre o Conceito de Sequência Aleatória (1940). Willard Quine (1908-2000), autor de Lógica Elementar (1941), Métodos de Lógica (1950), Lógica Matemática (1961), Teoria dos Conjuntos e Sua Lógica (1963), A Filosofia da Lógica (1970), buscaria via diferente, com algumas alterações das teses do Principia Mathematica de Russell, a axiomatização da Teoria dos conjuntos. 43 CARLOS AUGUSTO DE PROENÇA ROSA O matemático americano Paul Joseph Cohen nascido em 1934 e professor de Stanford (1964) tornou-se mundialmente conhecido ao provar a independência na Teoria Restrita dos Conjuntos (Zermelo/Fraenkel) do axioma da escolha e da Hipótese do contínuo, ou seja, que não podem ser provados verdadeiros ou falsos. Pela solução da Hipótese do contínuo, problema que consta como número um da lista de Hilbert, seria Cohen agraciado com a Medalha Fields, em 1966, na reunião do Congresso Internacional de Matemáticos, em Moscou. 7.2.2.2 Paradoxos da Teoria dos Conjuntos O rigor requerido nos Fundamentos da Matemática poria em relevo a grave crise surgida, em 1897, com a descoberta, por Cesare Burali-Forti (1861-1931), de um paradoxo, ou antinomia, na Teoria dos conjuntos, posto que contradições na teoria colocariam em dúvida a própria validade dos alicerces da Matemática. O paradoxo se refere ao conjunto de todos os números ordinais, os quais são conhecidos como “números transfinitos” dos conjuntos infinitos; Burali-Forti observara que o conjunto bem ordenado formado por todos os números ordinais era contraditório. Conforme a teoria desenvolvida por Georg Cantor, o principio básico é o de que, dado um número transfinito qualquer, sempre existe um número transfinito maior, de forma que, assim como não há número natural máximo (nos conjuntos finitos), também não há um número transfinito máximo. No caso de um conjunto cujos membros são todos os conjuntos possíveis, nenhum conjunto poderia ter mais membros do que o conjunto de todos os conjuntos. Como explicar, então, que pode haver um número transfinito maior que o número transfinito desse conjunto? Consta que Cantor, em 1896, teria escrito a Hilbert reconhecendo a existência do paradoxo, a ser anunciado, no ano seguinte, por Burali-Forti. Em 1899, o próprio Cantor descobriria um segundo paradoxo derivado da noção de números transfinitos, que, por envolver apenas, como o de Burali-Forti, resultados da Teoria dos conjuntos, não teria maiores repercussões7. Em 1902-1903, porém, o filósofo, matemático e lógico Bertrand Russell descobriria um terceiro paradoxo na Teoria dos conjuntos, o qual, por suas profundas implicações na parte básica da Teoria, não poderia ser ignorado, e teria imediata repercussão nos meios intelectuais. O paradoxo, que se refere ao conjunto de todos os conjuntos que não são membros deles próprios, 7 STRUIK, Dirk. História Concisa das Matemáticas. 44 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO é hoje, conhecido como “paradoxo das classes”. Esse conjunto de todos os conjuntos parece ser membro dele mesmo, se e somente se não é membro dele mesmo; daí o paradoxo. “Seja “S” o conjunto de todos os conjuntos que não são elementos de si próprios. Pergunta: S é um elemento de si próprio? Se for, então não é um elemento de si próprio; se não for, então é um elemento de si próprio”8. Uma versão muito popular (1919) deste paradoxo, do próprio Russel, é a do apuro do barbeiro de uma pequena cidade que estabeleceu a regra de fazer a barba de todas as pessoas da cidade, somente delas, que não se barbeavam a si mesmas e somente dessas. A situação paradoxal surge com a pergunta “o barbeiro se barbeia a si mesmo?” se ele não se barbeia a si mesmo, então ele se enquadra em sua regra, e se ele se barbeia a si mesmo, então ele não se enquadra em sua regra. Este tipo de contradição lembra os paradoxos lógicos já apresentados pelos gregos, como a de Eubúlides (século IV a. C.) de que “a afirmação que estou fazendo agora é falsa”; ou a do cretense Epiménedes, de que “todos os cretenses são sempre mentirosos”. Russell, em 1903, escreveria ao filósofo e lógico Gottlob Frege, autor de Os Fundamentos da Aritmética (1884), e que acabara de escrever o segundo volume de As Leis Fundamentais da Aritmética, dando-lhe conhecimento da contradição que encontrara na Teoria dos conjuntos, de Cantor, ao mesmo tempo em que o consultava sobre como solucionar o paradoxo de “conjuntos são Grupos de elementos semelhantes”. Alguns conjuntos são também elementos de conjuntos que definem; assim, o conjunto de todas as frases é um membro de si mesmo, pois é também uma frase, como o conjunto de ideias abstratas é uma ideia abstrata. Outros conjuntos, por sua vez, não são membros de si mesmos; assim, o conjunto de todos os gatos não é, ele próprio, um gato. Desta forma, haveria “conjuntos contendo todos os conjuntos que são elementos de si mesmos” e “conjuntos de todos os conjuntos que não são elementos de si mesmos”. Ora, o conjunto de todos os conjuntos que não são elementos de si mesmos é ou não é membro de si mesmo? Se integrar o conjunto, deverá ser, então, um conjunto que não é elemento de si mesmo; se não integrar o conjunto, pertence, então, a outro conjunto dos conjuntos que são elementos de si mesmos. Na impossibilidade de resolver a contradição, Frege ainda teria tempo de acrescentar ao final da obra: “Dificilmente um cientista pode enfrentar uma situação mais desagradável do que a de presenciar o abalo dos fundamentos de uma obra sua, logo depois de concluí-la, pois uma carta do senhor Bertrand Russell, exatamente quando este segundo volume estava prestes a ser concluído, colocou-me nessa situação...”9. 8 9 STRUIK, Dirk. História Concisa das Matemáticas. EVES, Howard. Introdução à História da Matemática. 45 CARLOS AUGUSTO DE PROENÇA ROSA As questões suscitadas pelas antinomias ou paradoxos na Teoria dos conjuntos, com reflexos sobre a viabilidade e a conveniência da aplicação rigorosa da axiomatização dos Fundamentos da Matemática, provocariam polêmica e dissensões de ordem filosófica no meio matemático. 7.2.2.3 Filosofia Matemática Três principais tendências ou correntes de pensamento, em função do desenvolvimento e aplicação da Axiomática, se delinearam, desde o início do período, e seriam cruciais nos debates sobre os rumos futuros da Matemática: a Lógica, a Intuitiva e a Formal. Dadas suas amplas implicações na atualidade da Matemática, é conveniente o exame dessas tendências em tópicos em separado, sendo o primeiro referente ao logicismo e o último relativo ao formalismo. Vale consignar terem tais Escolas um número considerável de seguidores, mas cujos principais representantes foram, no caso do logicismo, Bertrand Russell; do intuicionismo, Luitzen Brouwer; e do formalismo, David Hilbert. 7.2.2.3.1 Logicismo A Lógica formal, desenvolvida pelos gregos, em particular Aristóteles, para sistematizar o pensamento, se utilizava exclusivamente da linguagem corrente, fonte de imprecisões e ambiguidade. Nos tempos modernos, a partir do desenvolvimento da Álgebra, cresceria a convicção, no meio intelectual, da necessidade, para uma abordagem científica da Lógica, da introdução de uma linguagem simbólica, a qual facilitaria o entendimento e permitiria a brevidade do texto. Leibniz é, comumente, citado como o pioneiro dessa Lógica simbólica, porquanto em sua obra De arte combinatoria (1666) defendeu uma linguagem científica universal. O tema ressurgiria com os trabalhos de George Boole (The Mathematical Analysis of Logic, 1847, e An Investigation into the Laws of Thought, 1854), de Augustus De Morgan (Formal Logic, 1847), com vários artigos e trabalhos de Frege, Georg Cantor, Weierstrass, Dedekind, Peano, Charles Peirce e Schröder. Por sua influência no desenvolvimento da Lógica simbólica merecem referência especial os trabalhos de Frege (Fundamentos da Aritmética, 1884, e Leis Básicas da Aritmética, 1893-1902) e de Giuseppe Peano (Cálculo Geométrico, 1888, e Formulário Matemático, 1894-1908). 46 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Apesar dos avanços na “aritmetização” (dos números reais aos números naturais), não fora obtida a redução da Matemática à Lógica, pois faltava ainda nesse processo a inclusão da Teoria dos conjuntos. A tentativa fracassada de Frege, diante do paradoxo descoberto por Russell, de lidar com a questão do conjunto de números, forçaria o lógico alemão a abandonar a crença e o empreendimento de reduzir a Aritmética à Lógica. Convencido de que a Teoria dos conjuntos poderia servir de base para a Matemática, o próprio Russell retomaria o tema, ao qual seria dado um tratamento para incluir a teoria de Cantor na Lógica matemática, e, inclusive, para eliminar o paradoxo descoberto. Essa iniciativa geraria o chamado logicismo, cujo subproduto é a Teoria dos tipos, criada justamente para contornar o paradoxo. Bertrand Arthur William Russell (1872-1970), nascido no País de Gales, de família aristocrática, autor de cerca de quarenta livros sobre Matemática, Lógica, Filosofia, Sociologia e Educação, preso quatro vezes por suas atividades pacifistas, líder do movimento de proscrição das armas nucleares e Prêmio Nobel de Literatura (1950), foi o principal expoente, na história da aplicação do método axiomático, da tese logicista. Russell se propunha construir toda a Matemática através da dedução lógica a partir de um pequeno número de conceitos e princípios de natureza puramente lógica10. Nesse sentido, a Matemática seria um ramo da Lógica, a qual proporciona as regras pelas quais a base (conjunto de postulados) poderia expandir-se para se transformar num corpo de teoremas11. A obra representativa dessa tendência, conhecida como logicismo, é Principia Mathematica (1910/13), escrita por Russell, com a colaboração de Alfred North Whitehead (1861-1947). Professor de Matemática no Trinity College (1885-1911), no University College de Londres, no Imperial College of Science and Technology da Universidade de Londres (1914-1924) e de Filosofia na Universidade de Harvard, até sua aposentadoria, em 1936, Whitehead é autor de Ensaio sobre os Fundamentos da Geometria (1897), Álgebra Universal (1898) e artigos sobre axiomas de Geometria projetiva e descritiva (1906, 1907). O projeto Frege/Russell/Whitehead, objetivo do Principia Mathematica, era reduzir a Matemática à Lógica, a qual estaria axiomatizada. A ideia básica do Principia Mathematica é, no dizer do já citado Howard Eves, a identificação de grande parte da Matemática com a Lógica pela dedução do sistema de números naturais, e, portanto, do grosso da Matemática, a partir de um conjunto de premissas ou postulados da 10 11 STRUIK, Dirk. História Concisa das Matemáticas. EVES, Howard. Introdução à História da Matemática. 47 CARLOS AUGUSTO DE PROENÇA ROSA própria Lógica. Dessa forma, a Matemática estaria com uma sólida base axiomática, derivada da Lógica. Com o propósito de eliminar os paradoxos, Russell/Whitehead desenvolveriam a Teoria dos tipos, cuja ideia central é a de que todas as entidades referidas na Teoria dos conjuntos (conjuntos, conjuntos de conjuntos, conjuntos de conjuntos de conjuntos, etc.) deveriam ser escalonados ou distribuídos numa hierarquia de níveis, ou tipos, de elemento, cada entidade pertencendo a um só tipo. Os elementos primários formariam o tipo 0; o tipo 1, seguinte, seria constituído por conjuntos cujos elementos são entidades do tipo anterior; ao tipo 2, pertenceriam apenas entidades do tipo 1, anterior; ao terceiro tipo, as entidades do tipo 2, e assim por diante. Nessas condições, a Teoria dos conjuntos só tomaria em consideração as entidades situadas num dos tais tipos, não tendo mais sentido considerar conjuntos com os elementos que não fossem entidades de tipo imediatamente inferior. Com isto, estariam evitadas as antinomias, mas, ao mesmo tempo eram introduzidas restrições na Teoria dos conjuntos. A fim de evitar tais restrições, Russell formularia o “axioma da redutibilidade”, que, por ser arbitrário e artificial, seria bastante criticado, e, mesmo, rejeitado, pela comunidade matemática. Os dois maiores matemáticos do início do século XX, Poincaré e Hilbert, seriam críticos das teses do logicismo Russell/Whitehead. O ideal de Russell, da transformação da Matemática hipotético-dedutiva a uma Lógica absoluta, cujos princípios fossem intelectualmente evidentes, não seria, assim, atingido. 7.2.2.3.2 Intuicionismo A corrente intuicionista surgiu por volta de 1908, com o matemático holandês L. E. J. Brouwer, vindo a exercer grande influência nos debates sobre os Fundamentos da Matemática. Luitzen Egbertus Jan Brouwer (1881-1966) nasceu em Roterdã, mas passou grande parte de sua vida profissional em Amsterdã. Em 1908, escreveu A Não Confiabilidade dos Princípios Lógicos, no qual rejeitaria o princípio do “terceiro excluído”, pelo qual uma proposição só pode ser “falsa ou verdadeira”. Em 1918, formularia uma Teoria dos conjuntos sem usar o princípio do terceiro excluído no Fundando uma Teoria dos Conjuntos independente do Princípio do Excluído. Em 1920, além da conferência sobre Todos os Números Reais têm uma Expansão Décima? (na que deu resposta negativa à pergunta), Brouwer 48 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO publicaria a Teoria Intuicionista dos Conjuntos, e, em 1927, desenvolveria a Teoria das funções em No Domínio da Definição das Funções, sem utilizar o princípio do excluído. Como editor (1914) da revista Matematische Annalen, opôs-se firmemente ao uso indiscriminado da reductio ad absurdum, rejeitando artigos, submetidos à publicação, que apoiassem ou aplicassem a lei do terceiro excluído em proposições cuja veracidade ou falsidade não pudesse ser decidida num número finito de operações. A intransigência de Brouwer criaria grave crise na comissão editorial da Revista, que, após renúncia coletiva, reelegeu todos os seus integrantes, menos Brouwer. Pela afronta, o governo holandês criaria uma revista rival, com Brouwer em sua direção (Compositio Mathematica, 1934). Brouwer é, ainda, um dos fundadores da moderna Topologia, sendo o formulador do “Teorema do ponto fixo” (toda função contínua da bola fechada n-dimensional nela mesma tem pelo menos um ponto fixo) e do Teorema da invariância (a dimensionalidade de uma variedade numérica n-dimensional cartesiana é um invariante topológico). Os antecedentes mais recentes do intuicionismo se encontram na obra de Leopold Krönecker (1823-1891) que, nos anos 80, já se opusera à ideia de Richard Dedekind (1831-1916) de totalidade dos números, defendendo a noção de os números não existirem como totalidade, mas como coleção aberta, a que sempre podem ser acrescentados novos elementos. Defendia, assim, o infinito potencial, em contraste com o infinito real, na terminologia clássica. A construção do número no processo de contagem, se não tem fim, não significa totalidade, em que todos os números estariam numa só classe. Matemáticos do quilate de Poincaré, Lebesque e outros, seriam críticos do logicismo e da Teoria dos conjuntos de Cantor, defendendo apenas números nomeáveis, desenvolvendo uma Teoria própria dos conjuntos e das funções mensuráveis. Èmile Borel (1871-1956), mais restritivo, só consideraria o que poderia ser “efetivamente calculado”. Poincaré, crítico dos trabalhos de Peano sobre a axiomatização da Aritmética, sustentaria, ainda, que não poderia a Matemática prescindir da intuição. A tese central da corrente filosófico-matemática, denominada de intuicionista, é a de que a Matemática deve ser “desenvolvida apenas por métodos construtivos finitos sobre a sequência dos números naturais, dada intuitivamente”12. Assim, a base da Matemática seria uma intuição primitiva, aliada ao nosso “sentido temporal de antes e de depois”, o que nos permite conceber um objeto, depois mais um, depois mais outro, e assim por diante, indefinidamente. Das sequências infindáveis assim 12 EVES, Howard. Introdução à História da Matemática. 49 CARLOS AUGUSTO DE PROENÇA ROSA obtidas, a mais conhecida seria a dos números naturais. A partir dessa base intuitiva (sequência dos números naturais), a elaboração de qualquer outro objeto matemático deveria ser feita, necessariamente, por processos construtivos, mediante um número finito de operações. Assim, para o intuicionismo a prova da existência de uma entidade é que ela possa ser construída num número finito de passos ou operações. Um conjunto não pode ser imaginado como uma coleção acabada, mas sim por meio de uma lei pela qual os elementos do conjunto possam ser construídos passo a passo, o que elimina a possibilidade de conjuntos contraditórios, como o conjunto de todos os conjuntos. Como esclarece Howard Eves, na tese intuicionista, o desenvolvimento genético da Matemática seria levado aos seus últimos extremos. Outra característica dessa corrente é a negação da aceitação universal do princípio do terceiro excluído, ou, em outras palavras, a aceitação deste princípio somente no domínio do finito, o que vale dizer que é aplicável para conjuntos finitos, não para conjuntos infinitos, razão do surgimento de paradoxos. Assim, só se poderia concluir se uma proposição é verdadeira fazendo-se uma demonstração construtiva dela num número finito de passos, como só se poderia concluir por sua falsidade por meio de uma prova de falsidade num número finito de passos. Até que se estabeleça uma ou outra dessas demonstrações, a proposição não seria nem falsa, nem verdadeira, e o princípio do terceiro excluído inaplicável. O apoio do matemático Hermann Weyl (1885-1955) traria prestígio, visibilidade e respeitabilidade ao intuicionismo. Weyl escreveria, em 1921, A Nova Crise dos Fundamentos da Matemática, mas, ainda na década dos anos vinte, em vista de seu interesse pela Física e pela Teoria da relatividade (Espaço, Tempo, Matéria, de 1919), assumiria uma posição menos rigorosa quanto à Matemática não construtiva. Em 1949, Weyl publicaria Filosofia da Matemática e Ciências Naturais. Num simpósio realizado em Königsburgo, em setembro de 1930, estabeleceu-se famosa controvérsia entre Carnap (logicismo), von Neumann (formalismo) e Arendt Heyting (intuicionismo), cada um defendendo o ponto de vista da tendência a que se filiara. O holandês Heyting (1898-1980), discípulo de Brouwer, apresentaria, na ocasião, uma versão um pouco diferente da de Brouwer, mas mais aceitável, da lógica intuitiva, em linha semelhante à defendida por Kolmogorov. Em 1934, Heyting publicaria Intuicionismo e a Prova da Teoria, na qual descreveu e contrastou, em forma de diálogo, as teses do intuicionismo e do formalismo, desenvolvendo, assim, uma lógica intuicionista. Com Heyting, a Matemática intuicionista criaria seu próprio tipo de Lógica. 50 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.2.2.3.3 Formalismo A Escola conhecida como “formalista” foi criada por David Hilbert (1862-1943), com o objetivo de enfrentar as teses defendidas pelo intuicionismo. Nascido em Königsburgo (hoje Kaliningrado, na Rússia), defendeu sua tese de PhD na Universidade dessa cidade, onde exerceu o magistério, como professor titular (1893-1894), e professor na Universidade de Göttingen, de 1895 a 1930, Hilbert é o mais importante e influente matemático alemão do século XX, e reputado como o último generalista no campo da Matemática. Dentre suas inúmeras e significativas contribuições, em diversas áreas, caberia mencionar: Teoria algébrica dos invariantes (1885-1892) e Teoria dos Números algébricos (1893-1899), Fundamentos da Geometria (1898-1899), o Problema de Dirichlet e o Cálculo das variações (1900-1905), Equações integrais, incluindo a Teoria espectral e o conceito de Espaço (até 1912), Fundamentos da Matemática, Lógica simbólica, e na Física matemática contribuições à Teoria cinética dos gases e à Relatividade, e à Mecânica quântica. Foi, ainda, editor (1902) da conceituada revista Matematische Annalen; definiu, em 1900, grande parte (as famosas vinte e três propostas de investigação) dos trabalhos atuais matemáticos e escreveu Tratado dos Números (1897), Fundamentos da Geometria (1899) e Os Fundamentos da Matemática (publicado o primeiro volume em 1934, e o segundo, em 1939), além de um grande número de artigos e opúsculos. As críticas de Brouwer e Weyl à Matemática clássica motivariam Hilbert a tentar eliminar dúvidas sobre os Fundamentos da Matemática. Seu projeto seria combinar a Axiomática com a nova lógica, sem esquecer o valor do conteúdo conceitual das teorias matemáticas. Isto permitiria uma formalização completa das teorias matemáticas, facilitaria a análise da relação lógica entre os conceitos básicos e os axiomas, e promoveria o desenvolvimento de uma “teoria da demonstração”, que considerava as demonstrações como resultado de meras combinações de símbolos segundo regras formais prescritas. A proposta formalista consta do conhecido Programa de Hilbert, formulado inicialmente em 1920, mas apenas formalizado no ano seguinte, que evoluiria com as contribuições de Bernays, Ackermann e von Neumann, e teria grande influência sobre a obra de Kurt Gödel, cujos teoremas da incompletude foram motivados pelo Programa, apesar de ter demonstrado não ser possível levar adiante o Programa de Hilbert. Os antecedentes datam de seus trabalhos em Geometria, que culminaram com a publicação, em 1899, dos Fundamentos da Geometria, seguida 51 CARLOS AUGUSTO DE PROENÇA ROSA imediatamente com a formulação do segundo problema da lista dos “vinte e três problemas da Matemática”, de 1900, ou seja, o relativo à consistência dos axiomas da Aritmética: se esta consistência existe, então a dos axiomas geométricos pode ser estabelecida13, tendo apresentado provas de tal consistência em 1905. Nos Fundamentos da Geometria, Hilbert apresentou 20 axiomas, agrupados em axiomas de incidência (8), de ordem (4), de congruência (5), das paralelas (1) e de continuidade (2). Autores costumam mencionar os seguintes dois motivos para o atraso na submissão de seu Programa: críticas de Poincaré às provas apresentadas em 1905 e o próprio reconhecimento da necessidade, para uma investigação axiomática, de estabelecer melhor um formalismo lógico. A publicação, em 1910-1913, da Principia Mathematica, de Russell e Whitehead, levaria Hilbert a retomar o tema dos Fundamentos da Matemática, objeto de conferência, em 1918, na Sociedade Matemática Suíça, com o título Pensamento Axiomático (Axiomatic Thought), na qual enfatizaria a importância da consistência nos sistemas axiomáticos. Paul Bernays (1888-1977), assistente de Hilbert em Göttingen, colaboraria na preparação do curso de 1917, de Hilbert, sobre Princípios da Matemática e da palestra, em 1923, sobre os Fundamentos lógicos da Matemática. Bernays escreveria (1937-1954) uma série de artigos no Journal of Symbolic Logic (fundado em 1935, publicado pela AMS), com o propósito de estabelecer um conjunto de axiomas para base da Teoria dos conjuntos, e colaboraria, ainda, com Hilbert, no preparo do livro Fundamentos da Matemática (primeiro volume em 1934 e o segundo em 1939). Em seu esforço por estabelecer bases sólidas e lógicas ao formalismo, Hilbert prepararia, ainda, com Wilhelm Ackermann (1896-1962), em 1928, a obra Princípios de Lógica Teórica (Principles of Theorethical Logic); Ackermann, em 1937 e 1956, escreveria sobre provas da consistência da Teoria dos conjuntos. O Programa de Hilbert envolvia duas etapas: a formalização de toda a Matemática, isto é, dedução pelos axiomas da parte básica da Matemática e constatação de que a aplicação de tais regras não acarretaria contradições. A investigação seria feita por métodos matemáticos – metateoria –, que Hilbert chamou de “metamatemática”, ou “teoria da demonstração”, afastando procedimentos postos em dúvida pela corrente intuicionista, e exigindo apenas argumentos “finitistas”, ou seja, tratar-se sempre de um número finito e determinado de objetos e Funções. Em alocução na Conferência Internacional de Matemáticos, em Bolonha (1928), Hilbert manifestaria seu otimismo quanto à consistência da Teoria dos Números (trabalhos de Ackermann e de von Neumann) e, por conseguinte, sua confiança na axiomatização da Matemática e em seu Programa. 13 STRUIK, Dirk. História Concisa das Matemáticas. 52 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Em setembro de 1930, Kurt Gödel, em conferência em Königsburgo anunciaria seu primeiro Teorema da incompletude, o qual viria a ter imenso impacto sobre o programa formalista de Hilbert. Por sua importante contribuição no campo da Axiomática e pela repercussão de suas pesquisas sobre as teses do logicismo e do formalismo, o trabalho de Kurt Gödel merece especial referência. Nascido em Brno (atualmente na Eslováquia), na época cidade pertencente ao Império Austro-Húngaro, de família de origem austríaca, Gödel formou-se pela Universidade de Viena, interessando-se por Matemática e Lógica matemática. Participou do Círculo de Viena (Schlick, Carnap, Hans Hahn) e esteve presente na Conferência Internacional de Matemáticos, em Bolonha (1928), onde Hilbert expressara sua confiança em seu Programa formalista. Com a anexação da Áustria pela Alemanha, Gödel emigraria para os EUA em 1940, tendo exercido a cátedra do Instituto de Estudos Avançados de Princeton, de 1953 a 1976. Seus principais trabalhos são Consistência do Axioma da Escolha e da Hipótese do Contínuo com os Axiomas da Teoria dos Conjuntos (1931) e Universos Rotativos na Teoria Geral da Relatividade (1950). O opúsculo de 1931 revelaria o fracasso das tentativas para demonstrar “metamatematicamente” a consistência da Aritmética, ou de um sistema suficientemente amplo para abranger a Aritmética, o que significava não ser possível axiomatizar, como pretendiam Russel e Hilbert, a Matemática. Os dois Teoremas de Gödel demonstram que em qualquer sistema matemático há proposições que não podem ser demonstradas como falsas ou verdadeiras pelos axiomas do sistema, no que redunda não se poder provar a consistência dos axiomas. Em outras palavras, em qualquer conjunto de axiomas há proposições que são indemonstráveis. Ilustração clássica de “teorema que não pode ser demonstrado” foi oferecido pelo matemático russo/alemão Christian Goldbach (1690-1764) na conhecida “conjectura Goldbach” – todos os números pares maiores de quatro se decompõem na soma de dois números primos (4 = 3+1; 6 = 3+3; 8 = 3+5; 10 = 3+7; 12 = 5+7; 14 = 3+11... 52=5+47... 100 = 3+97 = 11+89 = 17+83 = 29+71 = 41+59 = 47+53; etc. Não foi encontrado, até hoje, número par que não pudesse ser decomposto dessa maneira, mas também não se achou meio de demonstrar que o fato é aplicável a qualquer número par. A Escola formalista, apesar das repercussões dos Teoremas de Gödel, continuaria a ser a tendência preponderante no meio matemático, em que pese o crescente reconhecimento do importante papel da Lógica simbólica nos fundamentos matemáticos. 53 CARLOS AUGUSTO DE PROENÇA ROSA A questão filosófica da fundamentação da Matemática segue, assim, como tema central dos debates, delineando-se a tendência de se evitar a confrontação de posições radicais e intransigentes e de se estabelecer um clima que permita formulações que atendam ao interesse geral de assentar a Matemática em alicerces seguros. 7.2.3 Desenvolvimento da Matemática Sob o título geral de Desenvolvimento da Matemática, serão examinados alguns dos mais relevantes tópicos da evolução da Álgebra, da Geometria, e da Análise na atualidade, período fecundo de grandes inovações e pesquisas aprofundadas nos diversos ramos. Nesse sentido, os temas a serem examinados são Álgebra moderna, Teoria dos Números, Geometria, Topologia, Equações diferenciais, Análise. Ainda que formalmente não seja a Topologia um ramo específico da Matemática, muitas vezes estudada uma de suas partes na Álgebra (Topologia algébrica) e outra parte na Geometria (Topologia geral), o tema, por sua crescente importância e repercussões em diversas áreas de investigação matemática, será abordado num único tópico. 7.2.3.1 Álgebra Moderna A Álgebra da atualidade é bastante distinta da Álgebra do período anterior, não se limitando mais ao estudo das operações de números e à resolução de equações. O emprego de letras para designar incógnitas e coeficientes de equações pressupunha que as letras representavam números (inteiros, racionais, naturais, etc.). A descoberta, pelo matemático irlandês William Rowan Hamilton (1805-1865) dos números quaterniões, cuja multiplicação não é comutativa, isto é, a “ordem dos fatores altera o produto”, significaria uma verdadeira revolução na Matemática, o que determinaria a procura de outras “álgebras não comutativas” (Arthur Cayley, James J. Sylvester, Hermann Grassmann, Benjamin Peirce, George Boole). Ao mesmo tempo, ocorriam progressos na Teoria das equações, com Lagrange, Ruffini, Galois – com sua Teoria de grupo de permutações (1832), Abel, Cauchy e Cayley (Grupo abstrato). Dada essa evolução a uma maior abstração, passaria a Álgebra a se ocupar, além da Teoria dos Números e da Teoria das equações em sentido lato, de noções oriundas de outros ramos da Matemática, enriquecendo-se, 54 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO assim, com novos campos de pesquisa. As novas áreas de investigação, que se convencionou chamar de “estruturas algébricas”, como Grupo, Corpo, Ideais, Anéis, se transformariam no principal objeto de pesquisa da Álgebra na atualidade, alterando significativamente suas tradicionais características; em outras palavras, o objetivo da Álgebra passou, assim, a ser, fundamentalmente, o estudo das estruturas básicas das operações matemáticas. A Álgebra na atualidade lida, assim, com entes abstratos, elementos dos conjuntos. Nesse processo evolutivo, as contribuições de Hilbert, Emmy Noether, Emil Artin, van der Waerden e Steinitz são fundamentais. Tal transformação radical explicaria alguns autores adotarem a denominação de Álgebra moderna ou Álgebra abstrata14. Anel foi um termo criado em Matemática por Hilbert, no final do século XIX, para significar uma estrutura algébrica, com duas operações binárias (adição e multiplicação) e com propriedades similares às dos inteiros. Este conceito remonta a Richard Dedekind, e se originou da Teoria dos anéis de polinômios e da Teoria de inteiros algébricos, por Dedekind, Krönecker e Kummer. Pouco depois, Joseph Wedderburn (1882-1948) contribuiria, em 1905, com A Theorem on Finite Algebras, com a introdução do uso de números hipercomplexos e a criação de álgebras finitas. Adolf Fraenkel (1891-1965), mais conhecido por sua contribuição ao sistema axiomático de Zermelo, da Teoria dos conjuntos (axiomas Zermelo-Fraenkel), em artigo publicado em 1914 apresentaria uma definição axiomática para Anéis. A Teoria algébrica dos Corpos foi criada por Ernst Steinitz (1871-1928), em 1910, motivado pelo trabalho de Kurt Hensel (1861-1941) sobre “Corpos p-ádicos”15. Em seu trabalho Teoria Algébrica dos Corpos daria Steinitz a primeira definição abstrata de Campo, sistema de elementos que tem duas operações (adição e multiplicação), satisfazendo a “propriedades de tipo associativo, comutativo e distributivo”. O desenvolvimento da nova Álgebra prosseguiria no Pós-Guerra, com a importante contribuição de Emmy Noether (1882-1935) no campo dos Anéis abstratos e teoria dos Ideais16. Filha do matemático Max Noether (1844-1921), estudioso de Geometria algébrica e professor em Erlangen, onde nasceria a mais importante e conhecida algebrista da atualidade, Emmy cursou Erlangen onde concluiu seu doutorado (1907) em Matemática, permanecendo aí até 1916, como supervisora de estudantes de doutorado e como conferencista (sem salário). Convidada, deslocou-se para TATON, René. La Science Contemporaine. BOYER, Carl. História da Matemática. 16 EVES, Howard. Introdução à História da Matemática. 14 15 55 CARLOS AUGUSTO DE PROENÇA ROSA Göttingen, onde trabalharia na equipe de Hilbert (1917-1933), inicialmente como conferencista sem salário, e a partir de 1922, como professora-adjunta. Em 1921, publicaria Teoria Ideal em Anéis, no campo de Anéis comutativos, trabalho cujo valor seria constatado, anos mais tarde, no meio matemático. Apesar da resistência inicial do círculo acadêmico (Universidade de Göttingen) em autorizar posição de ensino a uma mulher, sua competência era reconhecida, no entanto, por ilustres matemáticos alemães, como Hilbert, Klein, Planck, Einstein e Weyl. A resistência para sua designação como assistente de Hilbert só seria parcialmente vencida com a intervenção de seu protetor, que criticaria a discriminação na base do sexo com a conhecida declaração de acreditar ser a Universidade de Göttingen uma casa de ensino, não de banhos; perseguida pelo regime nazista foi lecionar (1933) no Bryn Mawr College, nos EUA (Pensilvânia), onde faleceria de infecção após uma intervenção cirúrgica. Emmy é autora de um teorema, conhecido por seu nome, no campo da Física, ao estabelecer a conexão entre as leis da Simetria e da Conservação. Bartel van der Waerden (1903-1996) foi professor nas Universidades de Leipzig, Amsterdã e Zurique, e pesquisou em diversas áreas, como Álgebra moderna, Geometria algébrica, Topologia, Teoria das probabilidades, Teoria dos Números, Geometria, Estatística, Mecânica quântica, além de ter-se dedicado e escrito sobre a História da Matemática, da Física, da Astronomia e da Ciência antiga. Sua contribuição à Álgebra moderna, no campo da Teoria dos anéis, foi na obra intitulada Álgebra Moderna, publicada em 1930, em dois volumes, cujo segundo volume se baseou no trabalho de Emmy Noether, o que daria notoriedade à algebrista alemã. Emil Artin (1898-1962) é autor de Teoria de Galois (1942), Anéis com Condição Mínima (1948), Álgebra Geométrica (1957) e Teoria dos Corpos de Classes (1961); foi professor na Universidade de Indiana e Princeton durante sua permanência nos EUA, e de regresso à Alemanha (1956), voltaria a lecionar na Universidade de Hamburgo (1958-1962); em 1927, notabilizou-se por resolver o problema n° 17 (a representação de Funções definidas, por meio de quocientes de somas de quadrados de Funções) da famosa lista de problemas de Hilbert. Pesquisou na Teoria dos Números, mas sua maior contribuição foi nas teorias de Anéis, Grupos e Campos, e no desenvolvimento da chamada Função-L. Em 1944 descobriu Anéis de condições mínimas para-Ideais, hoje chamados de Anéis de Artin. Sua principal área de pesquisa seria a dos Corpos de classe, da qual fora pioneiro o matemático japonês Teiji Takagi (1875-1960) num trabalho publicado em 1920, generalizando trabalho de Hilbert sobre Corpos de classe. Em 1923, Artin desenvolveria uma Equação funcional para uma 56 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO nova Série-L, da qual resultaria sua obra mais importante, escrita em 1927; sua “lei da reciprocidade”, que engloba leis anteriores, constitui um avanço significativo na Álgebra abstrata. Artin é também conhecido por sua Teoria das Tranças (1925), importante contribuição no campo da Topologia algébrica. Em relação à Teoria de Corpos de Classe, caberia mencionar a contribuição de Claude Chevalley (1909-1984), integrante do Grupo Bourbaki, em seus trabalhos de 1936 e 1941 (Teoria de Corpos de Classe), ao introduzir métodos algébricos em substituição ao uso de Funções-L. 7.2.3.1.1 Teoria dos Números A importância dos números primos na formação dos números inteiros consta do Teorema fundamental da Aritmética, o que explica o continuado interesse em seu estudo. Em prosseguimento aos trabalhos, no final do século anterior, de Jacques Hadamard (1865-1963) e Charles de La Vallée-Poussin (1866-1962) sobre o Teorema dos números primos de Gauss, nova demonstração, mais curta, seria apresentada pelo alemão Edmund Landau (1877-1938). Dentre as contribuições nas pesquisas sobre diferentes aspectos dos números primos devem ser mencionadas as de Waclaw Sierpinski, Godfrey Hardy e Eliakim H. Wright. Em 1742, em carta a Euler, o matemático russo-alemão Goldbach apresentou a conjectura de que todo o número inteiro superior a cinco (5) é a soma de três números primos. Este teorema ainda não foi estabelecido, apesar das várias tentativas desde sua formulação. Em 1922, Hardy e John Littlewood (1885-1977) demonstrariam, parcialmente, que todos os números ímpares maiores que seis (6) são a soma de três números primos, e, depois, Ivan Vinogradov (1891-1983), em 1937, demonstraria esta proposição. No que se refere aos números transcendentes ou algébricos, Alexander Gelfond (1906-1968) demonstraria a proposição de Euler, constante como problema n° 7 na Lista de Hilbert, sobre a irracionalidade de certos números: se no número ab, o a é um número algébrico diferente de 0 e 1 e o b um número algébrico e irracional, a resposta é afirmativa – o número ab é transcendente. Hilbert, em 1910, provaria o teorema do algebrista inglês Edward Waring (1734-1798), de que todo inteiro positivo pode ser representado como soma de no máximo “m” potências “n-enésimas”, sendo m uma função de n17. 17 BOYER, Carl. História da Matemática. 57 CARLOS AUGUSTO DE PROENÇA ROSA A questão da aritmética das curvas algébricas foi estudada por André Weil, Carl Siegel e Thoralf Skolem entre outros. Mais recentemente, Enrico Bombieri seria premiado com a Medalha Fields de 1974 por seus trabalhos, entre outros temas, sobre Teoria dos Números, como The large sieve in the analytic theory of numbers (1973), Simultaneous Approximations of Algebraic Numbers (1973), On large sieve inequalities and their Applications (1973), Le grand crible dans la théorie analytique des nombres (1974), Nuovi metodi e nuovi risultati nella teoria dei numeri (1968) e Small Differences between Prime Numbers (1966). 7.2.3.1.2 Teoria dos Conjuntos Criada por Georg Cantor, na segunda metade do século XIX, a Teoria dos conjuntos se transformaria, em pouco tempo, em influente teoria com repercussões nas diversas disciplinas matemáticas. Dado que antinomias (paradoxos) descobertas por Burali-Forti, Cantor e Russell poriam em dúvida a validade da teoria e a viabilidade de se estabelecer base axiomática para os Fundamentos da Matemática, o assunto se constituiria num dos grandes debates científicos do início deste período. A evolução da Teoria na atualidade foi, em consequência, examinada no tópico anterior sob a rubrica geral de Fundamentos e Filosofia da Matemática. 7.2.3.2 Geometria No vasto campo da Geometria, quatro disciplinas são examinadas a seguir. 7.2.3.2.1 Geometria Algébrica A Escola italiana de Geometria, principalmente por meio de Luigi Cremona (1830-1903), Giuseppe Veronese (1854-1917), Guido Castelnuovo (1865-1952), Federigo Enriques (1871-1946) e Francesco Severi (1879-1961), avançaria nas pesquisas no campo da Geometria algébrica, no final do século XIX, tendo, inclusive, Castelnuovo e seu discípulo Enriques, produzido, nos primeiros anos do século XX, trabalho conjunto sobre superfícies algébricas. 58 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Após as pesquisas de Poincaré sobre curvas numa superfície, o assunto avançaria, com os trabalhos pioneiros de Solomon Lefschetz (1884-1972), autor de tese de doutorado em 1911 On the existence of loci with given singularities, seguido, em 1921, de On certain numerical invariants of algebraic varieties with application to Abelian varieties, e em 1924, com a monografia Análise Situ e Geometria Algébrica. Nesses trabalhos, seria desenvolvido o chamado “principio Lefschetz”, que justifica o emprego de técnica topológica em Geometria algébrica. De acordo com a tendência prevalecente de maior abstração, a partir da década de 30 a Geometria algébrica entraria em outra fase, na qual seria exigido mais rigor e menos intuição no tratamento do assunto. Tendo estudado em Roma, influenciado pelos italianos, Oscar Zariski (1899-1986), nascido na Bielorrússia (na época, parte da Rússia), emigrou para os EUA em 1927, onde seria professor em John Hopkins University (1937) e Harvard (1947); publicaria, em 1935, Superfícies Algébricas, em que aplicaria Álgebra comutativa com vistas a obter rigor em seus estudos. Na mesma direção pesquisariam André Weil (1906-1998), autor de Fundamentos da Geometria Algébrica (1946), Friedrich Hirzebruch, nascido em 1927, autor de Novo Método Topológico em Geometria Algébrica (1956) e Claude Chevalley (1909-1984), autor, igualmente, de Fundamentos da Geometria Algébrica, de 1958. Wolfgang Krull (1899-1971), mais dedicado à Teoria dos anéis, sob influência de Emmy Noether, pesquisaria, igualmente, no campo da Geometria algébrica, com o emprego de Anéis no estudo de propriedades locais de variedades algébricas. Nova fase se iniciaria com os trabalhos de unificação da Geometria algébrica do controvertido Alexander Grothendieck, nascido em 1928, na Alemanha, mas naturalizado francês; integrante do Grupo Bourbaki, é considerado um dos mais importantes matemáticos da segunda metade do século. Agraciado com a Medalha Fields de 1966, por sua concepção de “teoria K” e seu Documento Tohoku, que revolucionaria a Álgebra homológica, Grothendieck é autor de Elementos de Geometria Algébrica (sete volumes, de um total previsto de 12), publicados na década de 60 pelo Instituto de Altos Estudos Científicos (IHES) de Paris, e de sete seminários de Geometria algébrica. Sua obra influenciaria trabalhos dos demais matemáticos pesquisadores nesta área. Uma série de brilhantes matemáticos daria valiosas contribuições ao desenvolvimento da Geometria algébrica, como Kunihiko Kodaira (1915-1997) que recebeu, em 1954, a Medalha Fields por suas investigações em Geometria algébrica; o francês Pierre Samuel, nascido em 1921, autor de Métodos de Álgebra Abstrata em Geometria Algébrica (1955); Abraham 59 CARLOS AUGUSTO DE PROENÇA ROSA Seidenberg (1916-1988) que escreveu The Hyperplane sections of normal varieties (1950) e o livro Elementos da Teoria das Curvas Algébricas (1968); Jean Pierre Serre, já citado no tema da Topologia, foi atuante em Geometria algébrica, autor de Faisceaux Algébriques Cohérents (1955), Géométrie Algébrique et Géométrie Analytique (GAGA), Grupos de Classes e Campos de Classe (1959); Michael Atiyah, com a tese de doutorado em Cambridge (Reino Unido) em 1955 Some Applications of Topological Methods in Algebraic Geometry, Heisuke Hironaka, nascido em 1931, laureado com a Medalha Fields em 1970 por seus trabalhos sobre singularidades de variedades algébricas; o belga Pierre Deligne, nascido em 1944, pesquisador em generalização da teoria do esquema, agraciado com a Medalha Fields em 1974; o alemão Gerd Faltings, nascido em 1954, pela comprovação, em 1983, do Teorema de Bordell por meio da Geometria algébrica, o que lhe valeria em 1986 a Medalha Fields; Shing-Tung Yau, nascido em 1949, Medalha Fields de 1988 por suas pesquisas em Geometria algébrica tridimensional; Shigefumi Mori, nascido em 1921, Medalha Fields de 1990 por seu trabalhos sobre classificação de superfícies algébricas; o ucraniano Vladimir Drinfeld, nascido em 1954, Medalha Fields de 1990 por suas pesquisas em Teoria dos Números e Geometria algébrica; o russo Vladimir Voevodsky, nascido em 1966, agraciado com a Medalha Fields de 2002 por sua contribuição à teoria dos esquemas e ao desenvolvimento da cohomologia e das variedades algébricas, coautor, com André Suslin e Eric Friedlander, de Cycles, Transfers, and Motivic Homology Theories; David Munford, nascido em 1937, na Inglaterra, mas radicado nos EUA, laureado da Medalha Fields (1974), e atualmente na Universidade Brown, é autor de Curves on an Algebraic Surface e The Red Book of Varieties and Scheme 0073z. 7.2.3.2.2 Geometria Projetiva Dentre as diversas contribuições, na atualidade, no campo da Geometria projetiva, devem ser mencionadas as do estadunidense Oswald Veblen (1880-1960), em seus trabalhos Finite Projective Geometries (1906), com William H Bussey, Collineations in a Finite Projective Geometry, NonDesarguesian and non-Pascalian Geometries (1908) sobre os axiomas da Geometria projetiva, e Geometria Projetiva (1910/18, em dois volumes), com John W. Young; as de Reinhold Baer (1902-1979) em Álgebra Linear e Geometria Projetiva de 1952; as de Harold Coxeter (1907-2003), em The Real Projective Plane (1955), Introduction to Geometry (1961) e Geometry Revisited (1967); e Abraham Seidenberg (1916-1988), em Lectures on Projective Geometry. 60 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.2.3.2.3 Geometria Diferencial A Geometria diferencial, interface da Geometria e Análise, tem esse nome por se utilizar do Cálculo diferencial. Desenvolvida em épocas anteriores, principalmente com as contribuições básicas de Euler, Monge e Gauss, como estudo das propriedades das curvas e superfícies, e suas generalizações, avançaria, no início do período atual, com os trabalhos de Gregorio Ricci (1853-1925) e Tullio Levi-Civita (1873-1941), particularmente quanto ao Cálculo diferencial. O tema ganharia maior visibilidade com o anúncio, em 1915, de Einstein, da descoberta de suas equações gravitacionais, que constituíam “um verdadeiro triunfo dos métodos do Cálculo diferencial geral fundado por Gauss, Riemann Christoffel, Ricci...”18. A partir dessa data, se intensificariam as pesquisas. Ricci, em 1917, introduziria seu conceito de paralelismo, e na década seguinte, daria curso na Universidade de Roma; Jan Schouten (1883-1971) se dedicaria a trabalhos diversos sobre Análise tensorial e sobre os Cálculos de Ricci; Oswald Veblen escreveria The Invariants of quadratic differential forms, publicado em 1927, e The Foundations of Differential Geometry, de 1932, ambos sobre a Geometria de Riemann, e o holandês Dirk Struik (1894-2000) é autor de conferências e artigos reunidos em Lectures on Classical Differential Geometry. O francês Élie Cartan, autor, em 1945, de Les Systèmes Différentiels Extérieurs et leurs Applications Géométriques, aplicaria o cálculo das formas diferenciais exteriores à Geometria diferencial, e por suas contribuições (definição de conexão e noção de Espaço de Riemann simétrico) é reconhecido como inovador na matéria19. Pesquisadores mais recentes são o francês Alain Connes, premiado com a Medalha Fields de 1982 por suas pesquisas em Geometria diferencial em geral; Michael Freedman, nascido em 1951, nos EUA, laureado pela solução da conjectura Poincaré para dimensão 4, com a Medalha Fields e o Prêmio Veblen, ambos em 1986; Mikhail Gromov, laureado em 1999 com o Prêmio Balzan de Matemática, por suas pesquisas em Geometria diferencial e formulador da teoria sobre curvas pseudo-holomórficas; e Jeff Cheeger, nascido em Nova York, em 1943, professor do Departamento de Matemática da Universidade de Nova York, ganhador do Prêmio Veblen, de 2001, pelo conjunto de sua contribuição em Geometria diferencial, em especial Geometria de Riemann; escreveu com Mikhail Gromov alguns artigos em Topologia. 18 19 BOYER, Carl. História da Matemática. BOYER, Carl. História da Matemática. 61 CARLOS AUGUSTO DE PROENÇA ROSA 7.2.3.2.4 Geometria Fractal Formas naturais complexas, (árvore, folhagem, frutas, legumes, rios, nuvens, montanhas, veios de cristais, etc.), encontradas em objetos e fenômenos da Natureza são, muitas vezes, de difícil definição pela Geometria tradicional. Algumas figuras matemáticas, como as Curvas de Hilbert e de Koch, e o conjunto de Cantor, encontravam iguais dificuldades de adequada definição. Weierstrass, Poincaré, Gaston Julia (1893-1978) e Pierre Fatou (1878-1929) procederiam a alguns estudos e pesquisas, mas o tema nunca chegou a despertar maior interesse e preocupação no meio matemático, tanto mais que não se dispunha, então, de instrumental capaz de oferecer uma solução geométrica para essas formas naturais e matemáticas. Ramo da Geometria que estuda as propriedades e comportamento dos fractais, a Geometria fractal foi criada e desenvolvida por Benoit Mandelbrot, na obra Les objets fractals, forme, hasard et dimension, de 1977, complementada e ampliada pelo livro The Fractal Geometry of Nature, de 1982. O termo “fractal”, derivado da palavra latina fractus para “quebrado”, “fraturado”, foi utilizado por Mandelbrot em 1975 para designar um objeto geométrico que pode ser dividido em partes, das quais cada uma semelhante ao objeto original. Nascido em 1924, na Polônia, mas emigrante na França, em 1936, onde estudou, se formou (Escola Politécnica) e trabalhou (Centro Nacional de Pesquisa Científica); pesquisou Mandelbrot também no Instituto de Estudos Avançados de Princeton, trabalhando, posteriormente, no Centro de Pesquisa Watson, da IBM, e lecionando na Universidade de Yale. Na ausência de uma definição geral, todos os fractais têm algo em comum, pois são resultado de um processo de iteração (repetitivo, recorrente), ou seja, de um processo geométrico elementar do qual resulta uma estrutura final de aparência extraordinariamente complicada; assim, estuda a Geometria fractal as formas geométricas que não variam com a mudança de escala, ou seja, que mantêm a propriedade de similaridade. Alguns conjuntos e curvas eram conhecidos com anterioridade (chamadas de “curva monstro”), como o conjunto de Cantor e as Curvas de Hilbert e de Koch, porém o estudo sistemático desses objetos seria devido a Mandelbrot, que, com a ajuda de gráficos por computador, criaria famoso conjunto. 62 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.2.3.3 Topologia A Topologia trata das propriedades que permanecem inalteradas após deformações elásticas das figuras geométricas, ou seja, propriedades topológicas que não mudam, mesmo quando o objeto seja esticado ou entortado, mas não rasgado. A Topologia estuda os Espaços topológicos, noção mais ampla e abrangente que a da configuração geométrica. Ramo bastante novo da Matemática, a Topologia teve como pioneiros Leibniz (que usou o termo analysis situ para designar geometria de posição), Euler (famoso estudo das pontes de Königsberg), Gauss, Riemann (Espaço), Listing (cunhou o nome “Topologia”), Cantor (conjunto de pontos), Möbius (banda de Möbius), Enrico Betti (conexidade) e Poincaré (homologia, autor de Analysis Situ, de 1895, Conjectura). Inicialmente vinculado à Geometria, o crescente interesse e volume de pesquisas transformariam a Topologia, na atualidade, num ramo independente e tão importante e extenso quanto a Álgebra, a Geometria e a Análise. Suas áreas são estudadas na Topologia geral (continuidade em Espaços gerais), Topologia algébrica (ligação da Topologia com a Álgebra, associando estruturas algébricas a um Espaço topológico com o objetivo de obter informações sobre o Espaço; exemplos são Grupos de homologia e Grupos de homotopia) e Teoria das variedades (estudo das variedades ou da generalização da ideia de superfície). Uma série importante de estudos e análises daria, no início do atual período, um grande impulso ao desenvolvimento e estruturação da Topologia. Poincaré, prosseguindo em seus trabalhos sobre Topologia, formularia, em 1904, sua famosa conjectura relativa às propriedades de superfícies em duas, três ou mais dimensões, ou, em outras palavras, sob certas condições algébricas uma superfície e uma esfera, ambas de dimensão 3, do ponto de vista topológico são iguais. Em 1960, Stephen Smale (1930) conseguiu demonstrá-la para superfícies esféricas de dimensão 5, ou superiores, e Michael Freedman (1951), em 1981, para dimensão 4; falta, até hoje, a demonstração da conjectura original de que qualquer variedade tridimensional fechada é uma esfera tridimensional. Não tendo sido resolvido, até o momento, esse problema, a conjectura foi incluída como um dos sete problemas do Milênio pelo Instituto de Matemática Clay. A solução apresentada por Grigori Perelman, do Instituto de Matemática de Steklov (São Petersburgo) para comprovar a conjectura de Poincaré ainda está sob exame (2008). O americano Oswald Veblen (1880-1960) escreveria, em 1905 Theory on plane curves in non-metrical analysis “situ” e publicaria Analysis Situ, em 63 CARLOS AUGUSTO DE PROENÇA ROSA 1922, e Maurice Frechet (1878-1973), em 1906, definiria Espaço métrico, sendo autor, em 1926, de Os Espaços Abstratos. O húngaro Frigyes Riesz (1880-1956) avançaria na Conferência Internacional de Matemáticos, em Roma (1909), a ideia de abandono da métrica e um novo enfoque axiomático de definição de pontos-limites, sem o conceito de distância. O holandês Luitzen Brouwer, cujas contribuições o colocam como um dos principais estudiosos da Topologia estabeleceria, em 1911, o Teorema da invariância topológica, anunciaria vários teoremas de pontos fixos, definiria Espaço topológico, generalizaria o Teorema de Jordan e desenvolveria método de exame por meio de aproximações, e Hermann Weyl (1885-1955), em 1913, sugeriria o uso de “vizinhança” para definir Espaço topológico. Esta fase pode ser considerada concluída com o trabalho do matemático alemão Félix Hausdorff (1868-1942), considerado, por muitos, como o fundador da Topologia; sua obra Aspectos Básicos da Teoria dos Conjuntos, de 1914, criou o chamado Espaço topológico, a partir de quatro axiomas, cuja generalização da noção de Espaço métrico é marco na evolução do tema20. O amplo interesse despertado pela Topologia, por sua abrangência e relação com demais ramos da Ciência, no meio matemático, determinaria um grande avanço nas pesquisas. O polonês Kazimier Kuratowski (18961980), baseando-se na obra de Brouwer, daria, em 1922, os contornos atuais do conceito de Espaço topológico, e o americano James W. Alexander (1888-1971) escreveria, em 1926, Combinatorial Analysis “situ”, e elaboraria a teoria hoje conhecida como Tteoria Alexander-Spanner. O russo-americano Solomon Lefschetz (1884-1972) contribuiria para o desenvolvimento da Topologia com sua teoria do hiperplano, o Teorema do ponto fixo, com as obras Analysis “Situ” e a Geometria Algébrica (1924) e Topologia Algébrica, de 1942. Nos anos trinta, caberia mencionar as pesquisas do russo Andrei Kolmogorov (1903-1987), que introduziria a noção de Grupo cohomológico (1936), independente de Alexander, e definiria o Anel cohomológico, apresentado na Conferência Internacional de Topologia, em Moscou (1935). O alemão Heinz Hopf (1894-1971) escreveria, com o russo Pavel Aleksandrov (1896-1982), em 1935, Topologia, tendo preparado trabalhos sobre Topologia algébrica e Grupos homológicos, e definido as chamadas invariantes Hopf (1931). O russo Ivan Petrovsky (1901-1973) efetuou estudos sobre Topologia de curvas e superfícies algébricas. Nos anos 20/30 se desenvolveria a Teoria dos Espaços vetoriais topológicos, na base dos trabalhos de Frigyes Riesz, Hans Hahn e Stefan 20 BOYER, Carl. História da Matemática. 64 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Banach21, que se distinguiu, igualmente, no estudo de Integração, Teoria da medida e Séries ortogonais. Os trabalhos do russo Lev Pontryagin (1908-1988) seriam apresentados numa coletânea intitulada Grupos Topológicos, e o francês Jean Dieudonné (1906-1992) contribuiria, igualmente, com seus estudos para o avanço na pesquisa em Topologia geral e Espaços vetoriais topológicos. O Grupo Bourbaki reconheceria a importância da Topologia, dedicando-lhe o terceiro volume da obra Elementos de Matemática. Os capítulos I e II seriam publicados em 1940, e os III e IV, em 1942; após a Guerra, o Grupo retomaria o projeto com Samuel Eilenberg (1913-1998) e Laurent Schwartz (1915-2002) como os principais redatores dos capítulos seguintes: V, VI e VII, publicados em 1947, o VIII e o IX em 1948 e o capítulo X em 1950. A aplicação do chamado método estruturalista, pelo Grupo, determinaria uma hierarquização das estruturas matemáticas pela combinação de três estruturas elementares: algébrica, de ordem e topológica (na base das noções de vizinhança, continuidade e limite). A noção de estrutura topológica adquire, assim, especial importância na Matemática moderna. O grande interesse atual pela Topologia explica o aparecimento de revistas especializadas e a farta literatura, a criação de entidades dedicadas à pesquisa topológica e a celebração de reuniões regionais e internacionais específicas. Em número crescente, jovens matemáticos têm se empenhado no estudo deste assunto, o que significa forte indício de continuar a Topologia, no futuro próximo, como ramo importante da Matemática. Michael Atiyah, nascido em Londres, em 1929, professor em Oxford, Princeton e Cambridge (Grã-Bretanha), laureado pela Medalha Fields (1966) por seus trabalhos em Topologia e Geometria algébrica, desenvolveu a teoria K, em colaboração com Friedrich Hirzebruch; é autor do livro Teoria K (1967) e recebeu o Prêmio Abel (2004) com o matemático americano Isadore Singer (1924), pela formulação do Teorema índice, que inter-relaciona Geometria, Álgebra, Topologia e Cálculo. O francês René Thom (1923-2002), mais conhecido por sua Teoria da Catástrofe (Estabilidade Estrutural e Morfogênese), de 1972, receberia, em 1958, a Medalha Fields por suas pesquisas em Topologia, em particular sobre “classes características” e seu Teorema de transversalidade. Nos anos sessenta e posteriores, foram ativos em pesquisas topológicas o americano Stephen Smale (1930), ganhador da Medalha Fields em 1966 por seu trabalho acerca da Conjectura Poincaré, e pesquisador na área de sistemas dinâmicos; John Willard Milnor, nascido nos EUA, em 1931, laureado em 1962 com a Medalha Fields por sua prova de que 21 TATON, René. La Science Contemporaine. 65 CARLOS AUGUSTO DE PROENÇA ROSA uma esfera de dimensão 7 pode ter diversas (28) estruturas diferenciais; é autor de Topology from the Differentiable Viewpoint, Morse Theory, The h-Cobordism Theorem, Dynamics in One Complex Variable e Singular Points of Complex Hypersurfaces; o francês Jean Pierre Serre, nascido em 1926, professor de Álgebra e Geometria no Collège de France (1956-1994), premiado com a Medalha Fields em 1954 e o primeiro Prêmio Abel (2003) por seus trabalhos em Geometria algébrica, Topologia algébrica e Teoria dos Números, devendo-se assinalar seus estudos Homologie singulère des espaces fibrés (1951), Faisceaux Algébriques Cohérents (1955), Cohomologie Galoisienne (1964), Cours d’Arithmétique (1970), Cohomologie des Groupes Discrets (1971), Topics in Galois Theory (1992); e René Thom (1923-2002), conhecido por sua Teoria da catástrofe, recebeu a Medalha Fields, em 1958, por seu trabalho de criação e desenvolvimento da Teoria de cobordismo em Topologia algébrica. Quanto aos anos mais recentes, caberia citar as contribuições de Sergei Novikov, nascido em 1938, na Rússia, Chefe do Departamento de Geometria e Topologia do Instituto de Matemática da Academia de Ciências da URSS (1984), Presidente da Sociedade Matemática de Moscou (1985) e Chefe do Departamento de Geometria e Topologia do Instituto de Matemática Steklov (2004), que receberia, em 1970, a Medalha Fields; em 1965 provou o Teorema sobre invariância de Pontryagin e criou a chamada conjectura Novikov sobre invariância homotópica de certos polinômios de classes 4-dimensões; o russo Mikhail Gromov, nascido em 1943, com diversos estudos e teoremas importantes em Geometria e Topologia, inclusive em relacionar propriedades topológicas e geométricas em Geometria Riemann; o inglês Simon Donaldson, nascido em 1957, professor de Matemática de Oxford desde 1985, receberia a Medalha Fields, em 1986, por suas investigações em área também estudada por Michael Freedman, assunto já objeto de seus trabalhos (1982) intitulados An application of gauge theory to four-dimensional topology e Self-dual connections and the topology of smooth 4-manifolds; em 1990 Donaldson escreveria The Geometry of 4-manifolds; e Vladimir Voevodsky, Medalha Fields por sua obra em Geometria algébrica, por suas investigações para estabelecer relações da Topologia com as construções algébricas; o americano David Gabai, da Universidade de Princeton, com artigos no Journal da AMS, ganhador do Prêmio Veblen de 2004 por seus trabalhos em Topologia geométrica, em particular Topologia tridimensional. 66 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.2.3.4 Análise A seguir, será examinado o desenvolvimento das Equações diferenciais, da Análise funcional e da Integração e Medida. 7.2.3.4.1 Equações Diferenciais Dada sua ampla utilização na Matemática pura e aplicada, na Física e Astronomia (Mecânica Celeste), as equações diferenciais (parcial e ordinária) seriam objeto de grande número de trabalhos, devendo mencionar as contribuições de Vito Volterra (1860-1940) no período 1890/94, e, em particular, os do início do século XX; de Poincaré, que desenvolveu o conceito de Funções automórficas para resolver questões de Equações diferenciais; e de Paul Painlevé (1863-1933), cujo primeiro interesse em Matemática seria em equações diferenciais de segunda ordem, em particular relacionadas com a transformação de curvas e superfícies algébricas. Contribuições significativas seriam dadas por Henri Cartan, Erik Fredholm, Salomon Lefschetz, Alfred Haar e Lev Pontryagin, com Equações Diferenciais Ordinárias (1962); Ivan Petrovsky (1901-1973) pesquisou, igualmente, Topologia de curvas e superfícies algébricas. Dentre os vários pesquisadores dos últimos anos, caberia mencionar Lars Hörmander, matemático sueco nascido em 1931, laureado com a Medalha Fields em 1962, autor de Linear Partial Differential Operator (1963), General Pseudo-Differential Operators (1977), e em quatro volumes The Analysis of Linear Partial Differential Operators (1983/90); principal conquista de Hörmander seria a formulação de uma Teoria de distribuições usando Análise de Fourier; o americano Einar Carl Hille (1894-1980), autor de Lectures on Ordinary Differential Equations (1969); Shing-Tung Yau por seus trabalhos em equações diferenciais parciais não lineares ganhou o Prêmio Veblen de Geometria em 1981; Enrico Bombieri, ganhador da Medalha Fields (1974) por sua contribuição em Teoria dos Números, Teoria de funções de diversas variáveis complexas, Conjectura Bieberbach, Geometria algébrica e Teoria de equações diferenciais parciais; Jean Bourgain, nascido na Bélgica, em 1954, Medalha Fields de 1994 por suas relevantes contribuições em Geometria de espaços de Banach, Análise harmônica, Teoria ergódiga e em Equações diferenciais parciais não lineares; e Peter Lax, nascido na Hungria, em 1926; emigrou para os EUA em 1941, recebeu seu doutorado da Universidade de Nova York em 1949, 67 CARLOS AUGUSTO DE PROENÇA ROSA escreveu vários livros sobre Análise funcional, Álgebra linear e Cálculo, e receberia, em 2005, o Prêmio Abel por suas relevantes contribuições “à teoria e aplicação de equações diferenciais parciais e à computação de suas soluções, estabelecendo os fundamentos para a moderna teoria de sistemas não lineares hiperbólicos”; Peter Lax é autor de Recent Advances in Partial Differential Equations e Nonlinear Partial Differential Equations in Applied Sciences. 7.2.3.4.2 Análise Funcional Trabalhos pioneiros de Volterra ao introduzir a noção de função de linha (1889), de Hadamard, com o termo funcional, tomando como ponto de partida suas pesquisas em Cálculo das variações, e de Hilbert sobre equações integrais, de 1912, ao desenvolver o conceito de continuidade de uma função de infinitas variáveis, prosseguiriam com a contribuição decisiva de Maurice Fréchet à Análise funcional, com a publicação, em 1906, de Sur quelques points de calcul fonctionnel. Em 1922, o polonês Stefan Banach (1892-1945) criaria, em sua tese sobre a Teoria da medida, a noção de Espaço abstrato, que viria a ser o objeto principal de estudo da moderna Análise funcional; esta data é considerada, por muitos, como início da Análise funcional, porquanto desenvolveu uma teoria sistemática e generalizou as contribuições de Volterra, Hilbert e Fredholm em equações integrais. Em 1928, Banach, com Hugo Steinhaus, fundaria, na cidade polonesa de Lvov, a revista Studia Mathematica (hoje em dia editada em Varsóvia), a qual se tornaria a mais importante publicação periódica sobre Análise funcional. Nessa mesma época, Fréchet, discípulo de Hadamard e pesquisador em Cálculo diferencial e integral, Cálculo das probabilidades e Topologia, seria creditado como criador do conceito de Espaço métrico (expressão criada por Hausdorff) aos Espaços métricos abstratos, título de sua obra (Espaços Abstratos) de 1928. Paul Levy (1886-1971) escrevera Leçons d’analyse fonctionelle (1922). Desenvolvimento mais recente da Análise funcional se deve ao húngaro Frigyes Riesz, autor, em 1952, de Lições de Análise Funcional, e ao austríaco Ernst Fischer, autores independentes do hoje chamado Teorema Riesz-Fischer, de 1907, da maior importância na Análise Fourier de Espaço; Hilbert; John von Neumann; Erhard Schmidt (1876-1959), pesquisador em Espaço Hilbert, autor de diversos trabalhos (1905/07 e 08) e criador do processo de ortogonalização, pelo qual criou um Espaço ortogonal a partir 68 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO de uma base de um Espaço; Kosaku Yoshida (1909-1997), autor de Análise Funcional, de 1948; Einar Carl Hille, inicialmente pesquisador de equações diferenciais e integrais, de Séries Fourier e Dirichlet, se interessaria por Análise funcional, escrevendo Análise Funcional e Semigrupos (1948), Teoria de Função Analítica (1959/64), Análise (1964-1966), e Methods in Classic and Functional Analysis (1972), formulador do Teorema Hille-Yosida, sobre Semigrupos em Espaço Banach. 7.2.3.4.3 Integração e Medida Ao mesmo tempo em que se desenvolvia a Análise funcional, novos conceitos teriam impacto renovador no estudo da Integração, então dominado pela Integral de Riemann, e na Teoria da medida. Émile Borel (1881-1956), autor, em 1901, de Leçons sur les séries divergentes e responsável pela Collection de monographies sur la théorie des fonctions, da qual redigiu dez dos cinquenta volumes, criaria a primeira Teoria da medida de conjunto de pontos, início da moderna Teoria das funções de uma variável real, e formularia o Teorema Heine-Borel sobre a aplicação da Teoria dos conjuntos à Teoria das funções. René Baire (1874-1932) seria autor de tese, em 1899, sobre os limites de uma sequência de funções contínua, caracterizando quais são as funções que são limites de funções contínuas. Henri Lebesgue (1875-1941) em 1902 pronunciaria conferência na qual, baseando-se nas pesquisas de Borel e Baire, refaria a teoria de integração, generalizando a noção de Riemann de Integral, ao estender o conceito de uma curva para incluir funções descontínuas. Deste modo, o novo conceito de Integral (hoje Integral de Lebesgue) sobre uma classe mais ampla de Funções que o de Riemann, e a relação sobre diferenciação e Integração estão sujeitas às mesmas exceções. Suas ideias estão refletidas nos livros Intégrale, longueur, aire (1902), Leçons sur séries trignométriques (1903) e Leçons sur l’integration et la recherche des fonctions primitives (1904), que seriam inspiradores para os trabalhos de Banach e Steinhaus sobre Espaço abstratos22. A reformulação de Integral por Lebesgue marca, de algum modo, um novo período, caracterizado por novas generalizações, como a Integral de Armand Denjoy (1884-1974), autor de Sur les produits canoniques d’ordre infini, de 1909, e Leçons sur le calcul des coefficients d’une série trigonométrique, em quatro volumes (1934), que contém sua Integral, e a do húngaro Alfred Haar (1885-1933) , em seu trabalho de 1932. O russo Nikolai N. Luzin (1883-1950), 22 BOYER, Carl. História da Matemática. 69 CARLOS AUGUSTO DE PROENÇA ROSA professor da Universidade de Moscou, influenciado pelas pesquisas de Borel, Lebesgue e Denjoy, foi dos primeiros a aplicar a Teoria da medida a Funções reais; escreveu sua tese Integral e Série Trigonométrica (1915) e monografias sobre o tema nos anos 20 e 30, além de ter formado gerações de jovens (Aleksandrov, Suslin, Menshov, Kolmogorov, Pontryagin, Novikov) em muitos campos da Análise. 7.2.3.5 Probabilidade Matemática Embora se possa considerar que os estudos sistemáticos sobre probabilidade matemática tenham se iniciado no século XVII, com Fermat e Pascal, seu progresso foi bastante menor que o de outras áreas da Matemática, e despertou interesse em número reduzido de pesquisadores; no século XIX, podem ser citados, com contribuições importantes para o tema, Laplace (Théorie Analithique des Probabilités, 1812), Poisson (Sobre a Probabilidade dos Resultados Médios de Observações, 1832), Gauss (Método dos Mínimos Quadrados), Adolphe Quetelet (Sobre o Homem e o Desenvolvimento de Suas Faculdades, 1835), Pafnuty Chebyshev (Sobre o Valor Médio, 1867 e Sobre Dois Teoremas acerca de Probabilidade, 1887) e Alexandr Lyapunov (Teoria de Limite Central). No início do século XX, Émile Borel, em 1909, considerava importante a Teoria da medida para a fundamentação da Teoria das Probabilidades, o que, igualmente, sustentava Francesco Cantelli (1875-1966), professor de Cálculo das probabilidades e de Matemática financeira na Universidade de Roma; o matemático e estatístico finlandês Jarl Lindeberg (1876-1932) que, em trabalho de 1922, demonstrou o Teorema de limite central; e Richard von Mises (1883-1953), autor de Teoria Matemática de Probabilidade e Estatística e Probabilidade, Estatística e Verdade (1928), que formulou, em 1909, dois axiomas para fundamentar Probabilidade: o da convergência (à medida que se estende a sequência de tentativas, a proporção de um resultado favorável tende a um limite matemático definido) e o do aleatório (os resultados devem ser distribuídos aleatoriamente entre as tentativas), e em 1939 apresentou o famoso “problema do aniversário” (quantas pessoas devem estar numa sala para que a probabilidade de alguém compartilhar o mesmo dia do aniversário atinja 50%). De grande importância, ainda nessa fase, seriam as contribuições de três matemáticos russos: Andrei Markov (1856-1922), que provou o Teorema do limite central, é mais conhecido por seus estudos sobre as chamadas Cadeias Markov, sequência de variáveis aleatórias nas quais a 70 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO variável futura é determinada pela preexistente, mas independentemente da maneira em que esta foi gerada; com este trabalho, Markov lançou a base da Teoria do processo estocástico (que depende ou resulta de uma variável aleatória); Sergei Bernstei (1880-1968), que tentou a axiomatização das Probabilidades, em 1917; generalizou as condições de Lyapunov no Teorema do limite central, trabalhou na Lei dos grandes números e explorou a aplicação da Probabilidade em Genética; e Evgeny Slutsky (1880-1948), dedicado à estatística no campo da Meteorologia; estudou e escreveu sobre Fundamentos da Teoria das Probabilidades, tendo escrito, em 1912, artigo sobre a Teoria da Correlação. A maior contribuição para o desenvolvimento da Teoria das Probabilidades na atualidade partiu da Escola russa, que desde Chebyshev e Lyapunov se dedicaria a seu estudo, com a participação de uma série notável de matemáticos, que culminaria com a obra de Kolmogorov. A definição de Poisson de variável aleatória era demasiadamente intuitiva e baseada em experiências práticas, o que não servia para estruturar, com rigor analítico, uma Teoria das Probabilidades. Com o desenvolvimento da Teoria dos conjuntos, de Cantor e da Teoria da medida, de Lebesgue, e dados os requerimentos modernos pela axiomatização da Matemática, esforços de pesquisadores se concentrariam na formulação de uma base axiomática para a Teoria. Uma nova fase no estudo e na concepção da Teoria das probabilidades se iniciaria com os trabalhos de Andrei Nikolaievitch Kolmogorov (1903-1987), autor, de 1925 a 1928, de uma série de estudos que seriam desenvolvidos em 1933, em sua famosa obra Fundamentos da Teoria das Probabilidades, na qual apresentaria uma construção axiomática e a equivalência entre os conceitos das Teorias da medida e das probabilidades. Os conceitos básicos da moderna Teoria das Probabilidades são: i) do experimento aleatório (um experimento, ao menos hipoteticamente, pode ser repetido sob condições essencialmente idênticas com resultados diferentes em diferentes tentativas, ou seja, causas iguais podem gerar efeitos diferentes); ii) do Espaço amostral (conjunto, normalmente designado pela letra grega ômega (Ω), de todos os possíveis resultados de um experimento aleatório); iii) do evento (subconjunto do Espaço amostral); e iv) da álgebra (conjunto de eventos de um Espaço amostral). Kolmogorov formularia um conjunto de cinco axiomas que caracterizam a noção de Probabilidade e constituem o modelo matemático dos fenômenos aleatórios. Em linguagem corrente, tais axiomas estabelecem: primeiro, associados aos possíveis resultados de um 71 CARLOS AUGUSTO DE PROENÇA ROSA experimento aleatório, existem sempre um Espaço amostral e uma álgebra de eventos; segundo, para todo o evento da Álgebra, existe um número não negativo (maior do que ou igual a zero), chamado de probabilidade, que se atribui a tal evento; terceiro, a probabilidade do Espaço amostral é igual a 1 (um); quarto, para quaisquer dois eventos disjuntos (que não compartilham nenhum resultado) a probabilidade da união deles é igual à soma das suas probabilidades; e quinto, o anterior é verdadeiro para infinitas uniões, desde que todos os pares de eventos sejam disjuntos. Com base nesses axiomas de Kolmogorov, são estabelecidas as quatro propriedades fundamentais da Probabilidade: 1) a probabilidade de qualquer evento é um número sempre maior ou igual a zero ou menor do que ou igual a 1 (um); 2) a probabilidade de um evento impossível é zero; 3) se a ocorrência de um evento implica na ocorrência de um segundo, então a probabilidade do primeiro é menor do que a probabilidade do segundo; e 4) a probabilidade da união de dois eventos é igual à probabilidade do primeiro mais a probabilidade do segundo menos a probabilidade da ocorrência simultânea dos dois. A obra de Kolmogorov influenciaria as pesquisas desta nova fase da Probabilidade moderna, na qual ressaltam as contribuições de Aleksandr Khinchin (1894-1959), que, além de trabalhos em Análise, Estatística e Teoria dos Números, escreveu, em 1927, Leis Básicas da Teoria da Probabilidade e um artigo sobre o conceito de entropia na Teoria das Probabilidades (1957); de Ivan Petrovisky (1901-1973), estudioso de Equações diferenciais e Topologia, que se dedicou, igualmente, à Teoria das Probabilidades, sendo autor de vários artigos; e de Boris Gnedenko (1912-1995); influenciado por Khinchin e Kolmogorov, interessou-se pela Teoria abstrata das probabilidades, tendo escrito, em 1949, Limit Distributions for Sums of Independent Random Variables e em 1950, Curso da Teoria das Probabilidades. Além das já mencionadas contribuições, caberia citar os trabalhos de William Feller (1906-1970), croata naturalizado americano, com importantes contribuições para o desenvolvimento do estudo da Probabilidade; estudou a relação entre a Cadeia Markov e equações diferenciais, escreveu dois tratados, e vários tópicos receberam seu nome, como Processo Feller, Movimento Feller-Brown, propriedade Feller e Teorema Lindberg-Feller; seu mais importante livro é Introduction to Probability Theory and its Applications (1950-1961), em dois volumes; e dos franceses Paul Levy (1886-1971), autor de Calcul des Probabilités (1925), Théorie de l’addition des variables aléatoires (1937-1954) e Processus stochastiques et mouvement brownien (1948) e Laurent Schwartz (1915-2002) que generalizaria, em 1950-1951, o conceito de diferenciação através 72 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO da Teoria das distribuições (Medalha Fields), trabalharia em equações diferenciais parciais e Cálculo diferencial estocástico. No desenvolvimento da Probabilidade Matemática e de sua aplicação em diversos domínios, há que registrar, como de particular importância, o avanço teórico ocorrido no campo da Estatística, o que viria a permitir sua crescente utilização no estudo dos fenômenos. Nesse sentido, vale mencionar as contribuições do britânico Karl Pearson (1857-1936), autor de Biométrica (1901); do americano Josiah Willard Gibbs (1839-1903), autor de Elementary Principles in Statistical Mechanics; de George Udny Yule (1871-1951), autor de Introduction to the Theory of Statistics (1911, cuja última edição revista foi de 1950); do australiano Ronald Aylmer Fisher (1890-1962) autor de Statistical Methods and Scientific Inference (1956); do húngaro Abraham Wald (1902-1950), com diversos artigos (Sequential Tests of Statistical Hypotheses, 1945); e Sequential Analysis (1947) e Statistical Decision Functions (1950), de Frank Yates (1902-1994), autor de Sstatistical Tables for Biological, Agricultural and Medical Reseach (1938) e Samplings methods for censuses and surveys (1949), do sueco Hermann Wold (1904-1992) autor de Statistical Estimation of Economic Relationships (1949) e Causality and Econometrics (1954), de John Tukey (1915-2000) com Exploratory Data Analysis (1977), de Walter Shewhart (1891-1967) autor de Economic Control of Quality of Manufactured Products (1931) e Statistical Method from the viewpoit of Quality Control (1939), e de Leonard Savage (1917-1971) com Foundations of Statistics (1954). 7.3 Astronomia A História da Astronomia mostra o contínuo avanço no conhecimento dos fenômenos, principalmente desde os estudos e pesquisas da Época do Renascimento Científico. A curiosidade humana sempre foi um fator decisivo na busca da compreensão do funcionamento do Universo, o que determinaria uma paulatina evolução das pesquisas astronômicas, apoiadas pelo desenvolvimento na Matemática, na Mecânica e na Óptica. As contribuições revolucionárias de Copérnico, Tycho Brahe, Galileu, Kepler, Descartes, Huygens, Newton, Herschel, Laplace, Bessel, Le Verrier e Kirchhoff, entre outros, criariam uma Astronomia científica, sustentada por observações, teorias, leis e cálculos e expandida pelo crescente conhecimento dos objetos celestes. A Via Láctea, conjunto das estrelas e demais corpos celestes observados, correspondia aos limites do Universo conhecido. A ampliação desse limite dependeria de novos conhecimentos, técnicas e métodos, e de recurso a outros ramos científicos. 73 CARLOS AUGUSTO DE PROENÇA ROSA 7.3.1 Características Atuais As novas características do impressionante desenvolvimento da Astronomia na atualidade devem ser interpretadas como marcas do início de uma nova fase da História desta Ciência, uma vez que não se trata de simples avanço decorrente de mera aplicação de conhecimentos passados. O desenvolvimento de novos conceitos e noções, o surgimento de uma nova Física estruturada na Teoria da relatividade e na Teoria quântica, e a renovação da Matemática e da Química em diversos domínios seriam determinantes fundamentais no avanço da pesquisa astronômica. Por outro lado, a ampliação da área espacial investigada, o aproveitamento de faixas do espectro eletromagnético (raios-Gama, raios-X, ultravioleta e infravermelho) para a observação de “invisíveis” corpos celestes, a utilização de novos instrumentos, técnicas e métodos na investigação, a disseminação geográfica de centros de investigação e a crescente incorporação de tecnologia permitiriam uma mudança radical do quadro tradicional da Astronomia. Dessa forma, o Universo, limitado até então à Via Láctea, adquiriria novas dimensões, com a incorporação de imensas galáxias e gigantescos aglomerados e superaglomerados de galáxias; as distâncias conhecidas passariam à “escala cósmica”; objetos celestes, até então inimaginados, seriam descobertos ou inferidos, como o buraco negro, a Matéria escura, a energia escura, pulsares e quasares; mais de quatrocentos planetas fora do Sistema Solar seriam encontrados; espaço e tempo seriam relativizados; a Lei da gravidade já não teria validade universal; novas teorias cosmológicas seriam formuladas; evidências da expansão do Universo seriam detectadas. A Astronomia clássica, vigente para um Mundo restrito, não se aplicaria para o novo Cosmos, não mais criado, fechado, hierarquizado, harmonioso e estático, mas eterno, aberto e dinâmico. Embora tenha ocorrido um extraordinário progresso no conhecimento astronômico desde os tempos da Grécia (Aristóteles, Hiparco, Ptolomeu) até o início do século XX (Copérnico, Kepler, Galileu, Descartes, Newton, Herschel, Huygens, Halley, Cassini, Messier, Bradley, Bode, Laplace, Bessel, Argelander, Le Verrier, Parsons), as seculares bases e pressupostos metafísicos e teológicos sempre prevaleceram e nortearam esse desenvolvimento; os avanços havidos (Sistema heliocêntrico, Mecânica Celeste, descobertas observacionais) não alterariam, nem contestariam, tais pressupostos. 74 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Uma verdadeira revolução conceitual, estruturada em bases estritamente científicas, ocorreria a partir de 1920 (Einstein, Friedmann, Hubble, Lemaître, Gamow), dando início, assim, a um novo período da evolução da Astronomia, cujos fundamentos, exclusivamente científicos, passariam a ser os únicos a orientar as pesquisas. Dessa forma, após vinte e cinco séculos, considerações de ordem teológica e metafísica seriam excluídas do âmbito da Ciência e da cogitação do investigador, o que corresponde, em outras palavras, ao triunfo decisivo do espírito científico sobre considerações estranhas à Ciência no campo da Astronomia. Na medida em que progrediram as investigações, surgiria uma série de novas descobertas que ampliariam a área de pesquisa no Sistema Solar, na Via Láctea e nas demais galáxias. Um grande número de perguntas e dúvidas continua, no entanto, sem adequada resposta, o que significa, certamente, vir a ser a Astronomia, particularmente a Astrofísica e a Cosmologia, um dos ramos científicos de maior interesse no futuro. Diante de tão rápido desenvolvimento do conhecimento astronômico23, surgiriam novos campos (Astronomia dos raios cósmicos, Astronomia espacial) e técnicas de investigação (radar, interferômetro), outros manteriam importância (Astrometria), enquanto outros ramos readquiririam relevância (Cosmologia), o que, por sua vez, propiciariam descobertas e novos avanços nas pesquisas. O progresso na Astrometria e na Espectroscopia, o desenvolvimento inovador da Radioastronomia, as novas teorias da formação do Universo (Big Bang) e os diversos programas de exploração do Espaço dariam um formidável impulso para a recolocação da Cosmologia como área proeminente de estudos e investigação24. A inovadora e revolucionária Astronomia espacial, surgida em 1957, com o lançamento do Sputnik, iniciaria a chamada “corrida espacial”, fundamental para o desenvolvimento científico (Matemática, Física, Química, Biologia) e determinante para o notável avanço, num curto período de tempo, no conhecimento dos fenômenos astronômicos e dos objetos celestes25. A nova Astronomia receberia incentivo público e privado, movimentaria vultosos recursos financeiros, requereria a formação de equipes de pesquisa formadas de astrônomos, astrofísicos, matemáticos, químicos, físicos, biólogos e técnicos, demandaria a cooperação da universidade e de outros centros de pesquisa, e incentivaria a cooperação TATON, René. La Science Contemporaine. MASON, Stephen F. Historia de las Ciencias. 25 COTARDIÈRE, Philippe de la. Histoire des Sciences. 23 24 75 CARLOS AUGUSTO DE PROENÇA ROSA internacional. Suas conquistas causariam admiração pública generalizada, que se converteria em apoio ostensivo aos diversos programas, ainda que extremamente dispendiosos, e em confiança na atividade científica para benefício da Humanidade. O extraordinário desenvolvimento científico e tecnológico na Astronomia do século XX deve ser explicado, assim, pela aplicação de novos conhecimentos, principalmente, da Matemática, da Física e da Química nas investigações, o que acentuaria a estreita vinculação entre essas três áreas científicas. Se favorecida pelos avanços teóricos e experimentais dessas Ciências, a Astronomia, por sua vez, para a execução de seus programas de investigação seria um fator preponderante na promoção de pesquisas em diversas áreas (Óptica, Termodinâmica, Mecânica, Eletromagnetismo, Física das partículas, Resistência de material, Computação, Química, Biologia), com benefícios mútuos. A coparticipação de vários ramos científicos para a viabilização dos diversos projetos de conquista do Espaço dos sistemas solar e galácticos colocaria em evidência a interação e a interdependência no campo científico. O desenvolvimento da Astrofísica, como Física do Universo, ressaltaria sua estreita vinculação com a Física, a ponto de muitos autores a considerarem como ramo dessa Ciência, uma vez que sua pesquisa está, na realidade, no domínio de físicos, chamados de astrofísicos (físicos pesquisadores dos fenômenos físicos em escala do Universo). A título exemplificativo podem ser citados os físicos Einstein, Eddington, De Sitter, Friedmann, Zwicky, Gamow, Bethe, Novikov, Hawking, Ryle, Alfven, Sunyaev, Zel’dovich, Hewish, Schenberg, Weinberg, Hulse. A Astronomia atual, por esse critério, estaria restrita à chamada Astronomia observacional dos corpos celestes, investigada pelos astrônomos. 7.3.1.1 Astronomia de Âmbito Mundial O grande centro de pesquisa astronômica, ao final do século XIX, continuava localizado na Europa ocidental, com a liderança, indiscutível, da Alemanha, França e Grã-Bretanha. Sobressaíram, então, as contribuições de vários cientistas (Gauss, Arago, Doppler, Kirchhoff, Bessell, Argelander, Le Verrier, Huggins, Lockyer, Poincaré), universidades (Berlim, Göttingen, Cambridge, Paris) e observatórios (Greenwich, Cambridge, Potsdam, Berlim, Hamburgo, Paris) de renome. Outros centros importantes de investigação da região foram Holanda, Itália, Áustria e Suíça. Na Escandinávia, a Suécia, e no Leste europeu, a 76 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Rússia (Dorpat, São Petersburgo) e a Polônia (Pulkovo, Varsóvia) fizeram significativos investimentos na pesquisa teórica e observacional. Fora da Europa, apenas os EUA fez um esforço sério e consciente (Hale, Draper, Langley, Pickering, Universidades de Harvard e Chicago, Observatórios de Yerkes e Lick) para se situar entre os países na vanguarda da pesquisa. Esse quadro se manteria, basicamente, até o final dos anos 1910, quando as novas condições decorrentes da Primeira Guerra Mundial afetariam, negativamente, o ambiente intelectual, industrial e financeiro dos países do continente europeu, cuja prioridade passaria a ser a da reconstrução econômica e social. A consequência imediata dessa lamentável situação seria a perda qualitativa e quantitativa da pesquisa astronômica nesses países (Alemanha, França, Inglaterra, Áustria, Rússia, Holanda) e a migração de cientistas para outros centros, principalmente os EUA, que se firmaria, no período entreguerras (anos 20 e 30), como importante referência em estudos e investigação (Observatórios de Monte Wilson e Palomar). Ainda que os tradicionais centros de pesquisa na Europa tenham voltado a prestar significativas contribuições, EUA e URSS (Rússia no final do século) assumiriam, depois da Segunda Guerra Mundial, a liderança incontestável no domínio da Astronomia. A competição ideológica, política e econômica entre essas duas superpotências contribuiriam para o avanço da pesquisa teórica e para o desenvolvimento de novos campos, como a chamada Astronomia espacial ou Astronáutica e a Radioastronomia. A NASA (1958) e o Instituto Russo de Pesquisa Espacial e a Agência Espacial Russa assegurariam a liderança, a continuidade e o pioneirismo dos programas americanos e russos. Na impossibilidade de os países europeus competirem, individualmente, na corrida da Conquista do Espaço, haveria um esforço de conjugação de esforços que se efetivaria (Agência Espacial Europeia) a partir dos anos 1970 (Alemanha, França, Itália, Países Baixos, Grã-Bretanha, Suécia, Espanha), com resultados bastante positivos na área de satélites meteorológicos, de comunicações, de pesquisa astronômica. Austrália, Canadá, África do Sul e Nova Zelândia ingressariam, também, na lista de países bastante ativos e interessados na investigação astronômica. No final do século, surgiria a China com potencial de se tornar, em curto prazo, importante centro astronômico, inclusive com o lançamento de sondas e espaçonaves para exploração do Sistema Solar e da Via Láctea; em outubro de 2008 a China enviaria espaçonave tripulada com um programa de pesquisas, tornando-se o terceiro país a conseguir tal feito, o que a coloca em posição de liderança na Ásia. Ainda na Ásia, Japão e Índia, com vultosos 77 CARLOS AUGUSTO DE PROENÇA ROSA investimentos em observatórios e pesquisa espacial se tornariam muito ativos, com importantes contribuições; em 2008 a Índia lançaria um satélite em missão lunar. Na América Latina, o Brasil se encontraria na dianteira da pesquisa astronômica, pelo número e qualidade de seus observatórios e pelo trabalho desenvolvido no Instituto Nacional de Pesquisa Espacial (1971), no Centro de Lançamento de Alcântara (1988) e na Agência Espacial Brasileira (1994). 7.3.1.2 Instrumentos e Tecnologia O papel do aperfeiçoamento dos instrumentos e técnicas de observação no avanço do conhecimento do Universo deve ser realçado, tanto mais sendo a Astronomia uma Ciência baseada na observação sistemática. Dado que apenas cerca de seis mil estrelas são visíveis a olho nu, o acelerado progresso, nos últimos séculos, desde a invenção da luneta, foi devido, em boa parte, ao crescente aumento na capacidade e na qualidade de observação dos corpos celestes, permitindo conhecer distância, propriedade, brilho e posição de grande número de objetos celestes. Na segunda metade do século XIX, a melhoria dos instrumentos, como o aperfeiçoamento das lentes e dos espelhos dos telescópios refratores e refletores e a inovação do círculo meridiano, do heliômetro, do bolômetro, do fotoheliógrafo, do fotômetro e do micrômetro impessoal permitiriam avanço significativo nas pesquisas. A preferência pelos grandes telescópios refratores se evidenciaria por sua utilização nos observatórios, entre outros, de Dorpat, Cambridge, Estrasburgo, Washington, Viena, Paris, Potsdam, Lick e Flagstaff, na Califórnia (EUA), Göttingen, Côte d’Azur, Yerkes, Florença e Cracóvia. Ao mesmo tempo, novas técnicas, como a espectroscopia, a fotometria e a radiação térmica dariam origem à Astrofísica, de contribuição decisiva para o extraordinário desenvolvimento da Astronomia na atualidade26. Na busca de melhores locais para a instalação de potentes telescópios com o propósito de obter a melhor visibilidade possível, desenvolver-se-ia ampla cooperação internacional, que permitiria a construção de observatórios astronômicos, com diversos países patrocinadores, na África do Sul, no Chile, no Havaí, nas ilhas Canárias e no Canadá, em localizações apropriadas para a pesquisa. O Observatório no Cerro Pachón (Chile), construído em 2002, com telescópio refletor de 4,2 m de diâmetro, é patrocinado pelo Brasil e EUA. 26 ASIMOV, Isaac. New Guide to Science. 78 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A Astronomia do século XX não se limitaria a aperfeiçoar os meios e as técnicas de observação, mas inovaria em vários campos, ampliando, significativamente, seu escopo, e aprofundando, expressivamente, o conhecimento do Universo. Para tanto, foram postos em funcionamento enormes telescópios refletores (África do Sul, ilhas Canárias, Chile, Havaí, EUA continental, Cáucaso), e construídos e melhorados telescópios refratores (EUA, França, Grã-Bretanha, Alemanha, Rússia); em 2007, foi inaugurado, nas ilhas Canárias, o GTC (Grande Telescópio Canárias), no alto de uma montanha, na ilha de Palma, que é, na atualidade, o maior telescópio do mundo, com lente de 10,4 metros de diâmetro e 36 espelhos. Além do aperfeiçoamento da fotografia, da análise espectral e da radiação térmica, caberia salientar, como aspectos fundamentais e característicos, a partir da segunda metade do século, a Radioastronomia, com a ajuda dos radiotelescópios e a observação telescópica fora da atmosfera terrestre (Astronomia espacial), o que permitiria, pelo acesso a novas faixas do espectro eletromagnético, investigar objetos celestes invisíveis desde a Terra. Nesse desenvolvimento da pesquisa do Espaço, teriam papel preponderante as sondas e os satélites artificiais, como postos avançados de observação. Vale mencionar, ainda, a grande contribuição dos aceleradores de partículas, desde os anos de 1930, para um melhor entendimento do mundo subatômico. O maior acelerador da atualidade é o LHC, da CERN (para mais informações vide subcapítulo Bóson de Higgs), que entrou em funcionamento em setembro de 2008, com o propósito de comprovar a existência da partícula chamada de Bóson de Higgs, o que será da maior importância para o estudo da Cosmologia. 7.3.1.3 Instituições internacionais. Premiação O crescente interesse pelo reconhecido valor científico e estratégico da Astronomia, além de sua importante contribuição para o desenvolvimento da pesquisa industrial e em outras Ciências, explica a criação de centros de pesquisa, institutos ou departamentos especializados em universidades, com o apoio governamental ou privado. Tais instituições têm contribuído com excelentes estudos para um melhor entendimento dos fenômenos astronômicos e dos objetos celestes. Como exemplos são citadas, a seguir, algumas dessas entidades de pesquisa: Universidades de Berkeley, Chicago, Harvard, Princeton, Cornell, Moscou, São Petersburgo, Berna, Amsterdã, Leiden, Oxford, Cambridge, 79 CARLOS AUGUSTO DE PROENÇA ROSA Swinburne (Melbourne), Instituto Tecnológico da Califórnia, Instituto de Astronomia de Zurique, Institutos de Astrofísica de Paris, de Potsdam, de Roma, Instituto Max-Planck para Astrofísica, Instituto Max-Planck para Radioastronomia, Instituto Canadense de Astrofísica Teórica, Instituto Kaptein de Astronomia, Centro Harvard-Smithsonian para Astrofísica, NASA, Observatório Naval de Washington, Laboratório Nacional de Astrofísica (Brasil), Organização Indiana de Pesquisa Espacial, Agência Japonesa de Exploração Aeroespacial, Administração Chinesa Nacional do Espaço. Ao longo do século, aumentaria significativamente o número de sociedades e associações privadas, criadas com o objetivo precípuo de contribuir para o desenvolvimento e divulgação da Astronomia através do patrocínio ou execução de estudos, debates, seminários, cursos e publicações. Hoje em dia, muitos países contam com um crescente número dessas sociedades e associações em várias de suas principais cidades, que se somam às criadas em épocas anteriores. Caberia citar, como exemplos, a Sociedade Astronômica Polonesa (1923), a Sociedade Italiana de Astronomia (1928), a Sociedade Francesa de Astronomia e Astrofísica (1978), a Sociedade Astronômica Helênica (1993), a Sociedade Portuguesa de Astronomia (1999) e a Sociedade Astronômica Europeia (1990). Especial menção deve ser feita à União Astronômica Internacional (UAI), criada em 1919, com o objetivo de promover a Astronomia, em todos os seus aspectos, através da cooperação internacional. A UAI contava (agosto de 2007) com 9.606 membros individuais (astrônomos) e 62 membros nacionais, como as entidades científicas – centros de pesquisas (CNPq do Brasil), Academias de Ciência (da França) e observatórios (Greenwich); o Instituto de Astrofísica de Paris serve como secretaria da União. A UAI é membro do Conselho Internacional para a Ciência (ICSU), criado em 1931. A última (27ª) Assembleia da UAI se realizou no Rio de Janeiro, em agosto de 2009 (Ano Internacional da Astronomia, pela UNESCO, em comemoração aos 400 anos da utilização para fins astronômicos da luneta, por Galileu). Com esse mesmo espírito de divulgação e popularização da Astronomia, deve ser mencionada a contribuição dos Planetários, disseminados em várias cidades de grande número de países, que, com seus cursos, palestras e filmes, prestam excelente contribuição cultural às comunidades locais, particularmente aos jovens estudantes e leigos. A Sociedade Internacional de Planetários (SIP) foi fundada em 1970, e se reúne, a cada dois anos, em Conferência (a última (XVIII) em julho de 2006, em Melbourne). 80 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Há um interesse generalizado no reconhecimento público, por parte de diversas instituições nacionais e internacionais, pelo trabalho efetuado por cientistas. No caso da Astronomia, várias são as entidades que concedem premiações, algumas das quais estão mencionadas abaixo. Um dos mais prestigiosos prêmios é o Prêmio Henry Norris Russell, por contribuições relevantes à Astronomia, concedido, anualmente, desde 1946, pela Sociedade Americana de Astronomia (AAS); dentre seus agraciados, devem ser mencionados Harlow Shapley, Jan Oort, Enrico Fermi, Walther Baade, Martin Schwartzschild, Grote Reber, John Bolton, Allan Sandage, Maarten Schmidt, Riccardo Giacconi, Vera Rubin e Charles Townes. A AAS outorga, anualmente, desde 1998, a Medalha Carl Sagan a trabalhos de divulgação ao público da Ciência planetária. A Sociedade Astronômica do Pacífico (ASP), fundada em 1889, e com sede em São Francisco, outorga, anualmente, a Medalha de Ouro Catherine Wolfe Bruce, tendo sido agraciados, entre outros, Robert Aitken, Hans Bethe, Edward Barnard, Willen de Sitter, Einar Hertzsprung, Fred Hoyle, Edwin Hubble, William Huggins, Jacobus Kapteyn, Robert Kraft, Bernard Lyot, Edward Pickering, Henri Poincaré, Vera Rubin, Martin Ryle, Edwin Salpeter, van de Hulst, Vesto Slipher, Rashid Suryav, Max Wolf, Yakov Zel’dovich e Martin Harwitz. Medalha de Ouro é igualmente concedida, desde o século XIX, pela Real Sociedade de Astronomia (RAS) da Grã-Bretanha, sendo que, anualmente, a partir dos anos 1970. Dentre os últimos agraciados podem ser listados Maarten Schmidt, Yakov Zel’dovich, Stephen Hawking, Rashid Sunyav, Vera Rubin, Bohdan Paczynski, James Peebles, Margaret e Geoffrey Burbidge. A Academia de Ciências dos EUA (NAS) concede, a cada quatro anos, a Medalha Henry Draper para relevantes contribuições à Astrofísica. Dentre os premiados, podem ser citados Annie Cannon, van de Hulst, Vesto Slipher, Otto Struve, Martin Ryle, Arno Penzias, Chandrasekhar, Joseph Taylor, Ralph Alpher, Bohdan Paczynski, Geoffrey Marcy, Paul Butler e Charles Bennett. Não há Prêmio Nobel específico para Astronomia; vários físicos, contudo, foram agraciados por seus trabalhos de grande contribuição para as pesquisas na área da Astrofísica, como Johannes Stark (1919) sobre o efeito Doppler, Victor Hess (1936) pela descoberta do pósitron, Edward Appleton (1947) pelos trabalhos em Física atmosférica, Patrick Maynard Blackett (1948) por suas descobertas em Física nuclear e radiação cósmica, Hans Bethe (1967) pelas pesquisas em reações nucleares, Martin Ryle, por trabalhos em radioastronomia, e Anthony Hewish (1974), 81 CARLOS AUGUSTO DE PROENÇA ROSA pela descoberta de pulsares; Arno Penzias e Robert Wilson (1978), pela descoberta da radiação cósmica de fundo; Nicolas Bloembergen, Arthur Leonard Schawlow e Kai Siegbahn (1981), por trabalhos em espectroscopia do laser; Subramanyan Chandrasekhar, pelos estudos sobre a evolução das estrelas; e William Fowler (1983), sobre a formação dos elementos químicos no Universo; Russel Hulse e Joseph Taylor (1993), pela descoberta de novos tipos de pulsares, Raymond Davis e Masatoshi Koshiba, pela detecção de neutrinos cósmicos, e Riccardo Giacconi (2002), pesquisas em Astrofísica que levariam à descoberta de fontes de raios-X cósmicos; John Hall e Theodor Hansch (2005), no campo da Óptica Quântica. O PNF de 2006 foi concedido a John C. Mather, astrofísico do Laboratório Observacional do Centro Goddard, da NASA, e a George F. Smoot, astrofísico e cosmólogo do Laboratório Lawrence, e professor de Física em Berkeley, por suas contribuições no esclarecimento da natureza e das anisotropias das radiações cósmicas de fundo; em abril de 1992 anunciaram terem detectado os mais antigos vestígios do calor residual do Big Bang. O PNF de 2008 foi concedido a três cientistas japoneses, por suas descobertas sobre princípios fundamentais da formação da Matéria; Yoichiro Nambu (1921), professor emérito da Universidade de Chicago foi premiado por seu trabalho sobre o mecanismo da quebra espontânea da simetria, em Física das partículas; e Toshihide Maskawa (1940), professor da Universidade de Kyoto, e Makoto Kobayashi (1944), professor da Organização de Pesquisa do Acelerador de Altas Energias de Tsukuba, por terem descoberto a origem da quebra da simetria que prevê a existência de pelo menos três famílias de “quarks”. 7.3.1.4 Publicações Um grande número de revistas especializadas, de responsabilidade e patrocínio de sociedades, universidades e observatórios, é publicado regularmente em âmbito mundial, o que evidencia o grande interesse dessas entidades pela divulgação de seus estudos, bem como em fazer circular artigos de pesquisadores. Algumas dessas publicações são citadas a seguir: Icarus, da American Astronomical Society (AAS), The Astronomical Journal e o The Astrophysical Journal, patrocinados pela AAS, o Monthly Notices da Real Sociedade Astronômica (britânica) e Mercury (bimestral) e Publications of the ASP, ambas da Astronomical Society of the Pacific. Dentre as revistas independentes e especializadas podem ser mencionadas a Astronomy & Astrophysics, atualmente editada na França, a 82 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO New Astronomy, a Astrophysics and Space Science, a Astronomische Nachriten (fundada em 1821), a Space Science Reviews e a Celestial Mechanics and Dynamical Astronomy. Além dessas publicações especializadas, várias revistas científicas divulgam material importante sobre as investigações recentes, descobertas e conquistas em Astronomia, como, por exemplo, a Nature, Science, New Scientist e Scientific American. 7.3.1.5 Temas A exposição da evolução da Astronomia neste início de um novo período requer uma correspondente adequação dos principais e novos temas, o que significa uma divisão de assuntos bastante distinta da utilizada para épocas pretéritas. O primeiro item trata da Astronomia do espectro eletromagnético, inclusive da instrumentação e técnicas utilizadas pelos diferentes tipos de Astronomia. O segundo é relativo à Astronomia planetária, incluídas as diversas missões dos chamados programas de conquista espacial; a exposição foi dividida em duas fases, para salientar a nítida diferença entre ambas. O terceiro versa a respeito da Astronomia estelar, tema que mereceria tratamento prioritário da parte dos atuais astrônomos e astrofísicos. A chamada Astronomia galáctica, objeto do quarto item, corresponde à ampliação do conhecimento do Universo com a descoberta, na década de 1920, de um grande número de galáxias, além da Via Láctea. O seguinte se refere ao abrangente tema da Cosmologia que, em função de importantes descobertas, avanços tecnológicos e reformulação conceitual, ingressaria numa nova era, a da Cosmologia moderna. 7.3.2 Astronomia do Espectro Eletromagnético. Astronômicos e Novas Técnicas de Pesquisas Instrumentos O grande avanço, na segunda metade do século XIX, na observação óptica dos corpos celestes foi devido ao aperfeiçoamento e inovação da instrumentação para fins astronômicos (telescópios, bolômetros, micrômetros, círculo meridiano) e a novas técnicas de pesquisa (espectroscopia, fotometria, radiação térmica e fotografia). A crescente demanda das pesquisas astronômicas seria um fator determinante para novos e melhores aparelhos e para o desenvolvimento e a criação de 83 CARLOS AUGUSTO DE PROENÇA ROSA técnicas investigativas, que, por sua vez, ampliariam o campo e a qualidade do trabalho dos astrônomos e astrofísicos. O impacto desse instrumental e dessas técnicas não pode ser minimizado nem desconhecido, pois foi graças ao emprego da instrumentação e técnicas surgidas ao longo dos últimos decênios que a área de observação ultrapassou regiões visíveis desde a Terra, característica de um novo período da história da Astronomia. O acesso a diferentes faixas de comprimento de ondas do espectro eletromagnético teria especial significado para o surgimento da atual Astronomia, porque ampliou largamente a capacidade de observação dos corpos celestes e fenômenos astronômicos através da utilização de vários raios (Gama, X, ultravioleta e infravermelho). A observação, limitada até então a telescópios ópticos, se beneficiaria com os novos instrumentos preparados para detectar essas faixas mais longas do espectro. Em consequência, em função do tipo de telescópio usado, podem ser estabelecidos, atualmente, diferentes tipos de Astronomia: Óptica, Rádio, Raios Infravermelho, Ultravioleta, X e Gama. Dado que várias dessas faixas do espectro não são observáveis da Terra, pois são absorvidas pela atmosfera terrestre, a observação de distantes corpos celestes e longínquas regiões deixaria de ser feita diretamente pelo pesquisador de observatório na superfície do planeta. A análise de imagens seria da alçada do centro espacial, por satélites artificiais, sondas e espaçonaves, que dispõem de sofisticada instrumentação, inclusive de telescópios e radares. Esse material é colocado, então, à disposição dos astrônomos, físicos, químicos, biólogos e outros especialistas para estudo. Assim, a coleta de dados por uma instrumentação colocada além da atmosfera da Terra passaria a ser fonte da maior importância para o desbravamento de regiões espaciais até então desconhecidas e para a descoberta de corpos celestes. O estudo da ampliação do Universo para uma dimensão cósmica requer, portanto, um exame detido dos meios que possibilitaram tão extraordinária e revolucionária evolução do conhecimento humano, o qual deverá ainda se ampliar bastante no futuro imediato, na medida em que importantes pesquisas estão em curso e novas pesquisas estão programadas. Em vista do exposto, serão abordados neste capítulo os vários “tipos” de Astronomia do espectro eletromagnético (Óptica, Radioastronomia, do Infravermelho, do Ultravioleta, dos Raios-X e do Raio-Gama), segundo as faixas do espectro utilizadas e os telescópios empregados que, desde a superfície da Terra ou do Espaço, permitiriam a investigação astronômica. Os avanços na Astronomia se devem, portanto, ao desenvolvimento da Ciência pura e teórica (pesquisa científica) e da Ciência aplicada (Tecnologia). 84 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Num curto período de tempo seriam desenvolvidos telescópios apropriados para captar diferentes faixas de raias do espectro, permitindo a utilização dos raios infravermelho, ultravioleta, raios-X e Gama na pesquisa astronômica. O novo instrumental, resultante da demanda requerida pelos programas, abriria um enorme campo de pesquisa, proporcionaria a descoberta de novos corpos celestes, como quasares e pulsares, e fenômenos cósmicos, como a radiação cósmica de fundo, e viabilizaria o extraordinário e rápido progresso de uma ampliada Astronomia, de âmbito cósmico. Além dos telescópios, contribuiria igualmente para o avanço da Astronomia atual o emprego crescente de técnicas desenvolvidas anteriormente, como a fotografia e a espectroscopia, mas, especialmente, desde os anos de 1960, das novas técnicas do radar e da interferometria, temas que serão abordados neste capítulo logo após os diversos tipos de Astronomia. 7.3.2.1 Astronomia Óptica – Telescópios e Observatórios Desde o século XVII que os telescópios (refrator e refletor) são os mais importantes instrumentos de observação óptica utilizados pelos astrônomos. Seu aperfeiçoamento, ao longo do tempo, permitiria significativo avanço na pesquisa. Apesar de alguns inconvenientes (aberração cromática), grandes telescópios refratores, como os de Dorpat, Estrasburgo, Paris, Washington, Yerkes, Lick, Flagstaff, Viena, Nice, Greenwich, Cambridge, Potsdam, Göttingen, foram construídos no século XIX, sendo que alguns aperfeiçoamentos no telescópio refletor (espelho de vidro em vez de metálico, maior luminosidade, rigoroso acromatismo) explicam a preferência por este tipo de instrumento na atualidade. Na pesquisa óptica, limitada, portanto, à faixa de luz visível do espectro eletromagnético, a questão importante de como melhorar a qualidade da observação se colocaria diante da comunidade astronômica, para a qual foi necessário decidir sobre a melhor localização para os observatórios e sobre as inovações adequadas para o aperfeiçoamento dos telescópios. Quanto à localização, a conclusão seria a de que os observatórios deveriam estar longe das luzes das grandes cidades, em área em que o céu esteja normalmente descoberto, onde a atmosfera seja bastante estável, para que a turbulência não deteriore as imagens e seja mais pura para permitir melhor visibilidade. 85 CARLOS AUGUSTO DE PROENÇA ROSA Tal localização se encontraria nas montanhas, em altitudes que satisfizessem tais exigências27, razão principal da construção de vários observatórios, no final do século, nos Andes, no Cáucaso e no Havaí, acima das densas camadas da atmosfera. Deve-se notar que o primeiro observatório construído em altitude elevada (1.283 metros) foi o de Lick, no topo da Montanha Hamilton, em San José, na Califórnia, que entrou em operação em 1887; o observatório possui hoje cinco telescópios refletores (o maior com espelho de 3 m) e um refrator (lente de 0,508 m). No que se refere aos telescópios, em 1931, Bernhard Schmidt (1879-1935), engenheiro óptico do Observatório de Hamburgo, inventou uma combinação de telescópio refletor-refrator que, além de permitir observar e fotografar grandes áreas do céu, corrigia a aberração da esfericidade do espelho. A inovação consistia da colocação de uma lente fina numa ponta e de um espelho côncavo com uma lente corretiva (chamada de lente Schmidt) na outra ponta do instrumento. Tal aperfeiçoamento teve grande aceitação por parte dos astrônomos, tendo sido adotado na fabricação da grande maioria dos novos telescópios. O maior telescópio de sua fabricação (lente de 1,34 m e espelho de 2 m) foi o do Observatório Karl Scharzschild, em Tautenberg, na Alemanha. A preferência dos astrônomos, no século XX, foi pelo telescópio refletor, se bem que alguns novos, do tipo refrator, tenham sido construídos, e outros tenham sido substituídos por outros maiores e tecnicamente mais aperfeiçoados. Localizados, normalmente, em observatórios (públicos e particulares) de grandes cidades, continuam, no entanto, a ser amplamente utilizados principalmente para as pesquisas dos corpos celestes visíveis desde a Terra. Dentre os telescópios refratores mais conhecidos, em operação, caberia citar o do Observatório Roque de los Muchachos, em Las Palmas, nas Canárias, patrocinado pela Suécia, em operação desde 2002, cujo telescópio dispõe de lente com 1 metro de diâmetro. É o segundo maior telescópio deste tipo, sendo o primeiro o do Observatório Yerkes, construído em 1897, em Williams Bay, Wisconsin, por George Ellery Hale (1868-1938), para pesquisar o Sol, com lente de diâmetro de 1,02 m. Em 1914, foi construído o Observatório Allegheny, em Pittsburgo, Pensilvânia, cujo telescópio tem lente de 0,76 m de diâmetro; e o telescópio do Observatório de Berlim, transferido para o de Potsdam, com lente de 0,65 m de diâmetro. O Observatório do Monte Stromlo, na Austrália, construído em 1925, e que dispunha de telescópio com lente de 0,66 m, foi destruído pelo fogo em 2003. 27 TATON, René. La Science Contemporaine. 86 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A título de exemplo, é importante citar três observatórios com telescópios refratores: o de Nice (lente de 0,50 m), o da Universidade de Viena (lente de 0,68 m) e o do Centro Espacial Chabot (lente de 1,72 m), em Oakland, Califórnia. Ao longo da primeira metade do século XX, foram construídos vários telescópios refletores, cujas dimensões do espelho não ultrapassavam três metros, dadas as dificuldades técnicas (qualidade da imagem) e operacionais (mobilidade) do instrumento, que, no entanto, foram fundamentais no avanço das pesquisas desse período. Alguns desses observatórios e seus telescópios devem ser mencionados: em 1908, o Observatório do Monte Wilson, com espelho de 1,52 m, e em 1917, com espelho de 2,54 m, ambos construídos por George E. Hale; o de Ann Arbor, em Michigan, de 1917, com espelho de 2,11 m; o de Toronto, de 1933, com espelho de 1,88 m; e os de Bolonha (1,80 m) e de Greenwich (1,83 m) construídos em 193928. Após o término da Segunda Guerra Mundial, haveria interesse por telescópios refletores de maior dimensão, que permitissem observações de melhor qualidade em regiões mais distantes. O primeiro a entrar em funcionamento seria o do Monte Palomar, a 1.713 m de altitude (Telescópio Hale com espelho de 5,08 m), sob a direção do Instituto de Tecnologia da Califórnia. O Observatório possui ainda outros telescópios refletores menores (de espelhos de 1,52, e de 1,22 m), além de um interferômetro. Em 1976, o Telescópio Hale seria superado pelo do Observatório Espacial de Astrofísica Zelenchukskaya, pertencente à Academia de Ciências de São Petersburgo, e localizado no Cáucaso a uma altitude de 2.070 metros. O Observatório dispõe de uma cúpula de 48 metros de diâmetro e telescópio BTA (iniciais de Grande Telescópio Altazimute, em russo) com espelho de 6 metros de diâmetro, capaz de detectar objetos até a magnitude 26. O Observatório dispõe, igualmente, de radiotelescópio. Em 1993, o Telescópio BTA seria superado pelo Keck I, com espelho de 9,8 metros, no Monte Mauna Kea, no Havaí, a uma altitude de 4.145 metros. Atualmente, muitos observatórios com enormes telescópios localizados em sítios altamente favoráveis para boa qualidade de observação são frutos de patrocínio e cooperação entre vários países ou organizações, como no caso da maioria dos observatórios relacionados abaixo. Para viabilizar a participação de vários países europeus na operação de observatórios no Chile, foi criada, em 1962, com sede em Garching, na Alemanha, a ESO (European Southern Observatory), organização intergovernamental que reúne onze países (Alemanha, Bélgica, Dinamarca, Finlândia, França, Grã-Bretanha, Itália, Países Baixos, Portugal, Suécia e Suíça). 28 COTARDIÈRE, Philippe de la. Histoire des Sciences. 87 CARLOS AUGUSTO DE PROENÇA ROSA O maior telescópio refletor óptico em operação atualmente é o Southern African Large Telescope (SALT), localizado no deserto de Karoo, África do Sul, e em operação desde 2005. São parceiros do SALT a Alemanha, a Polônia, os EUA, a Nova Zelândia e a Grã-Bretanha. Montado sobre uma estrutura de aço de 45 toneladas, o telescópio tem espelho de 11 metros de diâmetro, composto de 91 segmentos hexagonais. O SALT possui uma cúpula esférica de 25 metros de diâmetro. Nesse mesmo local funcionam, ainda, cinco telescópios ópticos menores da África do Sul, um do Japão, um da Coreia e um da Universidade de Birmingham. Os maiores telescópios refletores (com espelhos de mais de oito metros de diâmetro) em atividade são os seguintes: i) ii) iii) iv) v) vi) vii) viii) ix) x) xi) xii) 88 SALT – 11 metros – África do Sul – 2005 – África do Sul, EUA, Reino Unido da Grã-Bretanha, Polônia, Alemanha e Nova Zelândia; GTC (Grande Telescópio Canárias) – 10,4 metros – - Observatório Roque de los Muchachos, Las Palmas, lhas Canárias – 2005 – Espanha, Suécia; Keck – 9,8 metros – Observatório Mauna Kea, Havaí – 1993 – EUA; Keck II – 9,8 metros – Mauna Kea, Havaí – 1996 – EUA; HET (Hobby-Eberly Telescope) – 9,2 metros – Observatório MacDonald, Texas – 1997 – EUA e Alemanha; BT (Large Binocular Telescope) – 2x8,4 metros – Observatório Monte Graham, Arizona 2004 – EUA, Itália e Alemanha; NLT (Subaru) – 8,3 metros – Observatório Mauna Kea, Havaí – 1999 – Japão; VLT –Very Large Telescope – 8,2 metros – Paranal, Chile – - 1998 – Chile e ESO; VLT 2 (Kuceyen) – 8,2 metros – Paranal, Chile – 1999 – Chile e ESO; VLT (Melipal) – 8,2 metros – Paranal, Chile – 2000 – Chile e ESO; VLT 4 (Yepun) – 8,2 metros – Paranal, Chile – 2000 – Chile e ESO; Gemini North – 8,1 metros – Mauna Kea, Havaí – 1999 – Chile, Argentina, Austrália, Brasil, Canadá, EUA e Grã-Bretanha; A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO xiii) Gemini South – 8,1 metros – Observatório Cerro Tololo, Chile – 2001 – Chile, Argentina, Austrália, Brasil, Canadá, EUA, Grã-Bretanha e ESO. Outros importantes e grandes telescópios ópticos, do tipo refletor, foram recentemente postos em funcionamento, como: i) MMT (Multiple Mirror Telescope) – 6,5 metros – Observatório Fred Lawrence Whipple, Arizona – 1999 – EUA; ii) Magellan I – 6,5 metros – Observatório Las Campanas, Chile – 2000 – EUA; iii) Magellan II – 6,5 metros – Las Campanas, Chile – 2002 – EUA; iv) LZT (Large Zenith Telescope) – 6 m – Maple Ridge, B.C., Canadá – 2003 – Canadá e França; v) William Herschel Telescope – 4,2 m – Roque de los Muchachos, Chile – 1987 – Espanha, Países Baixos e Grã-Bretanha; vi) SOAR – 4,2 m – Cerro Pachón, Chile – 2002 – Brasil e EUA. Quanto à observação por telescópio óptico por satélite, cabe mencionar a Missão Espacial de Astrometria Hiparcos, enviada pela Agência Espacial da Europa (ESA), em 1989, para medir a posição e os movimentos de 120 mil estrelas e registrar, para o projeto Tycho, as propriedades de centenas de milhares de estrelas. A Missão terminou em 1993, da qual seriam elaborados catálogos, em 1997, com mais de 1 milhão de estrelas. Pouco depois, em 1990, a NASA lançou o Telescópio Espacial Hubble (TEH), o primeiro de uma série de observatórios espaciais, que, além de observar corpos celestes à luz visível, capta, igualmente, raios infravermelhos e ultravioletas. O TEH continua a funcionar até o presente, enviando para NASA excelente material sobre vários corpos celestes visíveis e invisíveis desde a Terra, (planetas, nebulosas, estrelas, galáxias) em extraordinária contribuição para o conhecimento do Cosmos. 7.3.2.2 Radioastronomia O termo genérico “radioastronomia” é utilizado para englobar as pesquisas, com telescópios especiais e diferentes dos ópticos, em faixas de comprimento (de 300 mícrons a vários centímetros) de ondas de energia 89 CARLOS AUGUSTO DE PROENÇA ROSA do espectro eletromagnético diferentes da onda da luz visível. Esse novo ramo da Astronomia atual trata e se ocupa, assim, da investigação dos corpos celestes pelo uso das ondas (longa, média, curta e micro) de rádio e dos raios infravermelho, ultravioleta, raios-X e Gama. Em 1888, o físico alemão Heinrich Rudolph Hertz (1857-1894) produziu em laboratório e investigou ondas que seriam conhecidas inicialmente como hertzianas, mais longas que as do infravermelho; pesquisas permitiriam, desde o início do século XX, o desenvolvimento do rádio (Marconi), tendo falhado, contudo, as tentativas de captar ondas provenientes do Sol. A descoberta acidental, mas pioneira, em 1931, da emissão de radiação extraterrestre (do interior de Sagitário), pelo engenheiro Karl Jansky (1905-1950), foi seguida pela verificação, em 1937-1938, por Grote Reber (1911-2002), ao captar radiação proveniente além da Terra (Cassiopeia e Cygnus)29. Essas pesquisas não despertaram, contudo, na época, muito interesse na comunidade científica. O desenvolvimento da radioastronomia, a partir dos anos 1960, é dos mais celebrados feitos ocorridos na história da Astronomia. O acesso com radiotelescópios apropriados (interferômetros) para análise da onda de rádio, com resolução cinquenta ou mais vezes menor que a da luz, permitiria separar objetos e observar detalhes invisíveis aos telescópios ópticos30. A captação da radiação cósmica de fundo seria a célebre conquista (1964) que comprovaria o extraordinário valor da utilização da radioastronomia no futuro das pesquisas astronômicas. Para a captação e medição da faixa de onda de rádio seriam construídos os chamados radiotelescópios, que, dependendo dos objetivos das pesquisas a serem efetuadas, são de variado formato e de diversos tipos, como os de um “prato”, os destinados a ondas de diferentes comprimentos (milímetro, centímetro e metro), os paraboloides cilíndricos. Por se tratar de uma atividade bastante recente, mas importante, na Astronomia, já que é capaz de detectar objetos e fenômenos invisíveis à observação óptica, tem sido acelerada a construção, em muitos países, dos radiotelescópios. O primeiro, de antena parabólica de 9 metros, foi construído em 1937, por Grote Reber, seguido, em 1957, pelo de Jodrell Bank (Inglaterra), de 76 metros, e de Arecibo (Porto Rico), em 1963. Com uma antena circular de 576 metros de diâmetro e 895 painéis refletores, para comprimento de onda de 1,50 cm, o radiotelescópio russo Ratam 6000 é o maior radiotelescópio individual. 29 30 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos. RONAN, Colin. História Ilustrada da Ciência. 90 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O radiotelescópio alemão, do Instituto Max Planck de Radioastronomia, Effelsberg, inaugurado em Bonn em 1973, com antena de 100 metros de diâmetro para comprimento de onda de 7 mm a 90 cm, seria superado, em termos de dimensão, em 2000, pelo Green Bank Telescope, em Virgínia Ocidental (EUA), com antena de 100x110m. Dos mais antigos é o radiotelescópio de Arecibo, em Porto Rico, de 1963, do tipo refletor esférico, operado pela Universidade de Cornell. Segundo o comprimento da onda para a qual estão preparados, podem ser mencionados os seguintes radiotelescópios: i) para ondas submilimétricas: AST/RO (Antarctic Submillimeter Telescope and Remote Observatory), com antena-disco (diâmetro de 1,7 m), em operação desde 1995, na Estação Amundsen-Scott, no Polo Sul; o CSO (Caltech Submillimeter Observatory), com antena-disco de 10,4 m de diâmetro, em funcionamento regular desde 1988, em Mauna Kea, Havaí; o JCMT (James Clerk Maxwell Telescope), com antena-disco de 15 m de diâmetro, em Mauna Kea, Havaí; e o SEST (Swedish ESO Submillimeter Telescope), com 16 m de diâmetro, desde 1987, localizado em La Silla, nos Andes chilenos; ii) para ondas milimétricas: o FCRAO (Five College Radio Astronomy Observatory), de 1976, com antena de 14 m; o Onsala (Observatório Espacial Sueco), com dois radiotelescópios, perto de Gotemburgo, com diâmetro de 20 m, desde 1992; o IRAM (Instituto de Radioastronomia Milimétrica), fundado em 1979, pela França, Alemanha e Espanha, tem um radiotelescópio de 30 m de diâmetro em Pico Veleta (Espanha) e outro no planalto de Bure, no Dauphiné; o NRO (Nobeyama Radio Observatory), com radiotelescópio de 45 m de diâmetro, inaugurado em 1982, em Nagano; iii) para ondas centimétricas e métricas: o Observatório australiano Mopra, com radiotelescópio de 22 m de diâmetro, a noroeste de Sidney; o Observatório Parkes, inaugurado em 1961, antena com 64 m de diâmetro, também australiano; o Radiotelescópio Nançay, conjunto de duas armações de espelhos, na cidade francesa desse nome, ao sul de Paris, um dos maiores do mundo, inaugurado em 1965; o DRAO (Dominium Radio Astrophysical Observatory), do Canadá, com antena de 26 91 CARLOS AUGUSTO DE PROENÇA ROSA m de diâmetro; nesta categoria estão os já citados telescópios de Jodrell Bank, Effelsberg e Arecibo. Em 1995, entraria em operação o Giant Metrewave Radio Telescope (GMRT), do Instituto Tata de Pesquisa Fundamental, em Bombaim. O GMRT está localizado em Pune, na Índia, e consiste de um conjunto de 30 refletores parabólicos, cada um de 45 m de diâmetro. O objetivo da pesquisa é estudar fenômenos além do Sistema Solar e buscar maiores informações sobre nebulosas, pulsares, sistemas estelares e distúrbios interplanetários. 7.3.2.3 Astronomia do Infravermelho A faixa do infravermelho foi descoberta pelo astrônomo Wilhelm Herschel, que criou o termo para designar a luz vermelha invisível, de alta temperatura, com um comprimento entre 60 mícrons e 7 mil Å, abaixo no espectro do vermelho da faixa de luz visível. Algumas tentativas, em 1856, pelo astrônomo escocês Charles Piazzi Smyth, e em 1870, pelo irlandês William Parsons (Lorde Rosse), para calcular a temperatura da Lua, levou-os a detectar radiação de infravermelho do satélite da Terra. O desenvolvimento do bolômetro, detector elétrico de irradiação de calor, por Samuel Langley, em 1878, contribuiria para captar a larga faixa de ondas de comprimento do infravermelho. No início dos anos de 1900, seriam detectadas radiações do infravermelho proveniente de Júpiter, Saturno e algumas estrelas (Vega e Arcturus), e, em 1915, William Coblentz (1873-1962) desenvolveria um bolômetro com o qual mediria no vácuo a radiação do infravermelho de cerca de cem estrelas31. As primeiras observações sistemáticas ocorreriam nos anos 1920, com os astrônomos americanos Seth Barnes Nicholson (1891-1963), que pesquisaria manchas solares, calcularia órbitas de cometas e de Plutão, descobriria asteroides e três satélites de Júpiter, e Edison Pettit (1899-1962), que pesquisaria por telescópio óptico o Sol, Marte e Júpiter, e seria conhecido como fabricante de instrumentos astronômicos, como o espectrógrafo. Nicholson e Petit mediram, com sensor especial, as temperaturas de planetas, da Lua e de estrelas. As pesquisas sobre tais raios no Espaço só avançariam a partir dos anos de 1940, quando Philo Fansworth (1906-1981), inventor do tubo de raio cátodo para TV, desenvolveria um telescópio especial para pesquisas astronômicas, que seria aperfeiçoado mais ainda a partir de 1955. 31 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos. 92 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Vários telescópios ópticos, localizados em elevadas altitudes (Mauna Kea, Andes, Monte Wilson) estão preparados para detectar ondas infravermelhas, porém vários outros são específicos (Laramie em Wyoming, UKIRT, CFHT, SPIREX). Como os raios infravermelhos são afetados pela atmosfera terrestre, sua melhor captação deve ser acima dos vapores atmosféricos, o que determinaria o envio, desde os anos de 1980, por sondas espaciais, de telescópios apropriados (SIRTF). Dos telescópios de infravermelho, instalados em terra, caberia citar: i) os SPIREX (South Pole Infrared Explorer) GRIM (1993-97) e ABU (1997-99), do Centro de Pesquisa da Antártica (CARA), cujo objetivo era investigar as origens da estrutura do Universo. As condições estáveis e de baixas temperaturas e umidade tornam a Antártica excelente posto de observação de ondas de infravermelho (e submilimétricas). Várias instituições participaram do programa: Universidades de Chicago, Boston e Northwestern e Centro Smithsonian de Astrofísica; ii) o Observatório Gemini, com dois telescópios gêmeos óptico/ infravermelho de 8 metros, localizados um em Cerro Pachón, nos Andes chilenos, e outro em Mauna Kea, no Havaí; o Gemini-Sul, nos Andes, trabalha em conjunção com os adjacentes telescópios SOAR e Cerro Tololo. Participam do Observatório centros de pesquisa astronômica da Argentina, Austrália, Brasil, Canadá, Chile, EUA e Grã-Bretanha; iii) o CFHT – Telescópio Canadá-França-Havaí – localizado no Mauna Kea, a 4.200 metros de altitude; o telescópio óptico/ infravermelho de 3,2 metros está operativo desde 1979; iv) o UKIRT (United Kingdom Infrared Telescope) – localizado em Mauna Kea, a 4.914 metros de altitude, é o maior telescópio infravermelho da atualidade; v) o IFTF (Infrared Telescope Facility) – de 3 metros, localizado em Mauna Kea, é operado pela Universidade do Havaí para a NASA; vi) o WIRO (Wyoming Infrared Observatory) , localizado em Laramie, a 2.943 metros de altitude; o telescópio, de 2,3 metros é da Universidade de Wyoming. O Observatório do Monte Wilson possui um Interferômetro Espacial Infravermelho (ISI), operado pela Universidade de Berkeley que, 93 CARLOS AUGUSTO DE PROENÇA ROSA em 1968, realizou o primeiro levantamento do infravermelho do céu pela captação da radiação na faixa de 2,2 mícrons; o levantamento, por Robert Leighton e Gerry Neugebauer, cobria cerca de 75% da abóbada, e foi capaz de identificar cerca de 20 mil fontes de radiação. Em 2001, foi inaugurado o Interferômetro Keck para pesquisa em busca de novos planetas e eventual vida fora do Sistema Solar. Ao combinar as luzes dos telescópios gêmeos Keck, o Interferômetro mede a emissão de poeira orbitando as estrelas, pesquisa objetos celestes de interesse astronômico e efetua o levantamento de centenas de estrelas para descobrir planetas do tamanho de Urano. Em 25 de agosto de 2003, foi lançado do Cabo Canaveral (Flórida) o Telescópio Espacial Spitzer, antes conhecido como SIRTF – - Spitzer Infrared Telescope Facility –, em homenagem a Lyman Spitzer (1914-1997), que, desde 1947, propusera a colocação em órbita de telescópio para contornar as dificuldades observacionais criadas pela atmosfera terrestre. Spitzer contribuiu, ainda, para os programas dos telescópios Copérnico e Hubble, da NASA. O Telescópio Espacial Spitzer tem o objetivo de observar, com detectores de infravermelho, as densas nuvens de gases e poeira que encobrem e dificultam o acesso a muitos objetos celestes. O Telescópio dispõe de um espelho principal (de berilo) de 85 cm de diâmetro e de três instrumentos de fotometria de microondas de 3 a 180 mícrons, espectroscopia de 5 a 40 mícrons e espectrofotometria de 6 a 100 mícrons. O SST é o último de uma série de telescópios espaciais infravermelhos, sendo anteriores: o IRAS (Infrared Astronomy Satellite), lançado em janeiro de 1983 e operacional por dez meses; rastreou 96% do céu por quatro vezes, detectou cerca de 500 mil fontes de radiação infravermelha, foi o primeiro a captar a luz diretamente de dois planetas extrassolares, descobriu nebulosas e quasares, e forneceu o primeiro mapa de ondas das faixas de 12, 25, 60 e 100 mícrons; o COBE (Cosmic Background Explorer), em novembro de 1989, com o objetivo de estudar a radiação cósmica de fundo, descobrindo nela muito pequenas variações de temperatura; o HST (Hubble Space Telescope), em abril de 1990; o IRTS (Infrared Telescope in Space), primeira missão japonesa, lançado em março de 1995 para uma duração de 28 dias; o ISO (Infrared Space Observatory), da Agência Espacial Europeia, lançado em novembro de 1995, operou na faixa entre 2,5 e 240 mícrons, por três anos32; o MSX (Midcourse Space Experiment), em abril de 1996, e operacional por dez meses, pesquisou na faixa de 4,2-26 mícrons a radiação infravermelho da poeira e gás no Espaço; e o WIRE (Wide-Field Infrared Explorer), em março de 1999. 32 COTARDIERE, Philippe de la. Histoire des Sciences. 94 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Cabe mencionar, ainda, o KAO (Kuiper Airborne Observatory), que consistia de um telescópio refletor de 0,915m, aerotransportado num jato Lockheed C 141 A, capaz de voar a 13,7 km de altitude; de 1975 a 1995, realizou várias observações, descobrindo, inclusive, o sistema de Anéis de Urano. 7.3.2.4 Astronomia do Ultravioleta A luz invisível ultravioleta, descoberta por Johann Wilhelm Ritter, em 1801, recebeu este nome de seu descobridor por se situar além do violeta no espectro da luz visível (entre as faixas da luz visível e dos raios-X). O exame do espectro ultravioleta permite estudar a composição química, a densidade e as temperaturas do meio estelar e das estrelas jovens, bem como a evolução das galáxias. Como a maioria dos corpos celestes tem temperaturas relativamente baixas, emitindo sua radiação eletromagnética na parte visível do espectro, a radiação UV provém de corpos mais quentes, em seus estágios inicial e final de sua evolução. Estando a maior parte da luz ultravioleta bloqueada ou absorvida pela poeira estelar e pela atmosfera terrestre (camada de ozônio), a pesquisa com base nessa radiação deve ser efetuada a partir de telescópios espaciais. O desenvolvimento dessa pesquisa é devido à invenção (patenteada em 1969) de uma câmera ou espectrógrafo por George Carruthers (1939). Nos anos de 1960, a NASA iniciaria as pesquisas com o envio de uma série de quatro (o primeiro e o terceiro falharam) observatórios, chamados OAO (Orbiting Astronomical Observatory). O segundo observatório, lançado em dezembro de 1968, com onze telescópios UV, realizou observações até 1973, descobrindo que os cometas estão envoltos num halo de hidrogênio, enquanto o quarto (conhecido como Copérnico), lançado em agosto de 1972 para pesquisa em UV e raios-X, esteve operacional até 1983, tendo descoberto vários pulsares. Dentre as diversas missões enviadas ao Espaço, nos últimos anos, para pesquisa em UV caberia mencionar: i) o International Ultraviolet Explorer (IUV), resultante da colaboração entre a NASA, a Agência Espacial Europeia (ESA) e o Conselho Britânico de Pesquisa Científica, foi lançado em janeiro de 1979, e esteve operacional até final de 1996, tendo realizado mais de 100 mil observações de planetas, auroras planetárias, cometas, estrelas, gás interestelar, supernovas, galáxias e quasares; 95 CARLOS AUGUSTO DE PROENÇA ROSA ii) a espaçonave russa Astron foi lançada em março de 1983, permanecendo operacional por seis anos, numa órbita de apogeu de 185 mil km. Levava a bordo um telescópio UV de 80 cm e um espectroscópio de raios-X para estudar quasares, pulsares, galáxias, buracos negros; iii) o telescópio Hubble, lançado em 1990, inicialmente com um instrumento HSP (High Speed Photometer), disporia, a partir de 1994, de um COSTAR (Corrective Optics Space Telescope Axial Replacement), que lhe permitiria observar sem aberrações. Em pleno funcionamento até esta data (2009), o Hubble tem contribuído, de maneira decisiva, para uma melhor compreensão do Universo através das imagens coletadas dos vários corpos celestes; iv) o Far Ultraviolet Spectroscopic Explorer (FUSE), da Universidade Johns Hopkins, foi lançado pela NASA, em junho de 1999, como parte de seu Programa Origins. O FUSE, que estuda faixas do espectro de 90 a 120 nm, que estão fora dos outros telescópios, tem o objetivo de estudar o deuterium (hidrogênio pesado) de forma a conhecer o remanescente do Big Bang; v) o Galaxy Evolution Explorer (GALEX), lançado em maio de 2003, em órbita circular de 697 km de altitude, teve a missão, durante 28 meses, de estudar galáxias e estrelas com história cósmica de 13 bilhões de anos, devendo, para tanto, determinar a distância das galáxias da Terra e o tempo de formação de estrelas nas galáxias; e vi) a espaçonave Swift foi lançada em novembro de 2004 com o propósito de colocar em órbita, por dois anos, a Gamma-Ray Burst Mission, cujo objetivo é descobrir, observar e estudar a explosão (GRB) dos raios-Gama, por meio de telescópios apropriados para raios-Gama, raios-X, raios ultravioleta e raios ópticos; o Swift está equipado com um telescópio UV, com capacidade fotométrica, apropriado para faixas de 170 a 650 nm de comprimento. 7.3.2.5 Astronomia dos Raios-X A descoberta dos raios-X pelo físico alemão Wilhelm Roentgen (1845-1923) data de 1895, mas, em 1912, Theodor Von Laue (1879-1960) mostrou que os raios-X eram uma radiação mais curta e mais energética 96 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO que o ultravioleta. Como a radiação natural dos raios-X, oriunda do Espaço, é bloqueada pela atmosfera terrestre, os telescópios especiais para detectar a emissão de tais raios por distantes objetos celestes devem estar posicionados acima da atmosfera, o que significa ter sido necessário aguardar o desenvolvimento da Astronomia espacial para o surgimento de tal tipo de pesquisa astronômica33. Herbert Friedman (1916-2000) é considerado pioneiro nessas pesquisas, por ter detectado, em 1949, num pequeno contador geiger enviado ao Espaço por um foguete (capturado) alemão V-2, fracas emissões de raios-X pela coroa solar. Um detector aperfeiçoado por Riccardo Giacconi (1931) e sua equipe, e lançado ao Espaço por um foguete Aerobee, descobriria, em 1962, na constelação de Escorpião, a Scorpius X-1, a primeira fonte de raios-X fora do Sistema Solar. Em 1970, seria lançado, do Quênia, com a responsabilidade de Giacconi e sua equipe, o Observatório UHURU (liberdade, em suahíli), primeiro telescópio de raios-X da NASA, com a missão exclusiva de pesquisar a emissão de raios-X. O UHURU funcionou até 1973, seguido, em 1977, do HEAO I (Observatório Astronômico de Alta Energia) que, até 1979, vasculhou os raios-X no céu. Em outubro de 1974, foi lançado, do Oceano Índico, o satélite Ariel V, que permaneceria em funcionamento até março de 1980; a missão britânico-americana pesquisaria fontes de raios-X, galáxias e pulsares. Em 1978, a NASA enviaria o HEAO II, depois chamado de Observatório Einstein, que permaneceria em órbita até 1981, prosseguindo as pesquisas do HEAO I, descobrindo milhares de fontes de raios-X, e obteve imagens de raios-X de pulsares e aglomerados de estrelas. O Japão enviaria, em 1979, o satélite Hakucho, que permaneceu ativo até 1985, tendo descoberto fontes de raios-X e pesquisado pulsares. Uma série de missões (NASA, ESA, Japão, Rússia) seria enviada ao Espaço desde o início dos anos de 1980, tendo sido detectadas mais de 100 mil fontes de raios-X, e o objeto celeste mais distante, visto pelo telescópio especial para raios-X, se encontra cerca de 13 bilhões de anos-luz da Terra. No campo da Astronomia dos raios-X, dos últimos anos, devem ser mencionadas as seguintes missões espaciais: i) ii) 33 TENMA (Pégaso, em japonês), satélite japonês, lançado em fevereiro de 1983, permanecendo operacional até novembro de 1985, pesquisaria na região galáctica; o EXOSAT teve vida útil de maio de 1983 a abril de 1986; realizou 1.780 observações, que incluem núcleos CAPOZZOLI, Ulisses. No Reino da Radiastronomia. 97 CARLOS AUGUSTO DE PROENÇA ROSA iii) iv) v) vi) vii) viii) ix) 98 galácticos, coroas estelares, estrelas variáveis, quasares, pulsares, estrelas anãs brancas, aglomerados de estrelas e remanescentes de supernovas; GINGA (galáxia, em japonês): de fevereiro de 1987 a novembro de 1991 estudou as galáxias; GRANAT, satélite russo, em colaboração com países europeus, esteve operacional de dezembro de 1989 a novembro de 1998, pesquisou eventuais buracos negros e colheu dados de regiões centrais de galáxias; ROSAT, observatório alemão/americano/inglês, cujo nome foi dado em homenagem ao físico Roentgen, foi lançado em junho de 1990 e esteve operacional até fevereiro de 1999. O ROSAT foi colocado em órbita circular a 550 km de altitude e catalogou mais de 150 mil objetos celestes; descobriu emissão de raios-X por cometas; detectou estrelas de nêutrons; observou supernovas e aglomerados de galáxias; YOHKOH, satélite japonês, lançado em agosto de 1991 para estudar raios-X e raios-Gama provenientes do Sol. Estava equipado com dois telescópios (SXT e HXT) e dois espectrômetros, e esteve operacional até 2001; Observatório ROSSI X-Ray Timing Explorer (RXTE), lançado pela NASA, em 1995, com o objetivo de estudar buracos negros, estrelas de nêutrons e pulsares; Observatório de Raios-X Chandra, lançado em julho de 1999, é o terceiro dos quatro grandes observatórios programados pela NASA. A altitude da órbita em seu apogeu chega a 149 mil km, e está equipado com três espectrômetros e uma câmera. O Chandra, que continua operacional, efetuou importantes pesquisas, como a primeira imagem óptica de um buraco negro ou estrela de nêutron no centro da Cassiopeia, anel em torno de pulsar na nebulosa do Caranguejo, ondas sonoras em volta de buraco negro no aglomerado Perseu, descoberta de estrela de nêutron em remanescentes de supernova, e o processo de “canibalização” de uma pequena galáxia; e XMM (X-Ray Multimirror Mission), lançado pela Agência Espacial Europeia, em 1999, com três câmeras CDD para raios-X, além de telescópio para observação óptica/UV, o que permite a observação simultânea em duas regiões do espectro. Sua vida útil está prevista para durar dez anos. A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.3.2.6 Astronomia dos Raios-Gama Os raios-Gama foram descobertos em 1900, pelo químico e físico francês Paul Villard (1860-1934), permanecendo por muitos anos como uma das mais desconhecidas radiações, cujas ondas são as mais curtas do espectro eletromagnético e as que emitem mais energia (cerca de 10 mil vezes mais que a luz visível). As pesquisas sobre os objetos celestes com base na emissão de raios-Gama teriam de esperar, como no caso do infravermelho, ultravioleta e raios-X, avanços na tecnologia de instrumentos apropriados, uma vez que investigações científicas, do período 1948-1958, levavam astrofísicos a crer na emissão de raios-Gama por diversos objetos espalhados no Universo, como explosões de supernovas e interação de raios cósmicos com gases interestelares. Como em outras faixas do espectro eletromagnético, dado que são absorvidos pela atmosfera terrestre, os raios-Gama têm de ser detectados fora da atmosfera do Planeta, o que significa a utilização de detectores a bordo de balões ou de satélites artificiais. Apesar das importantes informações coletadas sobre explosões de estrelas da Via Láctea, estrelas binárias, buracos negros e pulsares, dentre muitos dados obtidos das missões enviadas ao Espaço, não foram ainda detectadas suas fontes de energia nas regiões mais distantes do Cosmos. As diversas missões na área da Astronomia dos raios-Gama têm como objetivo a compreensão de como a Matéria e a radiação interagem em extremas condições de temperatura (centenas de milhões de graus), de alta densidade da Matéria e da força do campo magnético; para tanto, a principal meta tem sido a observação e estudo pela emissão de raios-Gama de supernovas, estrelas de nêutron, buracos negros, pulsares e quasares34. O satélite Explorer XI seria equipado com o primeiro telescópio para detectar raios-Gama; lançado em abril de 1961, o Explorer XI permaneceria em órbita apenas por quatro meses (até setembro); a curta missão foi capaz, contudo, de detectar 22 “eventos” de raios-Gama. Em novembro de 1972, foi lançado o Small Astronomy Satellite, conhecido como SAS-2, que efetuou detalhada observação de raios-Gama. Por motivo de falhas técnicas, deixaria o SAS-2 de ser operacional em junho de 1973. A Agência Espacial Europeia (ESA) lançaria, em agosto de 1975, o Cosmos-B (COS-B), que forneceu o primeiro mapa completo da Galáxia em raios-Gama; a missão terminaria após seis anos e oito meses (abril de 1982) de operação. 34 ASIMOV, Isaac. New Guide to Science. 99 CARLOS AUGUSTO DE PROENÇA ROSA Em abril de 1991, foi lançado em órbita de 450 km de altitude o Compton Gamma Ray Observatory – CGRO (homenagem a Arthur Compton), o segundo (Hubble é o primeiro) da série de grandes observatórios da NASA, que permaneceria operacional até junho de 2000. O CGRO dispunha de quatro instrumentos: um monitor para detectar explosões de raios-Gama de curta duração, um detector de raios-Gama e dois telescópios. Após o fracasso do lançamento do HETE-1, a NASA, em outubro de 2000, enviou o High Energy Transient Explorer-2 (HETE-2), pequeno satélite científico para detectar a explosão de raios-Gama. A missão, resultante de colaboração internacional sob a direção do Centro de Pesquisa do Espaço do MIT, conta com a participação, entre outros, das Universidades americanas de Chicago, Berkeley e da Califórnia, INPE (Brasil), CNR (Itália), TIFR (Índia) e CESR (França). A Agência Espacial Europeia (ESA) lançaria, em outubro de 2002, em órbita de período de 72 horas e de 153 mil km de altitude (apogeu), o International Gamma-Ray Astrophysics Laboratory, conhecido como INTEGRAL, ainda em perfeito funcionamento. Em novembro de 2004, a NASA lançou o observatório Swift numa órbita de 600 km de altitude para estudar a explosão de raios-Gama (Gamma-Ray Burst – GRB), e seus clarões em ultravioleta, raios-X e raios-Gama, com o objetivo de determinar a origem do GRB, o qual deve ocorrer a “distâncias cosmológicas”. Com esse intento, o estudo poderá verificar tais distâncias do Universo, ou seja, de um Cosmos jovem. A duração prevista da missão é de 16 anos. No final de 2005, o Swift já havia detectado 90 GRB e 70 clarões em raios-X. 7.3.2.7 Novas Técnicas de Pesquisa Técnicas desenvolvidas anteriormente, como a espectroscopia e a fotografia, aperfeiçoadas e inovadas com a introdução de diversos melhoramentos, continuam a ser largamente utilizadas nas pesquisas astronômicas pelo importante apoio para o estudo do espectro eletromagnético. No caso da fotografia, grande avanço foi obtido com a invenção da câmera eletrônica, pelo astrônomo francês André Lallemand, e o desenvolvimento da técnica dos fotomultiplicadores. Em seguida, seria inventada a nova técnica do Dispositivo de Carga Acoplada – CCD (charge-coupled device), sensor especial de luz, que reúne as vantagens da câmera eletrônica e do fotomultiplicador35. Com a crescente demanda da 35 VERDET, Jean-Pierre. Uma História da Astronomia. 100 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO comunidade astronômica por instrumentação que lhe permitisse executar investigações pioneiras, novas técnicas e aparelhos seriam desenvolvidos ao longo dos últimos decênios. O telescópio, fundamental instrumento de pesquisa astronômica, seria aperfeiçoado quanto à qualidade e ao alcance, e sua utilização em satélites e naves espaciais ampliaria seu horizonte observacional para incluir as diversas faixas de ondas do espectro eletromagnético. Para os propósitos deste capítulo, basta examinar a interferometria e o radar, como técnicas inovadoras de pesquisa astronômica. 7.3.2.7.1 Interferometria O interferômetro é um aparelho destinado a medir a interferência eletromagnética quando as ondas eletromagnéticas interagem. A técnica foi utilizada e desenvolvida pelo físico americano Albert Abraham Michelson (1852-1931), para dividir em dois o raio de luz, enviá-los em direções diferentes, e, depois, os reúne outra vez; se os raios “viajassem” a velocidades distintas, haveria “interferência”, que seria detectada pelo aparelho. Michelson conseguiria, com essa técnica, um cálculo bastante aproximado da velocidade da luz, o que lhe valeria o Prêmio Nobel de Física em 1907. Com o objetivo de aprimorar as pesquisas astronômicas através dos radiotelescópios, os astrônomos e astrofísicos passariam a se utilizar de interferômetros de síntese de abertura, equivalente aos telescópios ópticos de “prato” de 1,6 km ou mais de diâmetro. Os pioneiros no desenvolvimento dessa técnica seriam os australianos Joseph Pawsey (1908-1962) e Bernard Mills (1848/53), construtor do Mills Cross Telescope e do Molongolo Cross Telescope, e Martin Ryle (1918-1988, PNF-1974), que, em 1959, listou a posição e energia de mais de 500 fontes de radiação em seu Terceiro Catálogo de Cambridge; Ryle e sua equipe de Cambridge operariam dois radiotelescópios (radiointerferômetros): o Uma Milha e o Cinco Quilômetros. A conjugação, ou o posicionamento, em linha, de uma série de interferômetros, permitiria misturar sinais de vários telescópios, produzindo imagens com a mesma resolução angular de um instrumento do tamanho do conjunto dos telescópios; em outras palavras, medindo, com bastante precisão, distâncias angulares, estudando as distribuições da intensidade radiante e detectando pequenos detalhes de corpos celestes até então desconhecidos, o que aumentaria consideravelmente o conhecimento do Cosmos36. 36 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos. 101 CARLOS AUGUSTO DE PROENÇA ROSA Estão relacionados abaixo, a título exemplificativo, alguns importantes projetos de pesquisa astronômica com interferômetros: i) o Very Long Baseline Array – VLBA é composto de antenas de 10 radiotelescópios, cada, com “prato” de 25 m de diâmetro e 240 toneladas. Projeto da entidade governamental americana Observatório Nacional de Radioastronomia, o VLBA, completado em 1993, se estende de Mauna Kea, no Havaí, até Saint-Croix, nas ilhas Virgens (EUA), o que corresponde a uma linha de cerca de 8 mil km; ii) o consórcio europeu EVN, conjunto interferométrico de radiotelescópios, formado em 1980, com o Instituto Max Planck de Radioastronomia (Bonn), o Instituto de Radioastronomia (Bolonha), a Fundação Holandesa para Pesquisa em Astronomia (ASTROM), o Observatório Espacial Onsala (OSO), da Suécia, e o Observatório Jodrell Bank, na Inglaterra, conta hoje com um total de 14 entidades. A iniciativa é conhecida como European VLBA Net; iii) o Mauritius Radio Telescope, projeto conjunto da Universidade de Maurício, do Instituto de Astrofísica da Índia e do Instituto de Pesquisa Raman, é um “síntese de abertura”, em forma de “T”, de 2 km x 1 km, a parte mais extensa com 1.024 antenas fixas helicoidais de 2 metros, e a parte menor (1 km), com 64 antenas sobre 16 estruturas móveis. O principal objetivo é a pesquisa do céu do Hemisfério Sul; iv) dentre os interferômetros para ondas de centímetros e metros, podem ser citados: o inglês Telescópio Ryle, de 8 antenas de 13 metros – pesquisa aglomerados de galáxias; o Síntese de abertura, canadense, do Dominium Radio Astrophysical Observatory (DRAO), de 7 antenas de 9 metros de diâmetro, em forma paraboloide, pesquisa principalmente regiões formadoras de estrelas e nebulosas; o Australian Telescope Compact Array (ATCA), de 6 antenas de 22m; o holandês Westerbork Radio Synthesis Telescope (WRST), de 14 antenas de 25m; o americano Very Large Array (VLA), de 27 antenas parabólicas de 25m; e o indiano Giant Meterwave Radio Telescope (GMRT), de 30 antenas de 45m de diâmetro, espalhadas numa área de 25 km², próximo da cidade de Pune. 102 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.3.2.7.2 Radar O radar (do inglês radio detection and ranging), aparelho destinado a medir a distância a partir do lapso de tempo que o pulso de energia emitido demora a retornar, ao ser refletido pelo alvo, foi bastante utilizado e desenvolvido durante a Segunda Guerra Mundial, e viria a ser de grande utilidade para as investigações do Sistema Solar, a partir dos anos 60. Sistemas de radar, instalados na superfície da Terra, têm sido usados para um grande número de estudos astronômicos, geodésicos e meteorológicos. Na Astronomia, a técnica do radar para a coleta de dados se restringe ao âmbito do Sistema Solar, incluindo vários tipos de corpos celestes (planetas, luas, asteroides e cometas), por meio de aparelhos instalados na superfície da Terra ou da Lua, e em veículos espaciais. O procedimento é simples: emissão de extremamente fortes impulsos de ondas de rádio de espectro de micro-ondas, pelo radar, em direção do objeto sob estudo, e a captação do retorno do sinal, por grandes conjuntos de discos (pratos) do mesmo radar emissor. Como a velocidade da onda de rádio é próxima da luz, é fácil calcular a distância de ida e volta da Terra percorrida pela radiação. Numa primeira etapa (1960/1975), a pesquisa esteve restrita à computação da distância Terra-Lua, para se estender, depois, a outros corpos do Sistema Solar, principalmente os asteroides. O envio ao Espaço de sondas e satélites artificiais equipados com radares cresceu significativamente a importância dessa técnica para o conhecimento do Sistema Solar. Nos últimos anos aumentaram, em número de milhões, os detritos espaciais, objetos de dimensões e massas variadas, que, em algum momento, entrarão na atmosfera terrestre. Como muitos desses objetos (lixo) cairão na superfície do Planeta, o que é um problema que tende a ser crítico com a expansão dos programas de exploração espacial, a técnica de radar tem sido utilizada por diversas estações com o propósito de rastreá-los e controlá-los. A técnica do radar (o cientista estabelece a polarização e a estrutura tempo/frequência da emissão da fonte refletora), por ser diferente da empregada para a captação da luz e da emissão natural da onda de rádio (na qual o objeto refletor é passivo, isto é, sem a participação ou ingerência externa), permite a coleta de dados indisponíveis por outras técnicas, como a determinação da distância de objetos celeste e a obtenção de informações sobre a topografia e o período de rotação dos corpos sólidos. Graças ao radar, foi possível o refinamento do cálculo da unidade 103 CARLOS AUGUSTO DE PROENÇA ROSA astronômica (UA – unidade de distância equivalente a 149.597.870.691 metros), que corresponde à distância da Terra ao Sol. Para evitar interferência, a localização ideal para as estações de radar é em áreas afastadas de centros populacionais e distantes de centros de telecomunicações e de aviação civil, o que explica os locais especialmente escolhidos pelas entidades responsáveis pelos observatórios. O grande avanço nas pesquisas com a técnica do radar é devido aos programas desenvolvidos principalmente pelos EUA. Os dois principais centros de pesquisa planetária com o radar são o Centro de Arecibo, em Porto Rico, do Observatório Nacional de Radioastronomia, e o Sistema de Radar Solar Goldstone, da NASA, na Califórnia. O radar de Arecibo, o mais poderoso e sensível sistema, desde 1996, com antena para ondas de comprimento de 12,6 cm, tem coletado dados da Lua, de Mercúrio, Vênus, satélites de Júpiter e de anéis de Saturno, além de informações de numerosos asteroides e cometas. O sistema de Goldstone, que dispõe de antena de 70 metros de diâmetro para ondas de comprimento de 3,5 cm, tem realizado observações científicas em asteroides, superfícies de Vênus e Marte, e satélites de Júpiter. Com programação prevista até 2015, ambas as estações trabalham em colaboração com outros centros de pesquisas de diversos países. A estação de Evpatoria, na Crimeia, originalmente da URSS, mas hoje em dia administrada pela Agência Espacial da Ucrânia, funciona, desde 1998, em estreita colaboração com a Agência Espacial Russa. Evpatoria dispõe de radar com antena de 70 metros (RT-70), utilizada especialmente para a localização e medição de detritos (lixo) espaciais. Em razão de seus problemas técnicos para rastrear objetos muito próximos da Terra, participa a Evpatoria da chamada Rede de Baixa Frequência VLBI, integrada pelos seguintes radares: Noto RT-32 (Itália), Torum RT-32 (Polônia), Xangai RT-25 (China), Urunqi Rt-25 (China) e Lago Urso RT-64 (Rússia). 7.3.2.7.3 Maser/Laser Duas técnicas seriam utilizadas para aumentar a eficiência dos radiotelescópios. O processo desenvolvido por Charles Hard Townes (1915 – PNF-1964), que produz ondas eletromagnéticas através da amplificação de emissão amplificada, é conhecido como maser (do inglês microwave amplificaton by stimulated emission of radiation); sua aplicação na Astronomia permitiria amplificar sinais fracos vindos do Espaço. A outra técnica, desenvolvida em 1960, por Theodore Maiman (1927), tem o nome 104 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO de laser (do inglês light amplification by stimulated emission of radiation), por amplificar a luz pela emissão de radiação; o laser é usado em Astronomia principalmente para medir distâncias de objetos celestes37. 7.3.3 Astronomia Planetária As pesquisas sobre o sistema planetário continuariam, ao longo do século XX, e até os dias de hoje, a despertar o interesse dos astrônomos, se bem que o sistema estelar possa ser considerado, talvez, como a principal atividade atual das investigações. No caso da Astronomia planetária, o desenvolvimento de novas técnicas, como a fotografia, e a utilização de telescópios ópticos de maior alcance e de melhor qualidade visual seriam fatores para o avanço obtido, na primeira metade do século XX, no conhecimento do Sistema Solar. Sondas, satélites e naves espaciais tripuladas permitiriam, a partir dos anos de 1960, o acesso a informações até então indisponíveis, das quais resultaria um extraordinário progresso no conhecimento dos planetas e de outros corpos celestes do Sistema Solar. O crescente interesse atual pela Astronomia planetária está demonstrado pelo número de missões enviadas e programadas para diversos planetas com o objetivo de colher mais e melhores dados sobre suas propriedades físicas e químicas, como temperatura, densidade, massa e atmosfera. O conhecimento atual mostra ser o Sol a fonte mais rica de energia eletromagnética do Sistema Solar, com 99,85% de toda a matéria do Sistema; aos planetas correspondem 0,135% da massa do Sistema, sendo que Júpiter contém mais do dobro da massa de todos os demais planetas. Os satélites dos planetas, os cometas, os asteroides, os meteoros e a matéria interplanetária (energia, gás e poeira) constituem apenas 0,015% do total da massa do Sistema. A recente descoberta de um novo corpo celeste mais distante que Plutão tem sido objeto de celeuma no meio astronômico, a fim de decidir se se trata de um novo planeta ou de um planetoide, questão que, se não é importante para entendimento da estrutura do sistema planetário, ao menos indica haver campo para novas descobertas. Dadas essas características da evolução da Astronomia planetária na atualidade, o tema, para efeitos expositivos, será apresentado em duas fases, em que a primeira cobre o período até o início das missões espaciais. 37 CAPOZZOLI, Ulisses. No Reino dos Astrônomos Cegos. 105 CARLOS AUGUSTO DE PROENÇA ROSA 7.3.3.1 Primeira Fase Uma descoberta no sistema planetário de grande impacto na comunidade astronômica e na opinião pública em geral, seria a do “planeta” Plutão, efetuado por Clyde William Tombaugh (1906-1997), do Observatório Lowell (Arizona), em 1930, pelo exame de chapas fotográficas38; Tombaugh descobriria, ainda, quatorze asteroides. O aumento para nove do número de planetas do Sistema Solar seria, talvez, um dos mais significativos acontecimentos desta fase, tanto mais que indicava faltar muita coisa a ser descoberta no campo da Astronomia planetária. Em 1905, Percival Lowell (1995-1916), do Observatório Flagstaff (Arizona), iniciara a busca de um planeta além de Netuno, tarefa que continuaria, após sua morte, pelos integrantes de sua equipe do Observatório. Em 1909, William Pickering apresentaria observações no sentido da provável existência de um planeta mais distante que Netuno. Outros astrônomos, espalhados pelo mundo, se dedicariam, igualmente, a essa tarefa, uma vez que as discrepâncias entre as posições previstas e observadas de Netuno e de Urano eram fortes indícios de serem causadas pela ação gravitacional de um planeta desconhecido. Na realidade, a causa real dessas discrepâncias era o valor equivocado atribuído às massas de Netuno e de Urano, conforme seria constatado, posteriormente, ao se proceder à correção dos valores. Além do mais, a massa do pequeno (2/3 da Lua) recém-descoberto “planeta” seria bastante insuficiente para exercer qualquer influência gravitacional relevante em outros planetas, principalmente das dimensões de Urano e de Netuno. Ao longo desta fase, as inúmeras pesquisas para esclarecer uma série de dados importantes sobre as propriedades e condições prevalecentes nos planetas e na Lua, como dimensão, massa, densidade, movimentos, gravidade, temperatura, relevo e atmosfera, coligiriam, na realidade, insuficientes e imprecisos dados, que significaram pouco avanço no conhecimento desses corpos celestes do Sistema Solar; o mesmo comentário se aplica às investigações sobre os cometas. A Lua e Marte talvez tenham sido os mais pesquisados, enquanto as dificuldades para observação telescópica ou das chapas fotográficas de Vênus impediriam real progresso no conhecimento desse planeta. Quanto aos grandes e distantes planetas, as mesmas dificuldades impediriam maiores e exatas informações sobre Júpiter, Saturno, Urano e Netuno. Importante ressaltar, 38 PANNEKOEK, Anton. A History of Astronomy. 106 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO desde já, a relevância das observações da Astronomia planetária, na medida em que proporcionaria, além dos dados sobre os planetas, pioneiras informações sobre os satélites naturais e asteroides. De um grande número de pesquisas, algumas de maior interesse, seriam: i) Percival Lowell (1855-1916), famoso por sua dedicada pesquisa, desde o Observatório Flagstaff (Arizona), a respeito dos “canais” de Marte, desenhados por Giovanni Schiaparelli (1835-1910), diretor do Observatório de Milão; sobre o tema escreveria três livros: Marte (1895), Marte e Seus Canais (1906) e Marte como Moradia de Vida (1908); ii) Bernard Lyot (1897-1952), Medalha Bruce (1947), pesquisou superfícies da Lua e de Marte e investigou a atmosfera de planetas (Vênus, Marte); fotografou a coroa solar e seu espectro; iii) Henri Alexandre Deslandres (1853-1948), Medalha Bruce (1921), mediu a velocidade radial de planetas e estrelas, determinou a taxa de rotação de Urano, Júpiter e Saturno, estudou a cromosfera solar e atividades solares; iv) Eugene Antoniadi (1870-1944), famoso por sua afirmação da existência dos canais de Marte, escreveu La Planète Mars (1930), pesquisou Mercúrio e Vênus, tendo escrito ainda La Planète Mercure et la Rotation des Satellites (1934), no qual sustentou que o período de rotação de Mercúrio era igual ao período de translação, o que significava que um lado do planeta estaria sempre virado para o Sol e o outro no escuro39; v) Edward Barnard (1857-1923), Medalha Bruce (1917), descobriu vários cometas e fez diversos estudos sobre aspectos físicos de planetas, cometas, nebulosas e novas, e contribuiu para a melhoria de métodos fotográficos; vi) Robert Aitken (1864-1951), Medalha Bruce (1926), mais conhecido por suas pesquisas a respeito das estrelas binárias, sobre as quais preparou um catálogo; procedeu à medição das posições de cometas e satélites planetários e de suas órbitas; vii) em 1926, os astrônomos americanos William Weber Coblentz e Carl Otto Lampland conseguiram medir a temperatura de Marte; viii) dentre suas inúmeras e importantes contribuições, Vesto Slipher (1875-1969), Medalha Bruce (1935), calcularia o período de rotação de Vênus, Marte, Júpiter, Saturno e Urano; ix) Jan Hendrik Oort (1900-1992), Medalha Bruce (1942), confirmou, em 1927, a hipótese de Bertil Lindblad sobre a rotação das galáxias, e propôs a atual teoria da origem dos cometas, inclusive a chamada Nuvem de Cometas (1950) e x) Gerard Kuiper (1905-1973) sugeriria a existência de um cinturão de objetos celestes além de Netuno (o que seria confirmado em 1992). Em 1859, Le Verrier constatara anomalias no comportamento de Mercúrio, cujo periélio se deslocava 570 segundos de arco por século. A 39 MOURÃO, Ronaldo Rogério. O Universo. 107 CARLOS AUGUSTO DE PROENÇA ROSA explicação para essa anomalia seria dada por Einstein, em artigo de 1916, por meio de sua Teoria geral da relatividade, segundo a qual, a deformação da estrutura do Espaço-Tempo pelo Sol perturba a trajetória dos planetas e avança seu periélio. A solução encontrada por Einstein é citada como uma das comprovações de sua Teoria. Adicionalmente, deve ser acrescentado que investigações nessa primeira fase conduziriam à descoberta de satélites planetários ou luas, através do detido exame de fotografias, porquanto se encontravam fora do alcance dos telescópios da época. Em 1903, William Henry Pickering (1858-1938), astrônomo americano que estabeleceu Estações de Observação de Harvard em Arequipa (Peru) e Mandeville (Jamaica), e pesquisou a Lua e meteoros, descobriria o nono satélite de Saturno, que recebeu o nome de Themis. Seis satélites de Júpiter foram descobertos: dois, (Himalia, em 1904, e Elara, em 1905), por Charles Dillon Perrine (1867-1951), astrônomo americano-argentino (Diretor do Observatório Astronômico de Córdoba, de 1909 a 1936 e promotor do estudo de Astrofísica no país); o Pasiphaë, em 1908, pelo astrônomo inglês Philibert Jacques Melotte; e em 1914, o astrônomo americano Seth Nicholson (1891-1963), do Observatório Lick, descobriria o satélite Sinope; em 1938, Lysithea e Carme; e em 1951, Ananke. O satélite Miranda, o quinto de Urano, seria descoberto em 1948, pelo astrônomo holandês-americano Gerard Peter Kuiper (1905-1973), que descobriria, igualmente, o satélite Nereida, de Netuno, em 1949. Devido às mais recentes descobertas, o quadro atual de satélites naturais é o seguinte: Mercúrio e Vênus – sem satélites; Marte continua apenas com os dois descobertos em 1877 – Fobos e Deimos; Júpiter – com um total de 63 satélites; Saturno, 46; Urano, 27; e Netuno, 13. Além desses satélites, há os chamados satélites pequenos e irregulares que não são computados com os demais40. Asteroides são pequenos objetos celestes ou planetas de pequenas dimensões, descobertos a partir de 1801, tendo sido Ceres o primeiro, pelo italiano Giuseppe Piazzi (1746-1826); vários outros asteroides seriam descobertos no século XIX. Maximilian Wolf (1863-1932), fundador de Observatório em Heidelberg, professor de Astrofísica, medalha Bruce (1930), pesquisador da Via Láctea e descobridor de centenas de galáxias e nebulosas, descobriria, utilizando-se da técnica da fotografia, o asteroide Aquiles, o primeiro dos chamados “asteroides troianos” (grupo de corpos celestes que gravitam na mesma órbita de Júpiter), além de uma centena de outros asteroides. 40 COTARDIÈRE, Philippe de la. Histoire des Sciences. 108 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O maior interesse da Astronomia planetária em asteroides é quanto aos chamados “asteroides rasantes”, isto é, aqueles que, pela possibilidade de colisão com a Terra, de alguma forma representam um perigo para o Planeta. Famoso é o Hermes, que teria chegado a cerca de 750 mil km da Terra, quando descoberto, em outubro de 1937, pelo astrônomo alemão Karl Reinmuth (1892-1979); um total de 395 asteroides (entre troianos e rasantes) e dois cometas foram descobertos por Reinmuth. Os cometas seriam, igualmente, objetos de estudos, além dos de Aitken, Oort e Reinmuth, já mencionados. Caberia, agora, citar o trabalho de Gerard Kuiper, que em 1951, propôs a existência do chamado Cinturão Kuiper de Cometas, situado além da órbita de Júpiter para os cometas com período inferior a 200 anos. 7.3.3.2 Segunda Fase As pesquisas astronômicas nesta segunda fase seriam muito mais numerosas e mais produtivas, beneficiadas pelos avanços técnicos na qualidade da fotografia e pela utilização de observatórios espaciais (sondas, satélites, módulos, robôs), tripulados e não, o que permitiria um extraordinário progresso no conhecimento dos outros planetas e suas luas. A observação óptica por telescópios localizados na superfície terrestre continuaria a fornecer importante material de pesquisa, mas, evidentemente, a obtenção de imagens pelos satélites artificiais e a coleta de amostras por astronautas e robôs seriam extremamente valiosas e decisivas para a expansão do entendimento do Sistema Solar e de seus principais componentes planetários e lunares. Seguem, abaixo, algumas informações sobre as pesquisas espaciais nos diversos planetas, por missões especificamente designadas: Mercúrio – A sonda interplanetária Mariner 10, enviada ao Espaço em novembro de 1973, passaria, a partir de março de 1974, a mandar informações e imagens (cerca de 10 mil), cobrindo 57% do planeta; em março de 1976, a sonda sobrevoou novamente as mesmas regiões de Mercúrio. A superfície crateriforme, a tênue atmosfera, a fraca densidade e a duração da rotação, em 58,7 dias do planeta foram conhecidas e comprovadas pelas informações obtidas pela Mariner 10. Em agosto de 2004, a NASA lançou o Messenger, previsto para chegar ao planeta em março de 2011. Vênus – O fracasso de várias tentativas dos EUA e da URSS, nos anos de 1960, de enviar sondas a Vênus, atrasaria para os anos seguintes a 109 CARLOS AUGUSTO DE PROENÇA ROSA obtenção, in loco, de dados sobre as condições e propriedades do planeta. As Missões Mariner 10 (1973), Pioneer-Venus 1 e 2 (1978) e Magellan (1990), dos EUA, e Venera (7 a 16) de 1970 a 1983 e Vega (1985), da URSS, enviariam importantes e excelentes informações e imagens, permitindo um grande avanço no conhecimento desse planeta. As sondas Venera, que aterrissaram em Vênus, transmitiram informações sobre uma pressão de 90 atmosferas (composta de gás carbônico a 97% e outros componentes, como água, nitrogênio, óxido de carbono e oxigênio), e uma temperatura de 750 K na superfície, além das primeiras fotos preto e branco, e coloridas, da superfície, e análise de solo; os soviéticos enviaram, no final de 1984, as sondas Vega 1 e 2, que estudariam o solo de Vênus. O Mariner 10, em fevereiro de 1974, de passagem por Vênus, enviou 4 mil fotos, tiradas a 4.700 km de distância; a missão constatou uma atmosfera composta fundamentalmente de dióxido de carbono e um campo magnético de apenas 0,05% do da Terra. O Pioneer-Vênus 1, em órbita desde dezembro de 1984 até agosto de 1992, permitiria identificar as características da superfície, cujo relevo inclui imensos planaltos, terras baixas e uma enorme planície ondulada (60% da superfície total). A nave Magellan entrou na órbita de Vênus em agosto de 1990, permanecendo operacional por 4 anos, durante os quais mapeou (37,2 minutos de cada órbita) a superfície (98%) do planeta, no mais completo e preciso levantamento em dimensões inferiores a 1 km, e alturas com exatidão de 50m41. A Agência Espacial Europeia (AEE) colocou em órbita (abril de 2006) a nave-robô Vênus Express que estudou, por quinhentos dias, a atmosfera do planeta, composta, principalmente, de dióxido de carbono, e temperatura média de 465 graus Celsius. Marte – As sondas americanas Mariner (4, 6, 7 e 9), nos anos de 1960, e soviéticas Marte (2, 3, 4, 5 e 6), entre 1971 e 1973, enviariam fotos do planeta e de suas duas luas, e informações sobre a atmosfera, a superfície, gravidade, magnetosfera e temperatura. As sondas Viking 1 e 2, com robôs que desceram ao solo em 1976, descobririam que a atmosfera de Marte é constituída por 95% de gás carbônico, 3,5% de nitrogênio e 1,5% de argônio, com ausência total de oxigênio. Nenhuma pesquisa relevante ocorreria nos anos seguintes até julho de 1997, quando aterrissou em Marte a sonda Mars Pathfinder, com a missão de analisar a geologia, o clima e a temperatura do planeta; durante oito meses, enviou mais de 17 mil imagens e efetuou mais de 8,5 milhões de medições de pressão atmosférica, temperatura e velocidade do vento. O Global Surveyor, em órbita desde 1997, só esteve operacional em março de 1999, tendo remetido 41 MOURÃO, Ronaldo Rogério. O Universo. 110 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO preciosas informações sobre a atmosfera e a superfície de Marte. A nave espacial Odyssey entraria em órbita em outubro de 2001, com a missão de pesquisar a composição química e mineral da superfície, detectar água e radiação ambiental. A Agência Espacial Europeia, em colaboração com a NASA e a Agência Espacial Italiana, iniciaria a Missão Express, cuja nave se encontra em órbita desde dezembro de 2003, e sua missão terminou em outubro de 2007; seu principal objetivo era explorar a superfície e a atmosfera do planeta. Lançados em junho/julho de 2003, e em órbita desde janeiro de 2004, dois Explorers Rovers coletam dados e enviam imagens sobre a superfície e o solo de Marte, atualmente em exame pelos cientistas. Em busca de indícios de vida e de eventual local de pouso, entrou em órbita de Marte, em março de 2006, a nave da NASA Reconaissance, que deverá enviar dez vezes mais informações que todas as demais missões anteriores reunidas. Júpiter – A nave Pioneer 11 (lançada em abril de 1973, e em órbita em setembro de 1979), Voyager I (lançada em setembro de 1977, e em órbita em novembro de 1980) e a Voyager 2 (lançada em agosto de 1977, e em órbita em agosto de 1981) são parte do projeto de coleta de informações sobre o planeta. As luas Metis, Adrastea e Thebes foram descobertas pela Voyager I, e Amalthea, por Edward Barnard, por observação visual direta (Observatório Lick). Fotos de Júpiter e suas luas (Io teria atividade vulcânica) e da Grande Mancha Vermelha (vértice de uma enorme tempestade na atmosfera) indicam uma cobertura gasosa composta de 82% de hidrogênio, 17% de hélio e 1% de outros elementos; a temperatura na superfície é de 130 K. Em outubro de 1989, a Agência Espacial Europeia, em colaboração com a NASA, lançou a nave Galileu (em órbita em fevereiro de 1990), cuja missão de pesquisar Júpiter e seus satélites terminaria em setembro de 2003. A nave transmitiu fotos das quatro maiores luas (Io, Europa, Ganímedes e Calisto) e enviou, de paraquedas, um módulo para pesquisar e medir pressão, densidade e composição atmosférica. Saturno – As naves Pioneer 11, Voyager 1 e Voyager 2, que já haviam sobrevoado Júpiter, enviariam, igualmente, imagens e informações sobre Saturno; Pioneer 11 descobriria anéis adicionais e luas; Voyager 1 (1980) pesquisaria os anéis e esclareceria a atmosfera de Titã, e Voyager 2, por algumas falhas técnicas, se limitaria a fotografar os satélites de Saturno42. A Agência Espacial Europeia, a Agência Espacial Italiana e a NASA lançariam, em outubro de 1992, a nave Cassini, em órbita em julho de 2004, com a missão de pesquisar as luas, os anéis, a atmosfera e a magnetosfera de Saturno. Um pequeno módulo, Huygens, desceu, em janeiro de 2005, à 42 ASIMOV, Isaac. New Guide to Science. 111 CARLOS AUGUSTO DE PROENÇA ROSA atmosfera de Titã, de onde enviou dados sobre a espessura da atmosfera do satélite e imagens da sua superfície, e ao atingir o solo, mediu as propriedades dos materiais (condutividade de calor, temperatura, resistência elétrica, índice de refração e velocidade do som). Urano – A nave Voyager 2, após pesquisar Júpiter e Saturno, enviaria (1986) sete mil imagens do planeta, de seus anéis (descobertos em 1977, pelos astrônomos americanos James L. Elliot, e Douglas Mink, do Observatório Aerotransportado Kuiper) e de satélites (descobriu dez pequenas luas – Cordélia, Ofélia, Puck); a lua Miranda foi descoberta em 1948, por Gerard Kuiper. Imagens recentes enviadas pelo telescópio Hubble ajudarão na obtenção, em curto prazo, de mais informações sobre este planeta e seus satélites. Netuno – Voyager 2, depois de Urano, transmitiu (1989) 9 mil imagens de Netuno e seus satélites, constatou os ventos mais fortes do Sistema Solar, descobriu um conjunto de anéis ao redor do planeta e seis novas luas (Larissa, Proteus). A lua Nereida fora descoberta por Kuiper, em 1949. 7.3.3.2.1 Planetas Anões – Plutoides Um acalorado debate dividiu a comunidade internacional de astrônomos a partir do início dos anos 2000, com a descoberta de objetos no Cinturão de Kuiper, como Éris em 2003 (2.500 km de diâmetro, uma lua e com 27% de massa a mais que Plutão), Haumea (2004, com 1/3 da massa de Plutão) e Makemake (2005). Reunida em Assembleia Geral, em agosto de 2006, em Praga, a União Astronômica Internacional decidiu criar uma nova categoria de objetos celestes, com a denominação de “planetas anões”, definir suas características, bem como classificar seus primeiros integrantes. O corpo celeste para ser considerado “planeta” deverá estar em órbita do Sol, ter suficiente massa para que sua gravidade supere a do corpo rígido, ter equilíbrio hidrostático, isto é, sua forma seja quase esférica, não ter satélite de planeta e ter limpado sua órbita; com estas características, passa o Sistema Solar a contar apenas com oito planetas. Na mesma reunião, Plutão, Éris e Ceres foram considerados “planetas anões”, cuja principal característica que os distingue dos planetas é o equilíbrio hidrostático da forma, e não seu tamanho ou sua massa. Em reunião do Comitê Executivo da UAI, em junho de 2008, em Oslo, a denominação de “plutoide” foi criada, para designar os objetos, com órbita do Sol além de Júpiter, com massa suficiente para que sua autogravidade supere as forças rígidas de seu material formador, com um formato de equilíbrio 112 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO hidrostático, não tenham destruído outros corpos ao redor de sua órbita e tenham um determinado brilho (uma magnitude absoluta mais brilhante do que H = +1); nessa categoria foram incluídos Plutão, Éris, Haumea e Makemake, mas excluído Ceres, que, por estar em órbita no Cinturão de Kuiper (entre Marte e Júpiter), permanece como único “planeta-anão”. Outros corpos, como Sedna, Caronte e Quiron, poderão, no futuro próximo, serem classificados como “plutoides”. Em janeiro de 2006, foi lançada a nave do programa New Horizons, da NASA, com previsão de entrar em órbita em 2015. O objetivo da missão é o de estudar Plutão, e seu satélite Caronte, por cinco meses. Em maio de 2005, o telescópio Hubble teria detectado duas novas luas para Plutão, descobertas que ainda não foram confirmadas. Deve ser registrado que, além das imagens provenientes das diversas missões enviadas especialmente para pesquisar os vários planetas, outros observatórios espaciais contribuiriam, de forma muito importante, para a obtenção de dados sobre esses corpos celestes. O melhor exemplo é, neste sentido, o Telescópio Espacial Hubble, que, ainda operacional, continua a enviar, regularmente, nítidas imagens dos diversos planetas e luas. 7.3.3.2.2 Lua Devido à sua relativa proximidade, a Lua seria a primeira a ser investigada, via satélite, com um grande número de missões, desde 1959. As primeiras naves, não tripuladas, a atingirem a Lua foram a Luna 2, que se chocou com a superfície do satélite em 13 de setembro de 1959, e a Luna 3, que transmitiria as primeiras fotos do outro lado da Lua; em 1966, a Luna 9 seria a primeira nave a aterrissar na Lua, seguida, no mesmo ano, das naves Luna 10, 11 e 12 em pesquisa desde a órbita; a nave Luna 13, lançada em dezembro de 1966, aterrissaria com sucesso em solo lunar e enviaria informações sobre superfície, solo, clima, temperatura; a Luna 16, lançada em setembro de 1970, seria a primeira a enviar amostras (101 kg) de material à Terra, seguido pelas Luna 20 (1972) e 24 (1976), última nave lançada do programa Luna. O programa soviético Luna permitiria levantamento de acidentes lunares, a elaboração de uma cartografia e recolhimento de material. Apesar de pioneira no envio de naves não tripuladas à Lua, o elevado número de fracassos no lançamento, ou na colocação em órbita, das naves, o alto custo do programa e a mudança de prioridades para a observação de estrelas determinariam o encerramento, em 1976, do programa. 113 CARLOS AUGUSTO DE PROENÇA ROSA Diante da liderança inicial soviética incontestável em alcançar a Lua, o Presidente Kennedy anunciaria, em maio de 1961, a determinação americana de começar programa com vistas a colocar o Homem na Lua. Nove sondas (Rangers) foram enviadas (1961-1965) para estudar de perto as condições de solo, sendo que as de número 5 (a primeira a atingir o solo) e 7 tiveram êxito. Durante 1966-1967, cinco missões do satélite Lunar Orbiter, destinadas à seleção das zonas de alunissagem da Missão Apollo, procederam a um mapeamento fotográfico da superfície lunar. O fracasso (com a morte dos tripulantes) no lançamento, em janeiro de 1967, da Apollo I retardaria, por ano e meio, o lançamento da nave seguinte, que receberia o número 7, o primeiro veículo tripulado. Como testes finais foram lançados Apollo 9 (março de 1969) e Apollo 10 (maio de 1969). Em 16 de julho de 1969, seria lançado o Apollo 11, que procedeu à alunissagem no Mar da Tranquilidade, no dia 20 de julho, e à histórica caminhada de Neil Armstrong, no dia 21 de julho; poucos minutos depois, Edwin Aldrin juntou-se a Armstrong, e iniciaram, durante 2h e 10m, a coleta de amostras, a instalação de uma antena de comunicação, uma câmera de TV, um sismógrafo, um painel “aluminizado” para estudo da radiação solar e um refletor de raios laser, o que permitiria calcular a distância do satélite em 365.273.349 km. O terceiro astronauta dessa missão, Michael Collins, permaneceria todo o tempo dentro da cabine da nave, cuja amerissagem, de retorno, ocorreria no Oceano Pacífico, no dia 24 de julho. Mais seis Missões Apollo seriam enviadas à Lua (nº 12 a 17), as quais recolheriam centenas de quilos de amostras. Com o cancelamento das Apollos 18, 19 e 20, o programa foi definitivamente abandonado pela NASA. Em meados de 1994, a NASA lançou o pequeno satélite Clementine, que mapeou, por dois meses, a Lua, o que seria feito novamente em 1999, pela Luna Prospector, os quais procederam, igualmente, a levantamentos da composição mineral do satélite da Terra. Em julho de 1999, seria enviada uma Luna Prospector para procurar evidências de água, tendo achado hidrogênio na região do Polo Sul – Aitken, prvavelmente resultante da dissociação de gelo de água. 7.3.3.2.3 Cometas – Cinturão de Kuiper – Nuvem de Oort Uma série de sondas e satélites seria lançada, a partir dos anos de 1970, com o objetivo de pesquisar os cometas, objeto de grande interesse e curiosidade da comunidade astronômica, pelo desconhecimento de um grande número de informações importantes sobre esses corpos 114 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO celestes, formados de gelo e poeira. Apesar do progresso realizado, dados relevantes sobre origem e composição dos cometas, morfologia e composição da superfície do núcleo, propriedades físicas e composição química, continuam a escapar aos estudos. Algumas missões enviadas ao Espaço foram específicas, para um determinado cometa, enquanto outras se destinaram a um ou mais desses corpos celestes. Abaixo estão relacionadas algumas dessas iniciativas. Em agosto de 1978, foi lançado o satélite International Sun/Earth Explorer 3 (ISEE-3) para monitorar o “vento solar” e o campo magnético da Terra. Seu curso seria alterado para poder interceptar um cometa, no caso o Giacobini-Zinner, razão da mudança do nome do satélite para International Cometary Explorer (ICE). Durante 24 horas (11 de setembro de 1985), o ICE, voando dentro da cauda do cometa, mediria ondas de rádio produzidas por gases ionizados, o que seria a primeira observação de um cometa por satélite. As naves soviéticas Vega 1 e Vega 2, lançadas em dezembro de 1984, os satélites japoneses Suisei e Sakigake, o mencionado ICE e o Giotto, da Agência Espacial Europeia, pesquisariam o cometa Halley, em março de 1986, quando de sua mais próxima passagem da Terra; o satélite a chegar mais próximo do cometa foi o Giotto, a 596 km do núcleo. Os observatórios orbitais Pioneer-Venus 2 (1978/92) e o International Ultraviolet Explorer (IUE) participaram, igualmente, de pesquisas sobre o Halley. Nos anos de 1990 foram lançados, pela NASA, o Ulysses, em outubro de 1990, para observar cometas, sem especificar qualquer um; o SOHO (dezembro de 1995), para estudar vários cometas; e o Stardust, em fevereiro de 1999, com destino ao cometa Wild 2, o qual coletou, em 2004, poeira do cometa e fotografou seu núcleo gelado, e, posteriormente, colheu material interestelar, que começou a ser analisado em 2006, havendo grande expectativa, no meio científico, de que será possível entender melhor a formação do Sistema Solar e o meio interestelar. Além desses satélites, caberia mencionar a Missão Galileo, operacional desde 1994, que estudaria o cometa Shoemaker-Levy 9 e enviaria imagens do impacto do cometa SL9 em Júpiter; o Deep Space I, lançado em outubro de 1998 (em órbita desde setembro de 2001), que pesquisaria o cometa Borrely; e o Deep Impact, lançado em dezembro de 2004 (em órbita desde julho de 2005), que iniciou pesquisa do cometa Temple. Em março de 2004, a Agência Espacial Europeia lançou o satélite Rosetta, que deverá chegar, em 2014, ao cometa Churyumov-Gerasimenko; em sua missão, Rosetta estudará principalmente o núcleo do cometa, estando programado que entrará em órbita do cometa de forma a acompanhá-lo em sua viagem em direção ao Sol. 115 CARLOS AUGUSTO DE PROENÇA ROSA Como resultado direto da série de pesquisas para compreender os cometas, foi possível comprovar, recentemente, duas teorias, de dois astrônomos holandeses, Gerard Kuiper e Jan Hendrik Oort, que, além de esclarecer a origem e fonte dos cometas de longo período, permitiriam ampliar o conhecimento do Sistema Solar. Gerard Peter Kuiper (1905-1973) estudou na Universidade de Leiden, onde obteve seu doutorado em 1933, quando emigraria para os EUA, onde trabalhou, inicialmente, no Observatório Lick, e, posteriormente, nos Observatórios de Yerkes e MacDonald (Texas); conferencista e professor, dirigiu, também, o Laboratório Planetário da Universidade do Arizona. Kuiper investigou principalmente o Sistema Solar, tendo descoberto o satélite Miranda (1948), de Urano, e Nereida (1949), de Netuno; detectou evidências de metano (1944) no satélite Titã de Saturno e de dióxido de carbono (1948) na atmosfera de Marte; Kuiper participou, igualmente, de diversos projetos de pesquisa espacial, como o programa Ranger (1961-65) para fotografar a Lua, e Mariner 10 (voos a Vênus e Mercúrio). Embora a existência do Cinturão de Kuiper tenha sido sugerida por Kenneth Edgeworth, em 1943, e por Gerard Kuiper em 1951, sua confirmação se daria nos anos de 1990, com a descoberta do objeto 1992 QBI; hoje são conhecidos mais de 600, localizados após a órbita de Netuno. A uma distância entre 6 e 12 bilhões km do Sol, esses pequenos objetos celestes, gelados e cometários, de curto período, têm uma órbita de mais de 250 anos ao redor do Sol, e sua origem provável remonta à época da formação do Sistema Solar, quando não teriam podido se aglutinar na forma de planeta. Além do Cinturão de Kuiper encontra-se a imensa Nuvem de Oort, que envolve o Sistema Solar. Jan Hendrik Oort (1900-1992) estudou na Universidade de Groningen, com Jacobus Kaptein, onde defendeu a tese para doutorado sobre As Estrelas de Alta Velocidade. Trabalhou na Universidade de Leiden, desde 1924, tendo sido diretor do Observatório da Universidade (1945-72), onde Ejnar Hertzprung era o Reitor; em 1924, descobriu o halo galáctico (grupo de estrelas em órbita, mas fora do disco central da Via Láctea); calculou, em 1927, o centro da galáxia a 30 mil anos-luz do Sol, na direção de Sagitário; calculou a massa da Via Láctea em 100 bilhões de vezes maior que a do Sol, e em 1927 confirmou a teoria do astrônomo sueco Bertil Lindblad (1895-1965) sobre a rotação da Via Láctea, pela análise do movimento das estrelas. Descobriu que a luz da constelação do Caranguejo era polarizada. Entusiasta e pioneiro da radioastronomia, obteve a construção, nos anos de 1950, de um radiotelescópio em Dwingeloo para utilizar a emissão de rádio no 116 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO mapeamento da distribuição do hidrogênio no plano galáctico. Oort é mais conhecido por sua teoria, sugerida nos anos 50, cuja versão atual consiste em que, além do Cinturão de Kuiper, uma imensa nuvem de cometas, hoje chamada de Nuvem de Oort, envolve o Sistema Solar. Após a formação dos planetas externos, os cometas, que não se aglutinaram, teriam sido espalhados pelos gigantes gasosos, alguns remetidos para o disco da Via Láctea, outros para o interior do Sistema Solar, enquanto os restantes formaram uma imensa nuvem, aproximadamente esférica, estimada em cerca de um trilhão de cometas, apesar de sua massa ser apenas de algumas massas terrestres. 7.3.3.2.4 Asteroides Até 1990 as informações sobre os asteroides localizados principalmente entre Marte e Júpiter eram obtidas por observações terrestres. Em outubro de 1991, a nave Galileu tirou fotografias do “951 Gaspra” (descoberto em 1916), e em agosto de 1993, de “243 Ida” (descoberto em 1884), primeiros asteroides (ambos compostos por silicatos ricos em metais) a terem fotos de alta resolução). Em junho de 1997, a sonda NEAR (Near Earth Asteroid Rendezvous), lançada em fevereiro de 1996, pesquisou o asteroide “253 Matilde” (descoberto em 1885), rico em carbono; em fevereiro de 2001, após enviar 69 imagens do Eros, a NEAR, como programado, finalizaria sua missão, ao se chocar com o asteroide. São conhecidos, hoje, apenas cem asteroides maiores que 200 km, e há mais de 100 mil maiores que 20 km, e estimado um total de 1 bilhão com mais de 2 km ao longo do eixo do chamado cinturão principal de asteroides. Ceres, o primeiro asteroide descoberto, devido a seu tamanho (25% da massa de todos os asteroides juntos), foi, recentemente, reclassificado como planeta-anão. 7.3.4 Astronomia Estelar Sob a denominação genérica de Astronomia estelar estão incluídas a Astrometria e a Mecânica Celeste, ramos que haviam sido, no passado, de grande interesse e prioridade para os astrônomos. As investigações sobre o sistema estelar dominariam amplamente a atenção dos pesquisadores no período atual, do que resultaria um extraordinário 117 CARLOS AUGUSTO DE PROENÇA ROSA progresso no conhecimento sobre esses corpos celestes. O avanço na técnica, a melhor qualidade dos aparelhos, a inovação da Astronomia do espectro eletromagnético, a comprovação observacional de um Universo em expansão, a dimensão extragaláctica, a repercussão na Cosmologia, a descoberta de corpos celestes e o refinamento de teorias físicas e cosmológicas dão o verdadeiro significado da importância das pesquisas da Astronomia estelar, desde o início do século XX. Apesar dos progressos realizados nos estudos teóricos e na pesquisa observacional, não está completamente esclarecida a questão da formação das estrelas. A falta de dados conclusivos mantém o assunto sob debate. Radiações emitidas por galáxias fracas, cerca de 500 milhões de anos após o Big Bang, conforme detectadas recentemente pelo Telescópio Espacial Spitzer e o Very Large Telescope (VLT), indicam possíveis precursores de massas condensadas existentes entre 100 e 300 milhões de anos, os quais originariam as primeiras estrelas. Essas primeiras estrelas, provavelmente muito grandes e quentes, seriam constituídas, quase que exclusivamente, de hidrogênio e hélio (e mínimas quantidades de lítio e deutério), que, durante suas vidas, e ao final delas, criaram, a partir da fusão nuclear (nucleossíntese), e espalharam os novos elementos químicos (carbono, oxigênio, silício, ferro, chumbo, fósforo e bário), mais pesados que o lítio. As estrelas de segunda e terceira gerações, enriquecidas com os novos elementos químicos, criariam novos elementos (neônio, nitrogênio), os quais retornariam ao meio interestelar; interações entre galáxias e varrimento de seu gás criariam novos elementos; com um bilhão de anos após o Big Bang, já estariam criados todos os elementos constantes da Tabela Periódica. 7.3.4.1 Astrometria. Catálogos O conhecimento preciso da posição das estrelas foi uma constante preocupação dos astrônomos, além de se tratar de uma tarefa complicada e essencial para a Astronomia. A Astrometria se desenvolveria ao longo dos séculos, alcançando, na atualidade, novo patamar de exatidão, com base nos aperfeiçoamentos técnicos e novos métodos de cálculo. Até recentemente, o instrumento usado para a determinação da posição das estrelas era o círculo meridiano, que só se movia ao longo do meridiano astronômico do local. Desde o início da segunda metade do século XX, seriam utilizados os satélites para se obter, fora das perturbações da atmosfera da Terra, medidas bem mais precisas do que as calculadas a partir do solo. 118 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Apesar de todas as dificuldades devido ao pioneirismo e restrições de ordem técnica, desde Hiparco, o astrônomo grego que elaborou o primeiro catálogo de estrelas (1080 no total), vários catálogos seriam preparados com crescentes informações sobre as estrelas, como o de Cláudio Ptolomeu, Johann Bayer (1603), em Uranometria, com 60 estrelas; Johannes Hevelius (1690), com 67 estrelas; John Flamsteed (1725), em Historia Coelestis Britannica; Nicolas Louis de Lacaille (1725); Charles Messier (1784); Friedrich Wilhelm Argelander (1852-59), o mais completo catálogo do período pré-fotografia; John Dreyer (1888, 1895, 1908) intitulado New General Catalogue of Nebulae and Clusters of Stars (NGC), até hoje principal referência de nomenclatura estelar, e seu suplemento Index Catalogue (IC), de 1895 e 1908; Catálogo de Córdoba (1892), com 580 mil estrelas; e Catálogo Fotográfico do Cabo (1896), com 450 mil estrelas. Publicados mais recentemente, podem ser citados o Catálogo Henry Draper (1914-28), o primeiro a ser do tipo espectral; a Carte du Ciel, com observações de 1891 a 1950; o Catálogo de Estrelas Brilhantes, de Yale (1930, em quarta edição, revista, (de 1982); o Catálogo de Estrelas Duplas (1932); de Robert Grant Aitken (1864-1951); o Catálogo de Estrelas Próximas (1969), de Wilhelm Gliese (1915-1993); e o Catálogo Geral de Paralaxe Trigonométrica (1952, revisto em 1995), de 8.112 estrelas, da Universidade de Yale. Dentre os catálogos específicos sobre o movimento das estrelas, podem ser citados o de Max Wolf (1863-1932), com 1.053 estrelas (1919-1929), o de Frank Elmore Ross (1874-1960), do Observatório Yerkes, que, além de descobridor de 240 asteroides, descobriu mais de 400 variáveis e mais de mil estrelas de alto movimento próprio (1925-1939); e o de Willem Jacob Luyten (1899-1994), que descobriu várias anãs brancas, publicado numa série de catálogos, entre 1941 e 1981. Em 1989, a Agência Espacial Europeia lançou o satélite denominado HIPPARCOS, em homenagem ao astrônomo grego, com a missão de medir, com a maior precisão possível, a posição de milhares de estrelas (gigantes, anãs, variáveis, binárias e estrelas de raios-X). Durante três anos e meio, HIPPARCOS colheu dados de 118 mil estrelas até uma magnitude limite de 12,5 para determinar distâncias, luminosidades, massas, tamanhos e idades. Os dados, reunidos no Catálogo Hipparcos, de junho de 1997, são os mais precisos até agora obtidos; adicionalmente, seria editado o catálogo Tycho Brahe, com dados de 1 milhão de estrelas até magnitude de 11,5. O Observatório Naval de Washington, em cumprimento ao programa de levantamento de dados sobre o maior número possível de estrelas, publicaria, em 2002, o chamado USNO-A 2.0, que continha cerca de 500 milhões de estrelas; em vista de o enorme material sobre a posição 119 CARLOS AUGUSTO DE PROENÇA ROSA e movimentos desse número de estrelas não ser publicável, o único acesso possível é pela Internet. Pouco depois, seria completado o USNO-B 1.0, que contém posição, movimento próprio e magnitude de mais de um bilhão de objetos. Paralelamente, o USNO elaboraria o UCAC (Catálogo Astrográfico), iniciado em 1998, e recentemente concluído. Em julho de 2003, foi publicado o UCAC 2, segundo catálogo provisório, com cerca de 50 milhões de estrelas (o catálogo está disponível em CD). O grande aumento da capacidade visual de observação, em função dos aperfeiçoamentos dos telescópios resultaria, já nos anos de 1920, na ampliação de poucos milhares a milhões do número de estrelas observáveis; ao mesmo tempo, várias estrelas tinham vários nomes, dependendo do astrônomo ou do catálogo (Bayer, Flamsteed, Dreyer, Harvard, Bonn); a estrela Vega tem, por exemplo, quarenta outras designações. A situação se tornaria caótica, pela própria dificuldade de se chegar a um acordo sobre o nome, em latim ou grego, como era de praxe, para denominar as novas estrelas. Em 1925, a União Astronômica Internacional estabeleceria a divisão do céu em 88 constelações, todas com nomes padronizados, em latim, e faria recomendações específicas para a padronização da nomenclatura das estrelas. 7.3.4.1.1 Distância e Classificação das Estrelas A questão da diferença de brilho e cor das estrelas intrigava os astrônomos, que estudavam os meios e modos de estabelecer uma classificação válida, baseada nas bandas e linhas escuras do espectro estelar. O trabalho pioneiro de três astrônomas americanas seria fundamental para o futuro desenvolvimento do assunto. Integrantes da famosa equipe feminina do Observatório da Universidade de Harvard, dirigido por Edward Pickering (1846-1919), Antonia Caetana Paiva Pereira Maury (1866-1952), encarregada de classificar as estrelas do hemisfério norte, apresentaria, em 1897, no catálogo Spectra of Bright Stars photographed..., uma classificação de estrelas (A, B, C) recusada por Pickering, o mesmo ocorrendo com trabalho de Annie Jump Cannon (1863-1941) que, em 1882, aperfeiçoou a espectroscopia, e apresentaria uma nova classificação, baseada na temperatura da superfície, em sete tipos (O, B, A, F, G, K, M,), cada um subdividido em dez subtipos. Nessa classificação, as estrelas seguiam a ordem do espectro eletromagnético, indo do azul (estrelas do tipo O) até o vermelho (estrelas do tipo M); com essa classificação, Cannon 120 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO organizaria o Catálogo Henry Draper (1918-1924), com o tipo espectral de mais de 200 mil estrelas43. Henrietta Leavitt (1868-1921), analisando uma série de fotografias tiradas das Pequenas Nuvens de Magalhães (hoje galáxia), no Observatório de Harvard em Arequipa (Peru), detectaria, em 1908, 1.770 estrelas variáveis, algumas conhecidas como “variáveis cefeidas”. Dada a regularidade da variação da luminosidade das cefeidas, concluiria Leavitt que a luminosidade observada estava relacionada com a pulsação. A grande importância do trabalho de Leavitt permitiria estabelecer os meios para a determinação das distâncias cósmicas com bastante precisão, o que seria imediatamente utilizado por Hertzsprung, Shapley e Baade. Ejnar Hertzsprung (1873-1967), Medalha Bruce, astrônomo do Observatório da Universidade de Copenhague, especialista na técnica da fotografia astronômica, se dedicaria a medir as distâncias entre as estrelas. Após minuciosos estudos, efetuados nos primeiros anos do século XX, da magnitude absoluta e tipos espectrais, concluiu que os brilhos das estrelas estavam em relação com seu espectro e sua temperatura: as estrelas azuis eram mais luminosas e mais quentes que as vermelhas, cujas luminosidades eram desiguais. Nesses estudos, examinou as estrelas classificadas por Antonia Maury, demonstrando que as de raias de absorção forte e nítida eram intrinsecamente mais luminosas que as outras44. Dessa forma, haveria estrelas gigantes vermelhas e anãs vermelhas. Observou, ainda, que as estrelas mais luminosas seriam maiores, pois deveriam ter mais superfície lateral. De posse da luminosidade intrínseca, podia comparar com o brilho aparente no céu e calcular sua distância. Nesses trabalhos de 1905 e 1907, Hertzprung desenvolveria tabela em que apareciam número de estrelas, magnitude, movimento próprio, cor e tipo espectral, utilizando a classificação proposta por Maury. Em 1906, usando a relação brilho/cor, mostrou que a estrela Arcturus tinha um tamanho físico igual ao diâmetro da órbita de Marte. Como seus trabalhos (Sobre a Radiação das Estrelas) não foram publicados numa revista científica, mas de divulgação fotográfica, não houve repercussão no meio astronômico das conclusões de Hertzsprung sobre relação cor/brilho das estrelas, a não ser por Karl Schwarzschild (1873-1916), diretor do Observatório de Potsdam, que o convidou para integrar a equipe daquela instituição; o astrônomo alemão publicara, em 1906, um artigo sobre o processo de transmissão de energia pela estrela, que era devido a mecanismo de radiação. 43 44 PANNEKOEK, Anton. A History of Astronomy. VERDET, Jean-Pierre. Uma História da Astronomia. 121 CARLOS AUGUSTO DE PROENÇA ROSA Desde 1908, Henrietta Leavitt estudava as estrelas variáveis pulsantes, cujos períodos, relativamente curtos, vão de 2 a 150 dias, notando que, quanto maior o período, mais brilhantes se tornavam as estrelas; em 1912, publicaria artigo em que relacionaria, matematicamente, o período à magnitude aparente. Como as cefeidas (variáveis) da Pequena Nuvem de Magalhães podiam ser consideradas estando à mesma distância da Terra, Leavitt passou a conhecer a magnitude absoluta daquelas estrelas, isto é, a distância, desde que calibrasse a relação a partir de uma cefeida próxima, cuja magnitude absoluta fosse possível calcular; conhecida a magnitude absoluta de uma cefeida, estava conhecida a magnitude absoluta de qualquer outra cefeida. Leavitt não prosseguiria, contudo, na pesquisa, encarregada que foi por Pickering de outra tarefa45. Conhecendo o trabalho de Henrietta Leavitt, Hertzsprung retomaria o assunto. Imaginando que as distâncias de certas variáveis pudessem ser determinadas por um estudo estatístico de seu movimento próprio, Hertzsprung as usou para avaliar, em 1913, as distâncias das cefeidas da Pequena Nuvem de Magalhães; ainda que a estimativa (190 mil anos-luz) tenha sido bastante menor que a calculada hoje em dia, o cálculo apresentado por Hertzsprung já mostrava enorme distâncias das estrelas, o que indicava uma nova dimensão para o Universo46. Nessa mesma época, o astrônomo americano Henry Norris Russell (1877-1957), Medalha Bruce, estudava a determinação da paralaxe estelar mediante métodos fotográficos, desenvolvendo método semelhante ao do astrônomo dinamarquês; publicaria, em 1914, no Popular Astronomy e na revista Nature, um gráfico, conhecido hoje como diagrama Hertzsprung-Russell ou HR, em que classificava as estrelas numa progressão – sequência principal – -que variava das brilhantes estrelas azuis às obscuras estrelas vermelhas47. Ainda em 1914, Harlow Shapley (1885-1972) iniciaria o monitoramento, no Observatório do Monte Wilson, das pulsações das cefeidas; estabeleceria a distância dessas estrelas, quantificaria a descoberta de Leavitt e publicaria artigo no Astrophysical Journal, no qual analisaria a causa dessa variação de luminosidade, o que viria a contribuir para o futuro esclarecimento da evolução da vida das estrelas. O trabalho de Shapley suscitaria famoso debate organizado, em 1920, pela Academia Nacional de Ciências, de Washington, em que Heber Curtis (1872-1942), do Observatório Lick, estudioso das nebulosas espiraladas e convencido de que se tratava de sistemas isolados de estrelas VERDET, Jean-Pierre. Uma História da Astronomia. GRIBBIN, John. Science, a History. 47 RONAN, Colin. História Ilustrada da Ciência. 45 46 122 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO independentes, defenderia que o brilho da “nova” (depois identificada como “supernova”) observada em 1917, indicava tratar-se de nebulosa além da Via Láctea; seu cálculo para a nebulosa Andrômeda foi de 500 mil anos-luz. Curtis contestava as cefeidas como padrão de medição, recusava o cálculo, como exagerado, de 300 mil anos-luz para o diâmetro da Via Láctea, insistia, erradamente, que o Sistema Solar se encontrava no centro da Galáxia e argumentava estar a nebulosa Andrômeda fora da nossa Galáxia48 (a comprovação viria em 1924, por Edwin Hubble). Dos estudos sobre a composição das estrelas, menção especial deve ser feita à famosa monografia Atmosferas Estelares (1925), de Cecilia Payne-Gaposchkin (1900-1979), na qual demonstrou, por análise espectral, abundância de elementos químicos, principalmente hidrogênio e hélio, nas atmosferas das estrelas. 7.3.4.2 Energia das Estrelas Diretamente vinculado à questão da evolução das estrelas, estava o problema da fonte de energia estelar, tema de ampla discussão entre os astrofísicos no início dos anos de 1920. O que faria uma estrela branca, amarela ou vermelha brilhar? A resposta a esse mistério seria dada por Einstein, em sua famosa Equação E = MC2, pela qual massa pode ser convertida em energia, e vice-versa. A questão seria equacionada com a obra do inglês Arthur Stanley Eddington (1882-1944), Medalha Bruce, estudioso da estrutura interna das estrelas, autor de The Internal Constitution of Stars (1926), em que sustentaria a tese de que a produção de Energia nuclear era a fonte de força de todas as estrelas. Segundo Eddington, as estrelas se mantinham em equilíbrio pela conjunção de três forças, que se anulavam: a da gravidade, a da pressão do gás e da pressão da radiação, sustentando, igualmente, que a energia do calor era transportada do centro para a periferia das estrelas, não pela convecção, mas pela radiação, como já defendera Hertzsprung. Eddington verificou, ainda, ser o hidrogênio o principal constituinte das estrelas, e calculou sua quantidade. O astrônomo inglês traria outra importante contribuição para o conhecimento das estrelas, ao estabelecer, em 1924, a relação massa/luminosidade, isto é, quanto mais massa, mais luminosa a estrela. Eddington se celebraria, também, como grande divulgador da obra de Einstein e por ter comprovado a Teoria da Relatividade, assunto a ser tratado no item sobre a Expansão do Universo. 48 CRUMP, Thomas. A Brief History of Science. 123 CARLOS AUGUSTO DE PROENÇA ROSA Em 1929, George Gamow (1904-1968), que teria enorme influência com a teoria do Big Bang, proporia que a produção de energia das estrelas era pelo processo da fusão nuclear, sendo que não explodiam como bombas por causa do equilíbrio entre a pressão da radiação emanada pela estrela e a força da gravidade que puxa o gás para o interior da estrela. A fusão nuclear do Sol é conhecida como cadeia próton-próton, em que átomos de hidrogênio são convertidos em átomos de hélio. Como a energia desprendida nessa cadeia não é suficiente para explicar a de estrelas de mais massa que o Sol, como as estrelas gigantes vermelhas, uma explicação mais completa seria dada, em 1938, por Hans Bethe (1906-2005), com a introdução do ciclo carbono-nitrogênio-oxigênio, conjunto de reações mais energéticas. A questão está ainda em aberto, pois são insuficientes os dados disponíveis, no momento, para responder a todas as dúvidas e incertezas. 7.3.4.3 Pulsares/Estrelas de Nêutron Sob a supervisão do astrônomo Antony Hewish (1924, PNF1974), professor na Universidade de Cambridge, a estudante de doutorado Jocelyn Bell Burnell (1943) pesquisava, em 1967, o meio interestelar, quando, inesperadamente, detectou pequenas, mas rápidas e regulares, variações em sinais de rádio, no caso, resultantes de explosões de radiação eletromagnética; tais pulsos, repetidos a cada 1,3 segundo, indicavam tratar-se de vibração ou rotação de um objeto de reduzida dimensão (menos de 150 km de diâmetro). A existência de tal tipo de corpo celeste já havia sido objeto de conjecturas teóricas da parte de alguns astrofísicos; assim, Alfred Fowler (1868-1940), especialista em espectroscopia solar e estelar, sugeriu, em 1926, a existência de estrelas superdensas; o russo Lev Landau (1908-1968), em 1932 esboçou um modelo de estrutura de tal estrela; e o suíço-americano Fritz Zwicky (1898-1974), em 1934 previu, ao explodir uma supernova, que o núcleo de uma estrela poderia comprimir-se e poderia formar uma estrela desse tipo, de 40% de massa maior que a do Sol, num diâmetro de apenas 20 km. Pouco depois do anúncio da descoberta de Jocelyn Bell, o astrônomo austríaco Thomas Gold (1920-2004) identificaria tais pulsos como originários de uma estrela de nêutron em rotação, emitindo ondas de rádio. Tais pulsares, também conhecidas como estrelas de nêutron (um cubo de 1 cm de lado desta matéria pesa 100 milhões de toneladas), 124 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO se acham no limite da densidade a que pode chegar a matéria, antes de se transformar em buraco negro; seu campo gravitacional atinge até 1 (um) bilhão de vezes o campo gravitacional terrestre. A luz emitida pelos pulsares, por ser tão pequena no espectro eletromagnético, não pode ser observada a olho nu, mas somente pelo radiotelescópio. Mais de mil pulsares já foram descobertos na Via Láctea, sendo que alguns alcançam 600 voltas sobre seu eixo por segundo, o que significa sua superfície rodar a 36 mil km por segundo; ao mesmo tempo, a regularidade de seu pulso chega a ser mais precisa que a de um relógio eletrônico, o que leva alguns a admitir alguns pulsares como padrão para medir o tempo. Foram descobertos pulsares com mais de mil pulsos por segundo. A descoberta de Jocelyn Bell Burnell seria anunciada em 1968, no entanto, por Antony Hewish, que receberia todas as homenagens da comunidade científica; só bem mais tarde haveria o reconhecimento pelo trabalho pioneiro da então estudante. A descoberta de pulsares binários se deve a Russell A. Hulse (1950) e Joseph H. Taylor Jr, ambos da Universidade de Massachussets, que, desde 1974, iniciaram um levantamento sistemático de estrelas de nêutron pelo radiotelescópio de Arecibo, tendo encontrado 40 pulsares, dentre eles o PSR 1913+16 (o número indica sua posição no céu: 19 horas e 13 minutos de longitude e uma declinação de 16 graus). A fonte emitia aproximadamente 17 pulsos por segundo, porém seu período mudava em 80 microssegundos de um dia para outro, alteração claramente percebida devido à grande regularidade dos pulsares. Hulse e Taylor concluiriam tratar-se de um sistema binário, em que PSR 1913+16 deveria orbitar uma estrela companheira. Por essa descoberta, Hulse e Taylor receberiam, em 1993, o Prêmio Nobel de Física (PNF). Outro pulsar binário (PSR 1257+12) seria encontrado pelo polonês Aleksander Wolszsan em 1991. Uma equipe de cientistas britânicos, americanos, australianos, italianos e indianos, sob a liderança do Observatório de Jodrell Bank (Inglaterra), descobriria, em 2005, sistema binário de pulsares. As massas das duas estrelas de nêutron são maiores que a do Sol, mas seus diâmetros são de 20 km, e sua separação orbital é inferior ao tamanho do Sol. Milhares de pulsares já foram descobertos e catalogados até a data, mas a título exemplificativo são citados PSR 1919+21, PSR B1937+21, PSR J0737-3039, SGR 1806-20, PSR B1620-26, PSR B1257, PSR 1913+167, PSR J1921+2153. As letras PSR são as iniciais, em inglês, para Pulsating Source of Radio. 125 CARLOS AUGUSTO DE PROENÇA ROSA 7.3.4.4 Planetas Extrassolares ou Exoplanetas Com o avanço no conhecimento do sistema estelar, uma dúvida se tornaria cada vez mais presente nas especulações astronômicas. Seria o Sol a única estrela a contar com um sistema planetário? Estimando-se, atualmente, o número de galáxias em 50 bilhões, e em trilhões o número das estrelas, seria razoável prever que, em algum momento, provavelmente viriam a ser descobertos planetas em órbita ao redor de algumas estrelas. Em 1916, o americano Edward Emerson Barnard (1857-1923), primeiro astrônomo, depois de Galileu, a identificar um satélite (Amalteia) de Júpiter, descobriria uma estrela vermelha com um pronunciado movimento aparente de 10,3 segundos de arco por ano, o que significava percorrer o diâmetro da Lua em 180 anos. A estrela seria batizada de “estrela fugitiva de Barnard”, sendo sua velocidade explicada por estar bem próxima (5,95 anos-luz) do Sistema Solar. Durante anos – de 1938 a 1969 –, o astrônomo Peter van de Kamp (1901-1995), do Observatório Sproul, examinaria milhares de fotografias da estrela Barnard, concluindo que seu movimento era devido a dois corpos em órbita ao seu redor, um em translação de 22 anos, e o outro, de 11,5 anos, especificando, em 1982, que as órbitas eram circulares. Pesquisas efetuadas nos anos 1970 e 1980, por outros astrônomos, não confirmariam o achado de Kamp, presumindo-se que tenha havido problemas com as lentes do telescópio usado pelo astrônomo holandês. A pesquisa por planetas extrassolares (também chamados de exoplanetas) prosseguiria, apesar do fracasso, até recentemente, de um resultado positivo pela observação astronômica direta, ou seja, por meio de um telescópio ou fotografia. A técnica mais utilizada para presumir a presença de um corpo celeste (planeta) em órbita de uma estrela tem sido a da medição da sua velocidade radial, pela qual se pode medir a perturbação de seu movimento, o que indicaria a presença de um planeta, ou seja, observar perturbações no movimento da estrela causadas pela força da gravidade dos corpos a seu redor. Outra técnica consiste em registrar variações no brilho da estrela, o que indicaria a passagem de um planeta entre a estrela e a Terra. A massa desses corpos celestes gigantes descobertos até agora se situa entre 5 e 15 vezes a de Júpiter. Em 1995, os astrônomos suíços Michel Mayor (1942) e Didier Queluz (1966) anunciaram ter descoberto um planeta gasoso, sem água, com temperatura da ordem de 1000° C, metade do peso de Júpiter, em órbita circular de 4,23 dias na estrela Pégaso 51, a uma distância de 45 anos-luz da Terra. Determinado por medição de velocidade radial, o planeta 126 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO já foi confirmado por pesquisas de outros astrônomos, e divulgado, no mesmo ano de 1995, por circular da União Astronômica Internacional e pela revista Nature. A partir dessa descoberta se intensificariam, principalmente com o apoio da NASA e da Agência Espacial Europeia, as pesquisas para a descoberta de outros planetas, que, seguramente, deveriam existir nas órbitas de estrelas (cerca de três mil) mais próximas da Terra. Essas investigações têm sido bem-sucedidas, tanto que nos últimos dez anos, cerca de 400 planetas extrassolares já foram detectados, graças a novas técnicas, como a de novo instrumento de interferometria, capaz de medir com grande precisão a velocidade da estrela e o processamento de imagens por computador. Em março de 2005 a NASA informaria ter captado, pela primeira vez, de forma direta, a luz infravermelha de dois planetas extrassolares, de grande massa e temperatura de 720° C, o que seria considerado, pela Agência americana, como uma “nova era na ciência planetária”. O feito foi realizado pelo telescópio espacial Spitzer, que continuará tais pesquisas nos próximos anos. Observatórios terrestres, como Lick, Keck, La Silla e Anglo-Australianos têm sido muito ativos nessas investigações. Ainda em 2005, o Observatório do Sul Europeu (nos Andes chileno) conseguiu fotografar, pela primeira vez, o exoplaneta, duas vezes o tamanho de Júpiter e a uma distância de 400 anos-luz, que orbita a estrela QG Lupi em 1200 anos. Em 2002, foi descoberto o centésimo exoplaneta, do tamanho aproximado de Júpiter, que orbita a estrela HD 2039 em 1210 dias. Seria ocioso relacionar todos os exoplanetas conhecidos (cerca de 200), porém, serão mencionadas, a seguir, algumas estrelas com planetas em órbita, já confirmados: i) com dois ou mais planetas: 14 Herculis, 47 Ursae Majoris, 55 Cancri A, Gliese 777 A, Gliese 876, Upsilon Andromedae A, e os HD 12661, 37124, 38829, 74156, 82943, 128311 e 168443; ii) com um planeta: 79 Ceti, Gliese 436, Pegaso 51, TAO Bootis, 23 Libra, OGLE-TR-10, OGLE-TR-113, Epsilon Eridani, Epsilon Reticuli A, QG Lupi, RHO Coronae Borealis e os HD 4308, 49674, 102117, 76700 e 46375. Em 1991, no Observatório de Arecibo, o polonês Aleksander Wolszczan (1946) descobriria três planetas orbitando o pulsar PSR 1257+12, com massas de 4,3, 2,8 e 0,0004 vezes a massa da Terra, e a uma distância da Terra, respectivamente, de 0,36, 0,48 e 2,7 UA. Essa descoberta seria, na 127 CARLOS AUGUSTO DE PROENÇA ROSA verdade, a primeira de um sistema planetário fora do Sistema Solar. Um planeta com massa de 2,5 vezes a de Júpiter, em órbita do pulsar binário PSR B1620-26, foi, igualmente, confirmado. Há, ainda, dúvidas sobre os alegados planetas dos pulsares PSR B0329+54 e PSR B1828-10. 7.3.4.5 Anãs Marrons As anãs marrons são corpos celestes intermediários entre planetas gigantes gasosos e estrelas, que podem ser definidas como estrelas que não possuem massa suficiente (apenas de 13 a 75 vezes a massa de Júpiter) para efetuar reações nucleares, que transformam hidrogênio em hélio, mas só algumas conseguem realizar a fusão de deutério e de lítio; em consequência, não criam suficiente energia para brilhar como uma estrela, ainda que produzam uma luminosidade fraca avermelhada. Maiores e mais pesadas que os planetas gigantes gasosos são elas, contudo, bem menores e menos maciças que as estrelas; suas temperaturas atingem de 1000 a 3400 K. Desde os anos de 1960 que os astrônomos especulavam que o mesmo processo de formação de uma estrela (contração gravitacional a partir de nuvens de gás e de poeira) poderia criar outros objetos celestes menores, que, de massa inferior à metade da do Sol, eram chamados de anãs vermelhas. Ainda nessa fase, a astrofísica Jill C. Tarter (1944), pesquisadora do Centro de Pesquisa de Inteligência Extraterrestre (SETI), sugeriria para esse hipotético corpo a denominação de anã marrom. Dada sua fraca luminosidade, a busca por tal corpo celeste foi demorada e muito difícil. Em 1992 seria desenvolvido um novo método, chamado de teste do lítio, para ajudar a diferençar as estrelas de baixa massa das anãs marrons. Todas as estrelas destroem o lítio em seus núcleos. Como as anãs marrons não atingem a temperatura necessária para destruir seu lítio, este elemento permanece para sempre no núcleo, o que passaria a servir para distingui-la de uma estrela. Utilizando telescópio Keck de 10 metros, em Mauna Kea, o grupo de astrofísicos, composto por Gibor Basri (1951), James R. Graham e Geoffrey Marcy (1954), detectaria, no aglomerado das Plêiades, no chamado PPI 15, lítio num objeto em que sua presença implicava massa subestelar e idade de 120 milhões de anos. A descoberta foi anunciada em junho de 1995, em reunião da Sociedade Astronômica Americana. Ainda em 1995, duas outras anãs marrons, na Plêiade, Teide 1 e Calar 3 (ambas com massas inferiores a 60 massas de Júpiter e temperatura entre 2.600 e 2.800 K), seriam descobertas pelos astrofísicos espanhóis 128 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO do Instituto de Astrofísica das ilhas Canárias, Rafael Rebolo (1961), Eduardo Martin e Antonio Margazzú. Em outubro de 1995, um grupo do Instituto de Tecnologia da Califórnia e da Universidade John Hopkins anunciou a descoberta de GI 229B, a companheira anã marrom da estrela anã vermelha GL 229A, da constelação Lepus, a 19 anos-luz da Terra. Detectada no ano anterior, mas cujo anúncio aguardou o resultado da análise do espectro infravermelho do objeto, a estrela marrom GI 229B tem de 30 a 40 massas da de Júpiter, raio de 65 mil km, cerca de 1000 K de temperatura, e idade entre 2 e 4 bilhões de anos. Ainda que descobertas recentemente, o número de anãs marrons deve ser bastante elevado, segundo muitos astrônomos, acreditando alguns que possam existir cerca de 100 bilhões delas só na Via Láctea. A descoberta da presença de corpos, como os planetas extrassolares e as anãs marrons, em órbita ao redor de estrelas, constitui desenvolvimento bastante recente, mas o interesse despertado no meio científico faz prever significativa ampliação, nos próximos decênios, do conhecimento sobre o assunto. 7.3.4.6 Meio Interestelar Era aceito pelos astrônomos do século XIX que o espaço entre as estrelas, ou meio interestelar, era vazio. Ainda que no início do século XX alguns astrônomos aventassem a hipótese da existência de matéria de dimensão extremamente reduzida e difícil de ser observada, seria possível, a partir dos anos 60, através da radioastronomia, detectar o que viria a ser conhecido como “matéria interestelar”, cuja maior parte é “invisível”. Trata-se, na realidade, de matéria e radiação dispersas entre estrelas, dentro e fora das galáxias: hidrogênio neutro (HI), hidrogênio ionizado (HII), gás molecular (H2), grãos de poeira (de carbono e/ou silício), raios cósmicos, campos de radiação de várias frequências, campos magnéticos, e restos de supernovas. A matéria, como poeira e gás, corresponde a apenas 5% da massa de estrelas visíveis da Via Láctea; o gás (90% hidrogênio, 9% hélio e 1% de elementos mais pesados que o hélio) representa 99% da matéria interestelar que preenche o espaço interestelar. 7.3.4.7 Buracos Negros A ideia de que a luz poderia ser atraída por ação gravitacional foi sugerida pelo geólogo inglês John Mitchell (1724-1793), estudada pelo 129 CARLOS AUGUSTO DE PROENÇA ROSA matemático e astrônomo Pierre Simon Laplace (1749-1827), retomada por Albert Einstein (1879-1955), em sua Teoria geral da relatividade (1915), comprovada durante um eclipse total do Sol, no Brasil (Ceará), em 1919, e postulada, em 1916, por Karl Schwarzschild (1873-1916). Buracos negros são objetos cósmicos, ou uma região do Espaço, extremamente compactos, cuja gravidade é tão grande que não deixa escapar nem a luz; ou seja, corpo que produz um campo gravitacional suficientemente forte para ter uma velocidade de escape superior à velocidade da luz. O campo seria teoricamente produzido por grandes quantidades de matéria ou de matéria com altíssimas densidades. O buraco negro se forma quando uma estrela com mais de cinco vezes a massa do Sol esgota sua Energia nuclear, a pressão e o calor já não impedem a contração do núcleo devida à gravidade e as camadas externas de gás são expelidas numa explosão de supernova. O núcleo da estrela “colapsa” numa estrela de nêutron superdensa, ou buraco negro, onde até o núcleo atômico é comprimido; a densidade da energia vai ao infinito e o tamanho indefinidamente pequeno, o que corresponde à chamada “singularidade” (volume tende a zero). Nesse ponto, se observam os efeitos da Teoria geral da relatividade, em que o Espaço se curva na vizinhança da matéria; quanto maior a concentração da matéria, maior a curvatura. Quando uma estrela atinge este mínimo tamanho determinado por sua massa, a curvatura do Espaço fecha o contato com o mundo exterior. O campo gravitacional termina no que é chamado de “horizonte de evento”, e seu raio é chamado de “raio Schwarzschild”, astrofísico alemão que sustentara a existência de corpos celestes “colapsados” que não emitiriam radiação, com base na Teoria geral da relatividade, de Einstein. Por isto, os buracos negros não são visíveis, não podem ser observados, sendo sua existência uma possibilidade teórica, contestada, inclusive por muitos astrônomos, embora em número cada vez menor. Somente na década de 70, surgiriam evidências indiretas de sua existência, através da observação de sua vizinhança ou de seus efeitos sobre os corpos vizinhos, como, por exemplo, a constatação de movimento orbital de nuvens de gás e poeira. O nome foi criado em 1967, pelo físico John Archibald Wheeler (1911), professor, então, da Universidade de Princeton, com referência à última fase de uma estrela em colapso gravitacional. São “buracos” porque coisas podem cair dentro dele, mas não podem sair; negros, porque não emitem luz e nenhuma outra radiação eletromagnética conhecida. A observação de tais objetos é, por conseguinte, necessariamente indireta. 130 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Apesar de ser admitido existirem buracos negros em número muito elevado, até o momento poucos foram detectados: o primeiro, em 1971, em Cygnus X-1; posteriormente, o telescópio Hubble (1994) descobriu, na constelação de Virgo, dois grandes buracos negros, um na galáxia M87 (NGC4486), equivalente a três bilhões de massas solares, e outro na Via Láctea, conhecido como GRO J1655-40; o Macho Alert System detectou, em 1996, o buraco negro “Macho96”, que seria confirmado pela análise de dados fornecidos pelo Hubble; em 2002, evidência de um sistema binário de buraco negro, um orbitando o outro a uma distância de três mil anos-luz, foi observada na galáxia NGC6240, pelo Observatório de Raios-X Chandra. Atualmente, a possibilidade de buracos negros é aceita nas galáxias, entre outras, NGC3379 (M105), NGC3377, NGC3379, M31, NGC4594, NGC3115 e NGC4486B. O físico inglês Stephen Hawking (1942) sugeriu que os buracos negros podem ter surgido, também, em qualquer outra concentração de matéria, como o núcleo de uma galáxia, ou sido gerados no Big Bang, que poderiam emitir energia na forma de partículas subatômicas, reduzindo, assim, sua massa, e desaparecendo, depois de algum tempo, ao contrário dos mais maciços. Esses miniburacos negros, por seu ínfimo tamanho, obedeceriam, também, às leis da Mecânica quântica. Apesar das intensas pesquisas, os buracos negros permanecem um mistério cuja elucidação requererá ainda muito estudo teórico e muita investigação nos próximos anos. O progresso alcançado recentemente permite uma razoável dose de otimismo quanto aos resultados futuros dessas pesquisas. 7.3.5 Astronomia Galáctica Pode-se considerar que a chamada Astronomia galáctica começa com Edwin Hubble. Até o início dos anos de 1920, o entendimento generalizado no círculo astronômico era o de a Via Láctea ser o limite do Universo, isto é, as estrelas e nebulosas seriam parte de uma grande ilha em forma de disco no Espaço. Observações astronômicas, desde o século XVIII, indicavam, além das estrelas, a existência de outros corpos celestes, extensos e difusos, os quais viriam a ser denominados de nebulosas; o famoso Catálogo de Nebulosas e Aglomerados de Estrelas (1774, 1784), de Charles Messier (1730-1818), não distinguia os diversos objetos celestes listados (103); poucos cientistas e intelectuais admitiriam, no século XVIII, que alguns desses objetos poderiam ser estrelas (Kant, Thomas Wright). 131 CARLOS AUGUSTO DE PROENÇA ROSA O grande progresso na observação astronômica, no século XIX, lançaria algumas luzes sobre a questão, como as imagens obtidas por William Parsons (1800-1867), que mostravam galáxias (M33, M51, M101) com estruturas distintas das nebulosas, e os trabalhos de William Huggins (1824-1910), em espectroscopia, que revelaram terem algumas nebulosas (as galáxias) espectro distinto do das nebulosas normais. Apesar das evidências de que vários desses corpos celestes eram distintos das nebulosas, a questão continuava em aberto, uma vez que permaneciam dúvidas sobre as estruturas e composição desses corpos celestes; o NGC (1890) de John Dreyer (1852-1926) contém 7.840 objetos, dos quais 3.200 galáxias, e do IC (1895-1910), com 5.836 objetos, constam 2.400 galáxias. No início do século XX, cerca de 15 mil nebulosas estavam catalogadas, algumas como aglomerados de estrelas, outras como objetos gasosos. Vesto Slipher (1875-1969), do Observatório Lowell, em Flagstaff, Arizona, que utilizara a espectroscopia para investigar a periodicidade da rotação dos planetas e a existência de poeira e gás interestelar, foi o primeiro a detectar a mudança das linhas do espectro das galáxias, o que significa ter sido o descobridor das linhas com o desvio para o vermelho (redshift) no espectro de M104; o valor do redshift significava uma velocidade de recessão de 3,6 milhões de km/h, alta demais para que esse corpo celeste pudesse estar localizado na Via Láctea, mas não tirou nenhuma conclusão deste fato até então desconhecido. Em 1917, foi instalado, no Observatório do Monte Wilson, telescópio de 2,5 m de diâmetro, que permitiria fotografar estrelas até 500 milhões de anos-luz de distância da Terra. Em abril de 1920, aconteceria o célebre debate entre Harlow Shapley (1885-1972), do Observatório do Monte Wilson, que sustentava serem tais corpos celestes, nebulosas espirais, parte de uma imensa Via Láctea, com o Sol bastante distante do centro da galáxia, e Heber Curtis (1872-1942), do Observatório Lick, que defendia serem tais objetos extragalácticos, pelo que a Via Láctea não seria a única galáxia, mas em seu modelo o Sol estaria próximo do centro da galáxia; essa controvérsia implicava, inclusive, a questão básica da dimensão cósmica; o debate foi inconclusivo. Em 1923, Edwin Hubble passaria a utilizar esse novo e possante telescópio do Observatório do Monte Wilson para estudar as explosões de “novas” na nebulosa espiral Andrômeda (M31), a fim de, na base da diferença entre a luminosidade aparente das “novas” em Andrômeda e na Via Láctea, determinar a distância relativa entre esses dois grupos de estrelas. Ao descobrir, em 1923, que uma das estrelas observadas seria uma variável pulsante cefeida, Hubble passaria a usar as pulsações da 132 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO estrela e a relação estabelecida por Henrietta Leavitt para medir distâncias. Segundo seus cálculos, a cefeida de período de 31 dias deveria estar a cerca de 1 milhão de anos-luz da Terra, pelo que a nebulosa espiral Andrômeda estaria a uma distância três vezes maior que o próprio tamanho da Via Láctea49. Em 1924, uma série de placas fotográficas confirmaria para Hubble que a estrela em questão, em Andrômeda, era uma cefeida. Tratava-se, assim, de outra galáxia. Hubble desenvolveria uma série de critérios de medida das distâncias, que o ajudaria, pouco depois, a descobrir nova cefeida de período de 21 dias, seguida de nove cefeidas na galáxia NGC6822, quinze em M33, doze em Andrômeda (M31) e diversas candidatas em M81 e M101. Estava demonstrado, assim, que o Universo era composto de grande número de galáxias, semelhantes à Via Láctea, descoberta de imensa repercussão no meio científico e responsável direta por novas concepções sobre a dimensão, estrutura e composição do Cosmos. Investigações desde o início do século, por Kapteyn, Eddington, Schwarzschild e outros, sobre o movimento das estrelas, mostravam o interesse da comunidade astronômica sobre o assunto, sem ser encontrada uma explicação aceitável sobre o problema no âmbito da Via Láctea. Em 1926, o astrônomo sueco Bertil Lindblad (1895-1965) avançaria a ideia da rotação da galáxia, na base da descoberta de Kapteyn, em 1904, de que haveria “dois fluxos de estrelas” em direções opostas, e em estudos sobre alta velocidade radial. Grande estudioso da estrutura e da dinâmica da Via Láctea, o astrônomo holandês Jan Hendrik Oort (1900-1992) confirmaria, em 1927, a teoria de Lindblad da rotação galáctica, ao analisar o movimento das estrelas distantes, que pareciam ser ultrapassadas pelas mais próximas, mostrando que estas se moviam mais rápido que as estrelas mais distantes50; Oort demonstraria, ainda, não estar o Sol no centro da galáxia (como, aliás, já alegara Harlow Shapley), mas a uma distância de cerca de 30 mil anos-luz. Em 1931, o astrônomo alemão Walter Baade (1893-1960) saiu da Alemanha e se instalou na Califórnia, onde trabalharia nos Observatórios de Monte Wilson e depois em Monte Palomar, até 1958. Nos anos da Segunda Guerra Mundial, excluído de pesquisas militares e confinado a trabalhos de observação pelo telescópio de Monte Wilson, pôde Baade, livre a noite, pelo blecaute de contaminação luminosa da cidade, fotografar estrelas muito fracas, como as do centro de Andrômeda. Descobriria, em 1944, dois tipos (I e II) distintos de população das cefeidas: o do núcleo (estudadas por Shapley), 49 50 DAMINELI, Augusto. Hubble, a Expansão do Universo. PANNEKOEK, Anton. A History of Astronomy. 133 CARLOS AUGUSTO DE PROENÇA ROSA estrelas velhas compostas quase exclusivamente de hidrogênio e hélio, e o dos braços espirais (descobertas por Hubble), de estrelas jovens, azuis, quentes e ricas em metais; as cefeidas do núcleo, avermelhadas e pobres em metais, eram quatro vezes menos luminosas que as dos braços. Em 1952, Baade demonstraria que os cálculos originais de “período-luminosidade”, utilizados por Hubble para as cefeidas (mais jovens) dos braços de Andrômeda, eram válidos apenas para as cefeidas do núcleo, ou seja, não se aplicariam a todas as cefeidas. Baade procederia, então, a um novo cálculo para a relação “período-luminosidade” para essas cefeidas, concluindo que a galáxia Andrômeda estava distante da Terra dois milhões de anos, isto é, duas vezes maior e duas vezes mais distante que o calculado por Hubble51. Com isto, a estimativa de Hubble de dois bilhões de anos de idade para o Universo foi revista, por Baade, para 5 bilhões de anos, compatível com a estimativa dos geólogos, na época, de três a quatro bilhões de anos de idade para a Terra. 7.3.5.1 Formação e Classificação Morfológica Não há consenso na comunidade científica sobre a formação das galáxias, o que significa coexistirem teorias explicativas para seu surgimento. A Hipótese de Hubble de que as galáxias espirais originariam as demais não é, atualmente, aceita. Até recentemente, duas teorias principais, baseadas no Big Bang, dividiam a opinião dos cientistas; uma conhecida como “de Baixo para Cima”, sustenta terem sido formados, primeiro, pequenos agrupamentos estelares, que se fundiram formando as galáxias; e outra, chamada “de Cima para Baixo”, sugere terem sido formadas, primeiro, as grandes estruturas (galáxias e aglomerados) e depois os pequenos grupos estelares dentro delas; ambas estas teorias eram incompatíveis com recentes descobertas de estrelas e buracos negros maciços formados logo após o Big Bang. A teoria prevalecente atualmente sugere que as galáxias individuais teriam surgido de um rápido processo de “baixo para cima”, com a formação mais lenta das estruturas maiores, ligada a flutuações primordiais e à gravidade da matéria escura, ou, em outras palavras, depois de formadas, as estrelas se aglomerariam pela atração gravitacional em galáxias. Dados fornecidos pelo Observatório Espacial de Raios-X Chandra e pelo Telescópio Espacial Hubble continuam a fornecer material para análise dos cientistas, o que poderá determinar novos esclarecimentos sobre a formação e evolução das galáxias, as quais estão constituídas de estrelas, gás e poeira. 51 TATON, René. La Science Contemporaine. 134 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Estima-se em 100 bilhões o número de galáxias visíveis no Universo, o que torna extremamente complexa a tarefa dos astrônomos de estabelecer, ainda que conveniente, uma classificação para esses enormes conjuntos de estrelas. A Via Láctea, formada há cerca de 10-12 bilhões de anos, e com mais de 100 bilhões de estrelas, difere, sob vários aspectos (luminosidade, dimensão, forma), de muitas outras galáxias, enquanto coincide com muitas outras sob esses mesmos aspectos. Vale mencionar que, à medida que aumentava o conhecimento sobre as galáxias, crescia o interesse em estabelecer uma classificação que atendesse, do ponto de vista morfológico, aos vários tipos conhecidos de galáxias. Apesar dos esforços, não foi possível aos astrônomos chegar a uma classificação consensual, pelo que a classificação original de Hubble, com a introdução de alguns tipos intermediários, como as de Vaucouleurs (1959), no Catálogo Geral de Galáxias Brilhantes, continua a ser a mais usada; na medida em que foram sendo observadas galáxias com características morfológicas até então não detectadas, subdivisões dos tipos principais foram sendo criadas. Deste modo, as galáxias observáveis estão classificadas em quatro tipos principais: i) Espirais (S) são distribuídas nos subtipos “a”, “b” e “c”, segundo o tamanho do seu bojo central, sendo o “a” o maior; foi criada uma variação conhecida como “Espiral barrada”, que se caracteriza por ter uma barra alongada de material estelar e interestelar, que passa pelo centro e pelo bojo até o disco galáctico, e são designadas SB e subdivididas em SBa, SBb e SBc (exemplos – M33, M64, M74, M81, M83, M100, M101, M104, ESO 269-57, Andrômeda). A maioria das galáxias se encontra classificada neste tipo, com cerca de 70% (aproximadamente metade para cada tipo); ii) Elípticas (E) variam bastante de tamanho, algumas com bilhões de estrelas e outras apenas com alguns milhões delas. M32, M60, M84, M86, M87 e M110 são alguns exemplos das galáxias E, que chegam a cerca de 10% do total; iii) Lenticulares, com cerca de 20% (M102, NGC3516), e iv) Irregulares (I) são as que não se enquadram nos outros tipos de galáxias, mas são menos de 1% (exemplo – M82, Grande Nuvem de Magalhães, Pequena Nuvem de Magalhães, NGC6822). 7.3.5.1.1 Galáxias Ativas A quase totalidade das galáxias se enquadra na classificação (atualizada) de Hubble. Algumas, no entanto, emitem quantidade extraordinária de energia na parte não visível do espectro, muito superior à das galáxias normais, que emitem na faixa do óptico. Essas galáxias 135 CARLOS AUGUSTO DE PROENÇA ROSA são muito mais luminosas que a Via Láctea, apresentam uma grande atividade do núcleo e são conhecidas como “galáxias ativas”, as quais estão numa proporção estimada de 1 para 10 em relação às galáxias normais. Os astrônomos distinguem quatro tipos principais de galáxias ativas: radiogaláxias, galáxias seyfert, quasares e blazares. As radiogaláxias, normalmente galáxias elípticas supergigantes, emitem a maior parte de sua energia na parte rádio do espectro eletromagnético e são as mais poderosas fontes de emissão de rádio. A energia liberada é da ordem de 1061 ergs, quantidade que não poderia ser gerada pelas reações nucleares simultâneas em supernovas de todas as estrelas de uma galáxia, devido ao relativamente baixo rendimento de geração de energia; apenas 0,7% da massa das estrelas é transformada em energia. Por essa razão, em 1964, os astrônomos Edwin Salpeter (1924-2008) e Yakov Zel’dovich (1914-1987) avançaram, independentemente, a ideia de que a fonte de energia seria a energia gravitacional liberada por matéria sendo acretada por um buraco negro central, o que ainda precisa ser comprovado. As radiogaláxias apresentam, normalmente, uma estrutura dupla, quase simétrica, com dois lóbulos emissores localizados um em cada lado da galáxia, associados a jatos; alguns exemplos: NGC383, Centaurus A (NGC5128), M87 (NGC4486), NGC4261, NGC1275, 3C 31, 3C 353, Cygnus A (3C 405, a mais poderosa radiogaláxia, descoberta nos anos de 1950). Doutor em Astronomia por Harvard (1936), com o trabalho intitulado Estudos sobre as Galáxias Externas, pesquisador do Observatório MacDonald (1936/40) e do Observatório do Monte Wilson (1940/42), Carl Keenan Seyfert (1911-1960) interessou-se em pesquisar o brilho e a magnitude das galáxias. Em 1943, publicaria um estudo sobre as galáxias em espiral, com o núcleo central pequeno, mas muito ativo e muito luminoso, equivalente à metade da sua total luminosidade, cujas linhas de emissão eram mais largas do que as de absorção que apareciam nos espectros das “galáxias normais”. Essas “galáxias ativas”, inicialmente num total de 10, passaram a ser conhecidas como “galáxias Seyfert”, que emitem energia principalmente na região do infravermelho e dos comprimentos de onda de rádio um pouco mais longos; são galáxias espirais com um núcleo compacto muito luminoso, capaz de variar seu brilho em poucos dias. As IC4329A, Markarian 279, ESO97-G13, NGC3516, NGC3561, NGC3786, NGC4151, NGC5548, NGC5728, NGC7674 e NGC7724 são exemplos dessas galáxias ativas Seyfert. Um tipo de galáxia ativa totalmente desconhecida para a Ciência, até os anos de 1960, é o “quasar”. Em 1960, a Universidade 136 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO de Cambridge, na Inglaterra, iniciaria o que viria a ser chamado de Terceiro Catálogo de Cambridge, no qual seriam catalogados objetos emissores de radiação, cujo conhecimento se expandira desde os trabalhos pioneiros de Karl Jansky e Grote Reber, em radioastronomia. O trabalho foi coordenado pelo astrônomo Martin Ryle (1918-1984), especialista em radioastronomia e técnica de interferometria, e serviria, por anos, de base para a identificação de tais objetos (como os 3C 48, 3C 147, 3C 196, 3C 273, 3C 288, 3C 295, 3C 405, PKS2349). Ainda nesse mesmo ano, o astrônomo americano Allan Sandage (1926) procuraria no objeto 3C 48 (isto é, no terceiro catálogo, o objeto n° 48), que seria uma estrela de magnitude 16, luz que apresentava algo novo: algumas linhas do espectro não eram reconhecíveis, fugindo do padrão, o que indicava ser a estrela de um tipo novo, constituída por um elemento desconhecido, não constante da Tabela periódica. O anglo-australiano John Gatenby Bolton (1922-1993), Medalha Bruce, diretor do Observatório de Radioastronomia da Austrália (1961/71), pesquisaria, também em 1960, o 3C 295, tendo sido extremamente ativo, nos anos subsequentes, na descoberta, com sua equipe, de centenas de quasares. Essas fontes emissoras de rádio, que eram mais da metade dos objetos classificados em Cambridge, seriam chamadas incorretamente de quasistellar radio source, uma vez que sua radiação era de todo o espectro eletromagnético, não apenas de ondas de rádio. A expressão seria abreviada, em 1964, para “quasar” pelo astrônomo sino-americano Hong Yee Chiu (1932). A identificação do primeiro quasar seria feita pelo astrônomo holandês Marteen Schmidt (1929), do Observatório do Monte Palomar, em 1963, ao estudar o objeto 3C 273. Schmidt descobriria que o espectro tinha somente elementos químicos conhecidos, e que o “desconhecido” era simplesmente o hidrogênio, que tinha sofrido um grande desvio para o vermelho, isto é, as linhas de emissão eram conhecidas, apenas com um grande desvio, nunca observado, para o vermelho, o que dificultara sua identificação. Tal desvio significava, pelo efeito Doppler, ser proporcional à velocidade do objeto, o que dava ao 3C 273 uma velocidade de 15% da luz (cerca de 50 mil km/s), devendo ter, para poder ser observado da Terra, uma luminosidade “equivalente a mil vezes a da Via Láctea”. Esses dados mostravam, também, uma distância de 2,2 bilhões de anos-luz da Terra. Os trabalhos independentes de Salpeter e Zel’dovich, em 1964, mencionados a respeito da fonte de energia das radiogaláxias, eram, igualmente, referentes aos quasares. O grande desvio da luz para o 137 CARLOS AUGUSTO DE PROENÇA ROSA vermelho do espectro é referencial da grande distância desses objetos, da velocidade da expansão do Universo, e um indicativo das distâncias cósmicas. A descoberta dos quasares seria da maior importância para os atuais estudos de Cosmologia, como fonte para pesquisas dos tempos primordiais do Universo. Milhares de quasares já foram detectados, dos quais já foi calculado o desvio da luz para o vermelho de centenas desses objetos. Em 1990, o quasar mais distante era o PC1158+4635, a 10 bilhões de anos-luz, e atualmente é o quasar PC1247+3406, a 12 bilhões de anos-luz. O quasar 3C 405 em Cygnus A é, até o momento, o mais próximo da Terra. Apesar dos progressos recentes nas investigações, inclusive com a participação do Telescópio Hubble, ainda são insuficientes os dados disponíveis para uma compreensão global e completa desses objetos celestes, que parecem pequenos por estarem distantes, emitem mais luz azul que vermelha e são quentes e brilhantes. O quarto tipo de galáxias ativas é conhecido pelo nome de “blazar”, objetos celestes cujas características gerais são i) galáxias elípticas, com um centro muito brilhante; ii) puntiformes, isto é, não possuem extensão espacial como as galáxias e nebulosas; iii) como os quasares, são objetos ligeiramente nebulosos, mas a maior parte da emissão luminosa provém de uma fonte puntiforme; iv) os espectros dos blazares, como os dos quasares, não apresentam linhas fortes de absorção; v) a luz visível dos blazares é frequentemente polarizada. De acordo com o fluxo de sua radiação como energia, os blazares são classificados em três categorias: LDL (blazar vermelho), HBL (blazar azul) e Blazar TeV. Por ser uma fonte de energia muito compacta e altamente variável, os blazares, inicialmente considerados como “estrelas irregulares invariáveis”, não formam um grupo homogêneo, pelo que são normalmente divididos em dois grupos: os altamente variáveis, conhecidos pela sigla em inglês OVV (Optically Violent Variable) e os objetos BL Lacertae. O nome de blazar para esses objetos celestes foi criado em 1978, pelo astrônomo Edward A. Spiegel, professor da Universidade de Colúmbia. Dos blazares já identificados, podem ser citados os Markarian 421 (na constelação de Ursa Maior, a uma distância de 360 milhões de anos-luz, é um dos mais próximos da Terra); Markarian 501, 3C 273 (na constelação de Virgo, é um quasar/blazar); 3C 279, PKS 2005-489 (detectado como tal em 2004); PKS-2155 304; PKS 0537 441; e BL Lacertae (na constelação de Lacerta, a um bilhão de anos-luz da Terra, dá seu nome a um grupo de blazar). 138 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.3.5.1.2 Grupos, Aglomerados e Superaglomerados Pesquisas telescópicas mostram um Universo com um número imenso de galáxias, as quais pela proximidade se agrupam em conjuntos, que, dependendo das dimensões, são chamados de grupos (até 30 galáxias luminosas), aglomerados e superaglomerados. As galáxias não estão distribuídas aleatoriamente nesses conjuntos, mas por interagirem gravitacionalmente umas com as outras, se mantêm elas a uma mesma distância, como demonstrou Oort. Esses conjuntos de galáxias são bastante heterogêneos, variando dos pequenos grupos, formados normalmente por galáxias espirais e irregulares, ricas em gás, até aglomerados enormes, em geral de galáxias elípticas, pelo que ainda são classificados em “regulares” (esféricos ou achatados e concentração de galáxias no centro) e “irregulares”. Os grandes aglomerados são chamados de “ricos”, por conterem milhares de galáxias. A Via Láctea é uma das 46 galáxias do chamado grupo local, irregular, no qual é a mais brilhante e a mais maciça, e a Andrômeda (M31) a maior; a galáxia espiral do Triângulo é a terceira maior do grupo local. O Grupo Escultor, ou do Polo Sul, é um pequeno aglomerado irregular, com 19 galáxias, das quais a mais importante é a NGC253, e está situado nos limites gravitacionais do Grupo Local. Por suas dimensões relativamente menores, quatro grupos são chamados de grupos compactos. Em 1951, Carl Seyfert descobriria o chamado sexteto Seyfert (NGC6027), aparentemente de seis galáxias, a uma distância de 190 milhões de anos-luz, na parte da cabeça da constelação de Serpens Caput; na realidade, o grupo é formado por quatro membros, já que um é constituído de gás e poeira interestelar, e o outro aparece no fundo, dando a impressão de estar alinhado às outras galáxias do grupo. As quatro galáxias, que mostram sinais de fortes interações que continuam a ocorrer, se encontram concentradas numa região de apenas 100 mil anos-luz de largura, o que poderá resultar, num futuro remoto, na formação, pela ação da gravidade, em vista de se encontrarem muito próximas umas das outras, de uma só grande galáxia. Os outros grupos compactos conhecidos são: o quinteto de Stephan, integrado pelas galáxias NGC7317, NGC7318A, NGC7318B, NGC7319 e NGC7320 (a maior delas); recebeu este nome em homenagem ao astrônomo Edouard Stephan, que as descobriu em 1877; o quarteto de Robert, a uma distância de 160 milhões de anos-luz, localizado na constelação de Phoenix; é formado pelas galáxias NGC87, NGC88, NGC89 e NGC92, descobertas nos anos 1830 por John Herschel, e nomeado por 139 CARLOS AUGUSTO DE PROENÇA ROSA Halton Arp e Barry Madore no Catálogo de Galáxias e Associações Peculiares Austrais, de 1987; e o HCG 87, listado no Catálogo de Grupos Compactos de Hickson, está localizado a uma distância de 400 milhões de anos-luz da Terra, na constelação de Capricórnio, e é formado por quatro galáxias classificadas como NGC87. Quanto aos aglomerados de galáxias, o astrônomo americano George Ogden Abell (1927-1983), da UCLA, confeccionou, em 1958, um catálogo de aglomerados ricos do hemisfério norte (Catalogue of Rich Clusters of Galaxies) de imagens do alomar Sky Survey, classificando um total de 2.712 (de A1 a A2712), o qual seria ampliado (1989) com aglomerados do hemisfério sul (A2713 a A4076) e um Suplemento (A4077 a A5250). Desse catálogo constam aglomerados identificados por um número precedido da letra A, de Abell. A título exemplificativo são citados, a seguir, alguns dos mais próximos: aglomerado de Virgo, irregular, a uma distância de 60 milhões de anos-luz da Terra, com 160 grandes galáxias e mais de duas mil galáxias pequenas, e diâmetro de 20 milhões de anos-luz; aglomerado Fornax (A5373), a uma distância de cerca de 65 milhões de anos-luz da Terra, com 54 galáxias principais, sendo a NGC1316 a mais brilhante; aglomerado Hydra (A1060), regular, das dimensões do aglomerado de Virgo, com número superior a mil galáxias e a uma distância de 160 milhões de anos-luz, sendo a NGC3311 a mais brilhante; aglomerado Coma (A1656), regular, com mais de 3 mil galáxias, das quais a mais brilhante é a NGC4889; aglomerado Hércules (A1689), irregular, com mais de 3 mil galáxias, a uma distância de 500 milhões de anos-luz; aglomerado Corona Borealis (A2065), regular, com mais de mil galáxias, sendo 400 principais; situa-se no centro do superaglomerado de Corona Borealis; aglomerado Ursa Menor (A2125), irregular, a 3 bilhões de anos-luz da Terra, com mais de mil galáxias; Abell2218, regular, a uma distância de 3 milhões de anos-luz, na constelação Draco do Hemisfério Norte, com mais de 250 galáxias. Em 1953, Gerard de Vaucouleurs demonstraria que os aglomerados de galáxias formavam estruturas ainda maiores, as quais são denominadas de “superaglomerados”. Imensas estruturas de milhões de anos-luz de diâmetro e milhares de galáxias, não estão distribuídas, a exemplo das galáxias, uniformemente pelo Universo. Os superaglomerados mais próximos (a menos de 1 bilhão de anos-luz de distância) chegam a 80, dos quais os mais próximos e conhecidos são os de Virgo (onde se encontra o “aglomerado local” que inclui a Via Láctea); Hidra; Centauro (com quatro grandes aglomerados – A3526, A3565, A3574 e A3581, e centenas de 140 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO pequenos grupos menores); Perseus-Pisces (com três grandes aglomerados – A262, A347 e A426 – e centenas de grupos de galáxias dispersos); Pavos-Indus (com três aglomerados – A3656, A3698 e A3742); Coma (diâmetro de 100 milhões de anos-luz, foi descoberto pelos astrônomos americanos Stephen A. Gregory e Laird Thompson, e objeto, em 1978, de artigo e mapa, com os dois aglomerados que o formam – A 1367 e A 1656); Escultor; Phoenix; Hércules (com dois aglomerados – A2197 e A2199, é o mais próximo, a uma distância de 400 milhões de anos-luz); Leão (com dois aglomerados – A1185 e A1228, e a uma distância de 450 milhões de anos-luz); Shapley (um dos mais densos, com pelo menos 20 aglomerados, dentre os quais, A3558, A3559 e A3560); Pisces-Cetus e Bootes (ambos a cerca de 800 milhões de anos-luz de distância); Horologium (a uma distância de 900 milhões de anos-luz, é um dos maiores superaglomerados) e Corona Borealis (aproximadamente a um bilhão de anos-luz de distância, no qual o aglomerado A2065 é o dominante, mas há mais dez outros aglomerados). Em 1986, os astrônomos Valerie Lapparent, Margaret J. Geller e John Huchra, em célebre artigo intitulado Uma fatia do Universo, produziram um famoso mapa da estrutura do Universo, com um mapa do Superaglomerado Coma. Em 1989, Huchra e Geller, ao analisarem os dados obtidos dos levantamentos de desvio do vermelho (redshift surveys) descobriram a segunda maior superestrutura do Universo, conhecida como a Grande Muralha (ou Muralha Coma). Trata-se de filamento de galáxias com aproximadamente 200 milhões de anos-luz de distância e mais de 50 milhões de anos-luz de comprimento, 300 milhões de anos-luz de largura e 15 milhões de anos-luz de espessura. A maior das superestruturas foi descoberta em 2003, por J. Richard Gott e Mario Junc, da Universidade de Princeton, baseado em dados da Sloan Digital Sky Survey (SDSS). A chamada Grande Muralha Sloan tem 1,37 bilhão de anos-luz de extensão e dista cerca de 1 bilhão de anos-luz da Terra. 7.3.6 Cosmologia A Cosmologia (das palavras gregas cosmos para Universo e logos para estudo), termo cunhado pelo filósofo alemão Christian Wolff (1679-1754), em sua obra Cosmologia Generalis (1731), é o ramo da Astronomia que estuda a estrutura do Universo, isto é, descreve o Universo em seu estado atual e procura as leis que o governam, como explica F. Couderc52. Apesar da limitada e precária capacidade observacional e do 52 TATON, René. La Science Contemporaine. 141 CARLOS AUGUSTO DE PROENÇA ROSA insuficiente avanço teórico e conceitual em diversos campos científicos (Matemática, Mecânica, Óptica), foi extremamente significativa a evolução, ainda que dominada por considerações de ordem teológica e metafísica, da concepção do Universo a partir da chamada revolução copernicana, quando a Terra deixaria de ocupar posição de relevo no próprio Sistema Solar. As mesmas leis da Física se aplicariam a todo o Universo conhecido (Via Láctea), estático e imutável. O que hoje se denomina de Cosmologia clássica (de 1543 ao início do século XX) seria profundamente alterada em 1915-1917, pela obra de Albert Einstein, quando se inauguraria a chamada Cosmologia moderna, cuja principal característica seria a da utilização exclusiva da pesquisa e da teoria científica para a explicação dos fenômenos. As diversas teorias formuladas sobre a formação do Cosmos comprovam o abandono de considerações metafísicas e a consequente rejeição do “criacionismo”, o que se constitui em evidência do triunfo do espírito científico no campo da Astronomia, uma verdadeira revolução na História da Ciência. Alguns autores estudam o período atual dividindo-o em Cosmologia teórica e Cosmologia observacional, metodologia que não será adotada aqui, sendo preferível, para melhor exposição e compreensão do tema, sua apresentação de acordo com a ordem cronológica dos acontecimentos, ou seja, a evolução do conhecimento global. 7.3.6.1 A Teoria da Relatividade e a Cosmologia Moderna Einstein (1879-1955) daria contribuições decisivas para o surgimento da denominada Física moderna, com suas obras (Teoria da Relatividade Especial, Uma Nova Determinação das Dimensões Moleculares, O Movimento Browniano, O Quantum e o Efeito Fotoelétrico) do chamado “ano milagroso” (1905). Com sua Teoria da Relatividade Geral (1915), publicada no Annalen der Physik (1916), que engloba todos os fenômenos tratados na relatividade especial, criaria Einstein uma nova Física celeste, em que a Lei da gravitação universal de Newton não teria aplicação para massas muito grandes (estrelas, por exemplo); em consequência, estabeleceria uma nova da Teoria da gravitação, da qual a teoria clássica de Newton seria um caso particular. Em 1917, Einstein escreveria livro de divulgação científica, intitulado Teoria da Relatividade Especial e Geral, no qual reiteraria a relatividade do movimento e da velocidade, rejeitaria a noção do éter, estabeleceria a constância da velocidade da luz (independentemente da 142 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO sua fonte ou do seu detector) como limite insuperável no Universo, e sustentaria o caráter relativo de Tempo e Espaço; Einstein incluiria, ainda, sua célebre fórmula, de 1907, que relaciona (aspectos diferentes do mesmo fenômeno) Energia com massa, a qual é multiplicada pela velocidade da luz ao quadrado (9x1016) – “E=mc2”, o que explica uma pequena quantidade de massa conter uma quantidade gigantesca de energia, e trataria dos fenômenos ligados à gravitação. Por volta de 1907, chegara Einstein à conclusão de que, apesar de os conceitos de inércia e gravidade serem diferentes, as massas inerciais e gravitacionais de um corpo são sempre as mesmas, o que não poderia ser interpretado como mera coincidência. Pela Lei da Inércia (Primeira Lei de Newton), um corpo em repouso, ao não estar submetido a uma força exterior, permanece em repouso ou se está em movimento continua a se deslocar em movimento retilíneo uniforme; segundo a relatividade geral, a massa gravitacional se comporta como uma massa inercial: ela se move livremente, sem sofrer nenhuma força, mas em razão da curvatura Espaço-Tempo, provocada pela presença de corpos maciços, seu deslocamento não é em reta, mas segundo uma geodésica. A gravitação de uma força atrativa entre corpos passa a ser entendida como deformação do Espaço-Tempo. Admitindo, assim, ser impossível distinguir entre forças de inércia e de gravidade, estabeleceria seu princípio da equivalência, que lhe permitiria prever (1911) que raios de luz num campo gravitacional se movem em linha curva. Como a força gravitacional de Newton é uma ação à distância, o que significa que ela age de forma instantânea e, portanto, mais rápida que a luz, o que é impossível pela Teoria da Relatividade, Einstein substituiria essa noção por uma geometria tetradimensional do Espaço-Tempo, com as três dimensões espaciais (largura, comprimento e altura) mais o tempo. Como o Espaço-Tempo é um Espaço riemanniano, com suas propriedades geométricas, isto é, curvatura, que varia em função da distribuição e do movimento da matéria, os corpos não se deslocam mais em linha reta, mas em linhas geodésicas. Com essa geometria seria possível explicar a queda de um corpo sem recorrer à ação à distância. Um exemplo bidimensional do Espaço-Tempo é normalmente apresentado nos livros para explicar esse ponto53. Se colocada uma esfera de massa razoavelmente grande, como de chumbo, no centro de uma manta flexível de borracha, esta se deformará com o aparecimento de uma depressão. Uma pequena bola de gude acionada da borda dessa manta elástica irá se direcionar para dentro da depressão, ao encontro da esfera de chumbo, ou, em outras palavras, em direção ao centro da depressão. 53 VIEIRA, Cássio Leite. Einstein. 143 CARLOS AUGUSTO DE PROENÇA ROSA No caso do Espaço-Tempo einsteiniano ocorre o mesmo fenômeno: a presença de um corpo deforma sua estrutura como no exemplo da manta. Assim, de acordo com a Teoria da relatividade geral, a massa encurva o Espaço em sua vizinhança; quanto maior a massa, maior a densidade e maior a curvatura. Uma estrela muito densa causa uma “depressão” no Espaço-Tempo muito maior que um planeta, pelo que um objeto sob a influência dessa curvatura Espaço-Tempo vai cair em direção ao corpo causador da depressão, sem que haja qualquer força atuando sobre o objeto, o qual apenas segue a trajetória mais curta no Espaço deformado. No caso de o objeto estar em alta velocidade, vencer o declive da depressão e chegar ao outro lado da borda, a trajetória, ao atingir a borda da depressão, se desviará ligeiramente de sua trajetória inicial; esse desvio de trajetória ocorreria, segundo Einstein, com a luz, a qual passaria “raspando” pela deformação causada no Espaço-Tempo por uma massa de grandes proporções. O efeito dessa curvatura da luz faria com que a estrela emissora fosse vista, da Terra, um pouco deslocada (ângulo de valor igual a 1,73 segundo de arco) em relação à sua posição verdadeira no céu54. Ao publicar sua Teoria da relatividade geral, Einstein acrescentaria que sua formulação se comprovaria ao dar correta explicação para três problemas: o da anomalia da órbita de Mercúrio, o da alteração da frequência ou cor da luz sob ação da gravidade e o da deflexão da luz provocada por um campo gravitacional. A órbita de Mercúrio sofre uma alteração de 43 segundos de arco a cada meio século, o que não era explicado pela Lei de Newton, mas plenamente justificado pela teoria de Einstein por estar esse planeta próximo do Sol55; no caso do desvio para o vermelho (na realidade, o desvio gravitacional pode ocorrer em qualquer faixa do espectro eletromagnético), apesar de alegações, nos anos de 1920 (Walter Sydney Adams, por exemplo), a comprovação da previsão de Einstein ocorreria somente em 1957, pelo físico alemão Rudolph Ludwig Mossbauer (1929, PNF 1961), com o desvio de raios-Gama pela gravidade; e pelos físicos americanos Robert Pound (1919) e Glen Rebka com o desvio da luz, em 1960; quanto à curvatura dos raios de luz, a comprovação, anunciada por Eddington, em sessão conjunta da Sociedade Real e da Sociedade Real Astronômica, em novembro, teria sido dada pela análise das fotografias do eclipse total do Sol tiradas em Sobral (Ceará), em maio de 1919; o eclipse confirmaria o cálculo de Einstein, em 1911, de uma deflexão do raio de luz de 1”7 pelo aparente deslocamento da estrela de sua posição usual. 54 55 VIEIRA, Cássio Leite. Einstein. RIVAL, Michel. Os Grandes Experimentos Científicos. 144 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.3.6.2 Modelo Cosmológico de Einstein O artigo de Einstein, intitulado Considerações Cosmológicas na Teoria da Relatividade Geral, publicado nos Anais da Academia Prussiana de Ciências, em 1917, é considerado como marco inicial da Cosmologia moderna, pois é onde o autor aplica suas ideias e concepções do Universo como um todo. Convencido de ser o Universo uma entidade estática, apesar de seus cálculos indicarem um Universo dinâmico (em expansão ou em contração), Einstein viria a modificar suas equações originais. Nesse artigo, entendendo que a aplicação das suas equações levava ao colapso gravitacional de seu modelo de um Universo uniforme em densidade, isotrópico, estático, finito e espacialmente fechado (as galáxias seriam descobertas anos mais tarde por Hubble), Einstein introduziria arbitrariamente uma constante adicional, que corresponde a um “potencial gravitacional constante repulsivo”, para adequar o modelo à sua concepção do Universo. Essa constante cosmológica impediria a contração do Universo, por servir de compensação à força atrativa da gravidade, produzindo um Espaço estático, em que a distribuição da matéria não muda com o tempo. No modelo de Einstein, o Universo sempre existiu e a matéria é criada a partir do nada. Naquela época, a grande maioria da comunidade científica, inclusive Einstein, supunha que o Universo fosse constituído apenas pela nossa Galáxia. Ao mesmo tempo, sustentava Einstein ser mais natural que o Cosmos fosse finito, sendo sua massa, em média, distribuída por todo seu volume. Decorreria, então, o princípio cosmológico, pelo qual, em média, todos os pontos do Universo são indistinguíveis, ou seja, o Universo é homogêneo e isotrópico, e sua geometria passa a ser determinada por seu raio de curvatura. 7.3.6.3 Modelo Cosmológico de De Sitter O astrônomo holandês William De Sitter (1872-1934), professor da Universidade de Leiden, além de pesquisar em Mecânica Celeste e fotometria estelar, seria dos primeiros a se interessar pelas teorias de Einstein, inclusive pela sua divulgação, numa série de artigos, entre 1915 e 1917, em centros científicos. Em 1911 escreveria um artigo sobre a aplicação da Teoria da relatividade especial aos corpos celestes, concluindo que as estimativas observacionais feitas de acordo com a teoria newtoniana se tornavam obsoletas em função da relatividade einsteiniana. Em 1913, 145 CARLOS AUGUSTO DE PROENÇA ROSA De Sitter defenderia que a velocidade da luz era independente da velocidade de sua fonte. Sua análise do artigo de 1917, de Einstein, contudo, discordava num ponto da conclusão do próprio autor da teoria, ao não concordar com a constante cosmológica, introduzida em seu modelo de Universo. O modelo apresentado por De Sitter, ainda em 1917, demonstraria a possibilidade de outras soluções com a relatividade geral de Einstein, como a de um Universo sem matéria, mas com movimento, ainda que estático. Em seu modelo, De Sitter utilizou uma constante cosmológica, estacionária, ou seja, uma solução cujas propriedades não dependem do Tempo. A hipótese foi considerada como admissível, uma vez que a densidade média do Universo é muito mais baixa que o vácuo produzido em laboratório. Nesse Universo de De Sitter, algumas estrelas (fontes de luz) espalhadas pelo Universo se afastariam umas das outras com velocidades proporcionais às suas distâncias, podendo chegar próxima à da luz; como a quantidade de matéria é muito pequena, sua evolução não teria praticamente efeito sobre a evolução do Universo. 7.3.6.4 Universo em Expansão. Modelos cosmológicos As contribuições fundamentais de Friedmann, Lemaître e Hubble, nos anos 20 e 30, e Gamow, nos anos 40, assentariam as bases do chamado Modelo Cosmológico Padrão (MCP), que se desenvolveria nas décadas seguintes com os aportes teóricos de um grande número de físicos e astrofísicos, e as pesquisas por meio de novas técnicas, como a radioastronomia e satélites artificiais. Embora com o apoio majoritário da comunidade científica, o MCP, conhecido popularmente como Big Bang (BB), não resolveu, pelo momento, alguns problemas surgidos ao longo de novas descobertas, pelo que outras teorias cosmológicas têm sido sugeridas nos últimos anos. 7.3.6.4.1 Friedmann O primeiro modelo cosmológico de um Universo em expansão seria de autoria do matemático e meteorologista russo Aleksandr Aleksandrovich Friedmann (1888-1925), que em 1906 ingressara na Universidade de São Petersburgo, onde se graduaria em Matemática pura e aplicada, em 1913 iniciaria sua carreira científica no Observatório 146 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Pavlovsk, e em 1918 seria nomeado professor de Mecânica teórica na Universidade de Perm. Friedmann concluiria sua pós-graduação em Meteorologia, em Leipzig, e em 1920, retornaria ao Observatório de São Petersburgo, vindo a ser seu diretor, pouco antes de falecer, de tifo, prematuramente, aos 37 anos de idade. Num trabalho de 1922 (sobre a curvatura do Espaço), publicado na prestigiosa Zeitschrft für Physik, Friedmann demonstraria haver, na Matemática e no Espaço-Tempo da Teoria da relatividade geral, base teórica para várias soluções possíveis, o que permitiria a construção de diversos modelos cosmológicos. Friedmann consideraria em seus modelos apenas a força da gravidade, a densidade média da massa constante e a curvatura do Espaço igualmente constante. Diferentes modelos seriam possíveis, dependendo se a curvatura é zero, positiva ou negativa. Os Universos de seus modelos são homogêneos (o mesmo em todos os lugares), isotrópicos (o mesmo em todas as direções) e dinâmicos, alguns em expansão, outros em contração. No caso de densidade suficientemente grande de matéria (densidade crítica), a atração gravitacional causada pela matéria seria poderosa o bastante para reverter a expansão do Universo, provocando seu colapso. Seu trabalho, contudo, teve muito pouca repercussão nos centros científicos da Europa. Em dezembro de 1922, Friedmann enviou carta a Einstein, na qual apresentou seus cálculos, solicitando que, se correto, Einstein deveria escrever aos editores de seu trabalho admitindo seu erro. Em maio de 1923, Einstein escreveria ao Zeitschrift für Physisk, reconhecendo seu erro: “considero corretos os resultados alcançados pelo senhor Friedmann, os quais adicionam novas luzes ao assunto”. 7.3.6.4.2 Lemaître. Átomo Primordial O cosmólogo belga Georges Edouard Lemaître (1894-1966) ordenou-se padre católico em 1923, estudou com Arthur Eddington, em Cambridge (1924), e depois passou um ano nos EUA, no Observatório de Harvard (com Harlow Sharpley) e no Instituto de Tecnologia da Califórnia. De regresso à Universidade de Louvain, onde estudara, permaneceria aí toda sua vida, como professor de Astronomia, a partir de 1927. Baseando-se na Teoria da relatividade geral, e independentemente de Aleksandr Friedmann, Lemaître, em 1927, descreveria um modelo cosmológico de um Universo em expansão (Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses 147 CARLOS AUGUSTO DE PROENÇA ROSA extragalactiques), que só viria a ter reconhecimento e divulgação após sua publicação, em inglês, por iniciativa de Eddington, no Monthly Notices of the Royal Astronomical Society, em 1930. Em artigo publicado pela revista Nature, em 1931, com o título The Beginning of the World from the point of view of the Quantum Theory, Lemâitre desenvolveria a ideia de que a formação do Universo teria ocorrido a partir de um determinado momento em que um “átomo primordial” ou “ovo cósmico”, muito denso e muito quente, teria explodido, lançando seus fragmentos que formariam as galáxias. Dado o desvio para o vermelho, no espectro, da radiação proveniente das nebulosas e galáxias observadas por Slipher e por ele mesmo, interpretaria Lemaître tal afastamento da Terra como o Universo em expansão, ou, em outras palavras, a expansão do Espaço sideral em função do crescente distanciamento das galáxias. Além de ter obtido equações equivalentes às de Friedman, Lemaître estabeleceria, antes de Hubble, a relação linear entre velocidade e distância. A proposta de um modelo expansionista despertaria pouca atenção na comunidade científica. Apesar de seus esforços, não conseguiria Lemaître conquistar o apoio de Einstein e De Sitter, defensores de um Universo estático. Se comprovado que as galáxias estavam se afastando, seria natural supor que, em tempos distantes o Cosmos fosse menor, que a “matéria” estivesse extremamente compacta, isto é, no Tempo zero, toda a matéria estaria concentrada numa massa minúscula, o átomo primordial. Esse átomo primordial se comporia apenas de energia, já que não existiam os elementos, como tampouco existia tempo, pois não havia matéria. Sujeito à sua própria atração gravitacional, essa massa energética se contraiu e se comprimiu cada vez mais, elevando a temperatura a níveis altíssimos no menor volume possível de energia, a ponto de provocar a desintegração de um núcleo radioativo, “combinando elementos de Física nuclear com a segunda lei da termodinâmica”56, início da expansão do Universo. Segundo Lemaître, assim que passou a existir, o átomo, instável se quebrou em muitos fragmentos, que incluíam elétrons, prótons, partículas alfa, etc., que escaparam em todas as direções. Como a desintegração foi acompanhada por um rápido crescimento do raio do Espaço, o volume do Universo começou a crescer, sendo preenchido pelos próprios fragmentos do átomo primordial, sempre uniformemente. A partir dessa matéria básica, nuvens de gás se condensaram, dando origem aos aglomerados de nebulosas; raios fósseis, fragmentos desses fogos de artifícios cósmicos, teriam se espalhado pelo Espaço. 56 GLEISER, Marcelo. A Dança do Universo. 148 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A hipótese formulada decorria, portanto, de o atual alto grau de diferenciação da matéria no Espaço e a complexidade de formas dos vários corpos celestes deveriam ter resultado da subsequente dispersão de um material originalmente homogêneo e altamente comprimido, o átomo primordial. Apesar de não ter cogitado, em seu artigo na Nature, da origem do átomo primordial, esforçou-se Lemaître por demonstrar ser seu modelo estritamente científico, sem qualquer conotação teológica ou metafísica. Sua condição de padre, contudo, seria interpretado por muitos como uma tentativa disfarçada de reapresentação do “criacionismo teológico”. A gradual aceitação pela comunidade científica da expansão espacial do Universo não significaria apoio à teoria de Lemaître, a qual permaneceria por muitos anos sem credibilidade no meio científico. 7.3.6.4.3 Hubble e a Demonstração da Expansão do Universo Aos progressos observacionais na Astronomia estelar (classificação, luminosidade, distância, magnitude, movimento) nas duas primeiras décadas do século XX, obtidos das pesquisas, entre outros, de Ejnar Hertzprung, Henry Russell, Henrietta Leavitt, Vesto Slipher, Harlow Shapley e Heber Curtis, deve ser mencionado, em especial, o pioneiro trabalho de Slipher, em 1912, na medição da rotação das nebulosas espirais pela espectroscopia. Nessas pesquisas, Slipher constataria o afastamento das nebulosas (desvio para o vermelho), com exceção de Andrômeda, a uma velocidade de até 1.100 km/s; em artigo no New York Times, em 1921, explicaria que grandes velocidades de afastamento implicavam grandes distâncias. Seguiu-se a descoberta de Edwin Hubble, em 1923, de que a chamada nebulosa espiral Andrômeda era, na realidade, uma galáxia, do tamanho de uns 50 mil anos-luz, com um número de estrelas aproximado ao da Via Láctea e a uma distância de dois milhões de anos-luz. A partir desse momento, o Universo deixaria de se limitar à Via Láctea para se constituir de conjuntos de galáxias e aglomerados de galáxias. Com a colaboração direta de Milton Humason (1891-1972), retomaria Hubble, no Observatório de Monte Wilson, com um poderoso telescópio de 2,5 metros e um novo e eficiente espectrógrafo, a pesquisa de Slipher sobre o afastamento das nebulosas. Nesse trabalho, seriam medidas as velocidades aparentes (deslocamento das raias do espectro eletromagnético) de todas as 45 galáxias observadas por Slipher, vindo a ser constatada, com base nas medidas das cefeidas que, quanto maior a distância, maior a velocidade de 149 CARLOS AUGUSTO DE PROENÇA ROSA afastamento das galáxias. Ainda em 1929, escreveria Hubble um pequeno artigo, intitulado Uma Relação entre a Distância e a Velocidade das Nebulosas Extragalácticas, que seria publicado nos Anais da Academia Nacional de Ciências, sem fazer, contudo, qualquer alusão à ideia de expansão do Universo. No prosseguimento de suas pesquisas, agora tomando Andrômeda como fonte-padrão de brilho aparente, passou a medir 51 galáxias, sendo que uma delas, da constelação de Leão, se afastava a 20 mil km/s da Terra, o que correspondia a uma distância de 105 milhões de anos-luz. Essa relação distância-velocidade seria chamada de Lei de Hubble ou Constante de Hubble: a velocidade de afastamento das galáxias aumentava proporcionalmente à sua distância da Terra. A famosa fórmula da Lei é: v = HD (sendo “v” velocidade, “H” a Constante de Hubble e “D” a distância. A constante (H) medida por Hubble é de 135km/s/milhão de anos-luz). Essa descoberta observacional de Hubble evidenciava para a comunidade astronômica a correção dos modelos expansionistas de Universo apresentados anteriormente por Friedmann e Lemaître. Em decorrência, igualmente, desse desdobramento do assunto, Einstein abandonaria sua proposta de constante cosmológica, vindo a propor um modelo de Universo oscilante. Esse modelo se baseia na ideia de que, em algum momento, a expansão espacial seria interrompida e se iniciaria um ciclo de contração, retornando o Universo a uma “singularidade”, que voltaria a se expandir; o processo se repetiria continuamente. 7.3.6.4.4 O Big Bang O físico e cosmólogo ucraniano Gamow, o primeiro grande defensor do modelo do átomo primordial, cuja explosão teria dado origem ao Universo, apresentaria, em 1948, uma versão modificada e refinada da Teoria de Lemaître. Georg Gamow (1904-1968) nasceu em Odessa, estudou na Universidade de Leningrado, trabalhou na Universidade de Göttingen e no Instituto de Física Teórica de Copenhague, com Niels Bohr; nos anos 1929-1931 estudou as reações termonucleares nas estrelas, e em 1931, foi nomeado para investigações pela Academia de Ciências de Leningrado. Em 1933, ao assistir ao Congresso Solvay, em Bruxelas, decidiu deixar definitivamente a União Soviética, indo instalar-se provisoriamente em Londres, onde manteria contato com Ernest Rutherford. No ano seguinte, foi para os EUA, onde lecionaria Física na Universidade George Washington, até 1956, quando se transferiu para a Universidade de 150 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Boulder, no Colorado, permanecendo até 1968. Participou do projeto Manhattan. Dentre os vários assuntos a que se dedicara, bastaria mencionar núcleo atômico, formação de estrela, nucleossíntese estelar. Interessou-se, igualmente, pela Biologia molecular, em particular pelo trabalho de Francis Crick e James Watson, em 1953, sobre DNA, sustentando, já em 1954, que os ácidos nucleicos agiriam como código genético na formação de enzimas. Em 1948, Gamow escreveu artigo intitulado A Origem dos Elementos Químicos, no qual argumentou que os elementos se formaram de núcleos atômicos construídos pela sucessiva captura de nêutrons. Nesse mesmo artigo, com a colaboração de Ralph Alpher (1921) e Hans Bethe (1906-2005), sustentaria Gamow que, se o Universo se originara de um estado extremamente denso e quente, ainda deveria haver remanescente do Big Bang, e disperso por todo o Universo, radiação ou energia com uma temperatura média de cinco graus acima do Zero absoluto da escala Kelvin. O átomo primordial seria uma mistura de partículas do hylem (nome dado por Aristóteles) que se aglomeraram em elementos mais pesados por fusão; na primeira meia hora, se teriam formado todos os elementos químicos. Em 1952, Gamow publicaria A Criação do Universo, datando a expansão em cerca de 17 bilhões de anos, quando a explosão original teria causado uma uniforme radiação cosmológica de fundo. O cenário desenvolvido por Gamow começa com um componente material (hylem), cheio de prótons, neutros e elétrons; o Universo era banhado por fótons altamente energéticos, responsáveis pela alta temperatura (ao redor de 500 bilhões de graus Celsius), que não permitia qualquer ligação entre seus constituintes. Os constituintes moviam-se livremente, colidindo entre si e com fótons, mas sem formarem núcleos ou átomos. A partir desse estado inicial, começaram a aparecer complexas estruturas materiais, à medida que a temperatura caía e os fótons se tornavam menos energéticos; ligações nucleares entre prótons e nêutrons tornaram-se possíveis. Com um centésimo de segundo de existência, ocorreria a “nucleossíntese primordial”, quando foram formados o deutério, o trítio, o hélio e seu isótopo hélio 3, e um isótopo do lítio, o lítio 7; esse processo de formação de elementos pela fusão progressiva dos núcleos mais leves teria durado cerca de 45 minutos; cerca de 20% de toda a matéria do Universo teria sido convertida em hélio. Atualmente, é calculado que a nucleossíntese tenha durado três minutos. A expansão e o resfriamento (temperatura de 3 mil graus Celsius) do Cosmos tornaram os fótons cada vez menos energéticos, o que viria permitir, com o Universo com a idade de 300 mil anos, que elétrons e prótons formassem átomos 151 CARLOS AUGUSTO DE PROENÇA ROSA de hidrogênio (desacoplamento de matéria e radiação). Gamow mostrou, ainda, que os fótons teriam uma distribuição de frequências idênticas às encontradas no espectro de um corpo negro. Sua estimativa para a temperatura atual dos fótons primordiais não foi precisa, mas foi calculada em 268 graus Celsius negativos ou 5 graus K positivos por Ralph Alpher e Robert Herman (o valor medido hoje é de 2,73 graus K)57. A teoria de Gamow se refere ao período de história do Universo de 0,0001 segundo depois do que seria o início até o desacoplamento dos fótons, cerca de 300 mil anos depois, momento da origem da radiação cósmica de fundo; para esse período inicial (estimado em 10-12 segundo) não há, contudo, sustentação observacional. No desenvolvimento do conhecimento cosmológico, várias descobertas observacionais e algumas evidências teóricas aumentaram o entendimento da composição e estrutura do Universo e reforçaram a credibilidade da Teoria do Big Bang. 7.3.6.5 Matéria Escura. Radiação Cósmica Descobertas da maior importância para a evolução da Cosmologia ocorreriam nesses últimos anos, o que permitiria um gradual aumento do conhecimento da estrutura e composição do Universo. Apesar do inegável progresso, a própria comunidade astronômica reconhece ser ainda muito restrito e inadequado seu conhecimento do imenso Cosmos. Estudioso do movimento das estrelas da Via Láctea, Jan Hendrik Oort constatou, no início dos anos 30, que a galáxia, para manter as estrelas gravitacionalmente em órbita, necessitaria de uma massa superior (cerca de 50%) à observada; Oort não teorizou, limitando-se a constatar a insuficiência de massa para explicar os movimentos. Fritz Zwicky (18981974) e Wilhelm Baade (1893-1960) introduziriam (1932) a hipótese de existência de “matéria escura”, porquanto a luz emitida pelas estrelas seria uma pequena fração de toda a matéria do Universo. Ao medir as velocidades radiais de oito galáxias do aglomerado de Hércules, Zwicky constataria que a densidade média da matéria era muito superior à densidade estimada da massa visível. Desta forma, concluiria que por si só a matéria luminosa não seria capaz de manter o aglomerado de Hércules como um sistema gravitacionalmente ligado, o que significava a existência de quantidade muito maior de “matéria invisível” nas galáxias que a observada; em outras palavras, a presença de uma massa não 57 GLEISER, Marcelo. A Dança do Universo. 152 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO detectável poderia ser responsável pelo fenômeno detectado pelos efeitos gravitacionais. Em 1936, o astrônomo Sinclair Smith, no Observatório de Monte Wilson, confirmaria as conclusões de Zwicky, ao pesquisar o aglomerado de Virgo. As 250 galáxias do aglomerado só poderiam permanecer ligadas pela ação de uma “massa invisível” trezentas vezes superior à massa das estrelas luminosas. Vera Rubin (1928), Medalha Bruce de 2003, confirmaria, com base em suas próprias pesquisas, nos anos 70, que as estrelas orbitando fora da Galáxia “viajam” na mesma velocidade que as localizadas próximas ao centro (como adiantara Oort), ao contrário dos planetas, que, quanto mais distantes do Sol, mais vagarosos em suas órbitas; em consequência, seria lógico supor a existência de uma gigantesca massa exercendo força gravitacional necessária para manter as distantes estrelas em órbita. Vera Rubin confirmaria, assim, o trabalho de Zwicky, sugerindo que cerca de 90% do Universo se constituiria dessa matéria escura. O grande enigma da matéria escura prosseguiria pelas décadas, apesar da busca continuada dos astrônomos por evidências demonstráveis de sua existência. Em 2005, astrônomos da Universidade de Cardiff descobriram, a partir de observações em radiofrequência do hidrogênio, uma galáxia constituída quase exclusivamente de matéria escura. A uma distância da Terra de cerca de 50 milhões de anos-luz, no aglomerado de Virgo, a galáxia denominada VIRGOH121 não teria estrelas visíveis, conteria aproximadamente mil vezes mais matéria escura que hidrogênio, e sua massa seria cerca de 1/10 daquela da Via Láctea. Em agosto de 2006, foi noticiado que astrônomos teriam observado matéria escura separada de matéria normal ao estudar a colisão de dois aglomerados de galáxias, que deu origem ao aglomerado Bala (1E0657-56, distante 3,8 bilhões de anos-luz da Terra); a colisão teria ocorrido há cerca de 150 milhões de anos-luz. Conforme ilustrado pelas imagens combinadas do Telescópio de Raios-X Chandra, do telescópio europeu Southern Very Large, de dados ópticos fornecidos pelos telescópios Hubble e Magalhães, no Chile, durante a formação do aglomerado Bala pela colisão, os gases quentes interagiram e se localizaram no centro, mas as galáxias individuais e a matéria escura não interagiram, e ficaram distribuídas longe do centro. Prosseguem as pesquisas com o propósito de encontrar mais evidências da matéria escura, cuja constituição continua um mistério para a Ciência. Estimativas mais recentes calculam a seguinte distribuição da matéria no Universo: energia escura – 70%, matéria escura – 25%, hidrogênio e hélio – 4%, matéria normal (estrelas, planetas) – 1%. 153 CARLOS AUGUSTO DE PROENÇA ROSA 7.3.6.6 Radiação Cósmica de Fundo Outra descoberta fundamental na evolução da Cosmologia seria a da radiação do espectro eletromagnético proveniente do Espaço sideral. Karl Jansky (1905-1950) iniciaria a radioastronomia com sua descoberta (1931-32) de que a Via Láctea emite ondas de rádio, cuja confirmação se daria em 1937-38, pelas pesquisas de Grote Reber (1911-2002). Seria decisiva a contribuição da radioastronomia, a partir do início dos anos 60, para a ampliação do conhecimento da Astronomia em geral, e da Cosmologia, em particular, pela captação da radiação eletromagnética cósmica. Dada a limitada capacidade observacional dos corpos celestes pela luz, a captação da radiação das diversas faixas do espectro (rádio, infravermelho, ultravioleta, raios-X e Gama) permitiria melhorar e ampliar o conhecimento sobre vários objetos até então desconhecidos. A radioastronomia se transformaria, assim, em extraordinária e preciosa fonte de informação do Cosmos, como provariam Penzias e Wilson, em 1965. Em 1965, Arno Penzias (1933) e Robert W. Wilson (1936), trabalhando em Nova Jersey, na calibragem de uma antena de rádio para comunicação com o primeiro satélite de comunicação Telstar, detectaram um “ruído” de micro-ondas que parecia estar sendo registrado com intensidade uniforme de todas as direções do Espaço. Essa uniformidade indicava que a radiação não provinha de um corpo celeste ou galáxia específica. Nessa mesma época, o físico James Peebles (1935), na vizinha Universidade de Princeton, estava trabalhando em radiação cósmica, na previsão de que a radiação primordial deveria ter sido deslocada do comprimento de ondas de raios-Gama para o de raios-X, e depois, para o de ultravioleta, e, eventualmente, à medida que o Universo esfriava, para o de rádio; a radiação deveria ter alguns poucos graus K de temperatura. Informado da estática detectada, perceberam Peebles e sua equipe de Princeton ter Penzias e Wilson encontrado a radiação cósmica de fundo (raios fósseis originados logo após desacoplamento da matéria e radiação), o que seria confirmado por pesquisas levadas a cabo, em conjunto, pelo grupo de Princeton e por Penzias e Wilson; por essa descoberta, revelada em novembro de 1965, Penzias e Wilson receberiam o Prêmio Nobel de Física de 1978. Tratava-se da primeira confirmação da teoria de Gamow, dando origem ao chamado Modelo Cosmológico Padrão, e considerado como registro fóssil do Big Bang. Devido às dificuldades de observação dessa parte do espectro eletromagnético desde a Terra, somente em 1989 o satélite COBE (Cosmic Background Explorer Satellite) mediu a intensidade da radiação cósmica 154 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO de fundo de 0,5 mm a 10 cm, mostrando sua correspondência com uma curva de corpo negro de temperatura de 2,735 K. Em dezembro de 1998, o projeto BOOMERANG (Observações por meio de Balões de Radiação Milimétrica Extragaláctica e Geomagnética) sobrevoou a Antártica por 259 horas e confirmou as flutuações de temperatura (densidade) detectada pelo COBE; a diferença de temperatura de uma região para outra é de alguns milionésimos de graus. A imagem colhida pelo COBE ilustra o Universo com a idade de cerca de 380 mil anos, época em que se teriam formado os átomos e ocorrido a nucleossíntese. Em junho de 2001, a NASA lançou o satélite Wilkinson Microwave Anysotropy Probe (WMAP), com o objetivo de medir a variação da temperatura da radiação cósmica de fundo e esclarecer uma série de questões da Cosmologia moderna. Os dados da WMAP, na base da radiação micro-ondas detectada, mostram um Universo 380 mil anos depois do Big Bang, constituído de, aproximadamente, 73% de energia escura, 23% de matéria escura e apenas 4% de matéria bariônica; estabelecem a Constante de Hubble em 71 km/s; e indicam que os sinais de polarização da radiação cósmica confirmariam experimentalmente a “inflação cósmica” (teoria de Alan Guth), a qual, contudo, não foi uniforme, tendo sido mais rápida em algumas regiões. O mapa da WMAP foi publicado em março de 2006. Em novo anúncio, no início de 2008, a NASA confirmaria que o WMAP havia coligido provas de neutrinos cósmicos, espalhados pelo Universo, evidências de que as primeiras estrelas levaram mais de quinhentos milhões de anos para formar um nevoeiro cósmico e rígidos constrangimentos na explosão da expansão do Cosmos durante seu primeiro bilionésimo de segundo. 7.3.6.7 Energia Escura Até o início de 1990, os cosmólogos acreditavam ser o Universo constituído basicamente por matéria de natureza normal (estrelas, planetas, poeira interestelar, gás), perfazendo 10%, e de matéria escura (90%). Com a descoberta de mais de 120 supernovas do “tipo la” (grande luminosidade, correspondente à de uma galáxia média) foi possível avançar nas pesquisas sobre o afastamento das galáxias, sem tomar como base o brilho das cefeidas (Hubble); as supernovas permitiriam detectar melhor a velocidade e a distância de galáxias pelo alto desvio para o vermelho (z). As investigações das equipes da Pesquisa de Supernova 155 CARLOS AUGUSTO DE PROENÇA ROSA de Alto-z, da Universidade da Califórnia, e do Projeto de Cosmologia de Supernova, do Laboratório Nacional de Lawrence Berkeley, descobririam (1995/98) que a expansão do Cosmos é acelerada em relação aos tempos pretéritos. Se pela teoria de Newton a massa é a fonte da gravidade, que é sempre atrativa, toda energia, pela teoria de Einstein, seria fonte de gravitação, ou seja, a massa efetiva que gera gravitação é proporcional à densidade de energia mais três vezes a pressão; desta forma, se ocorrer uma pressão suficientemente negativa, a gravitação será negativa e ocorreria a repulsão negativa. A detectada expansão acelerada do Cosmos comprovaria uma força repulsiva, resultante de pressão negativa; essa energia escura constituiria cerca de 70% do Universo. A existência da energia escura é, assim, inferida, permanecendo ainda um dos grandes mistérios da Cosmologia; sua densidade, por exemplo, não está estabelecida com precisão, e se admite, também, matéria e energia escuras serem a mesma substância. Em abril de 2001, seriam divulgados dados referentes à supernova SN1997ff (a mais distante supernova tipo la, com 11 bilhões de anos de distância), que haviam sido colhidos por diversos telescópios (Hubble, Keck, Cerro Tololo e outros); esses dados, que indicam um desvio da Lei de Hubble para grandes distâncias, confirmariam que as galáxias de alto-z se moveriam atualmente mais velozmente, ou seja, que a expansão é acelerada. Em outubro de 2003, seria concluído o mapa tridimensional Sloan Digital Sky Survey (SDSS), com 200 mil galáxias (a mais distante a 2 bilhões de anos), cobrindo 6% do céu, e tendo sido preparado com a colaboração de mais de 200 astrônomos e 13 instituições. 7.3.6.8 Modelo Cosmológico Padrão O Modelo Cosmológico Padrão (MCP), baseado na Teoria da gravitação da relatividade geral, de Einstein, e na comprovada expansão do Universo, sustenta a evolução do Universo a partir da liberação súbita de uma quantidade anormal gigantesca de energia que teria dado início ao Espaço e ao Tempo; o chamado Big Bang não ocorreria dentro de um Espaço tridimensional; ele, na realidade, criaria o Espaço-Tempo. Segundo o MCP, toda a matéria do Cosmos estaria concentrada num único ponto, onde o raio e o volume do Universo seriam nulos, e a densidade da matéria nesse ponto tenderia ao infinito. Esse ponto, onde estaria concentrada toda a matéria do Universo, é chamado de singularidade do Espaço-Tempo, a qual, ao criar Espaço-Tempo, teria liberado a matéria concentrada 156 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO (Universo), cuja expansão no Espaço-Tempo é observada até hoje. Os dados observacionais astronômicos obtidos até agora (expansão e resfriamento do Cosmos, princípio cosmológico (homogeneidade e isotropia), radiação cósmica de fundo, energia escura, matéria escura, formação das estrelas, galáxias e superestrutura física das partículas elementares, balanço dos elementos químicos, astroquímica) têm confirmado a teoria do Big Bang, o que tem contribuído para sua crescente credibilidade e para o apoio generalizado recebido da comunidade científica. Se a evolução do Universo, desde a formação dos átomos (380 mil anos de idade) pode ser explicada pela Cosmologia, Astrofísica e Astroquímica, o mesmo não sucede com fenômenos que tenham ocorrido em condições extremas, como o da singularidade. Na medida em que retrocedemos no Tempo para conhecer os primeiros momentos, a Física hoje conhecida é totalmente inadequada, porquanto as dimensões extremamente reduzidas do mundo subatômico estão no domínio da Física quântica. Assim, a Teoria da gravitação relativística passa a ser inaplicável, já que não tem como lidar com os processos quânticos. A descrição do processo gravitacional no nível quântico requer, portanto, uma Teoria gravitacional quântica, a qual ainda não foi formulada. Adicionalmente, há muitos anos, desde Einstein, se procura unificar numa teoria as interações das quatro grandes forças, que determinam a estrutura do Universo (gravitacional, eletromagnética, nuclear fraca e nuclear forte), o que seria necessário para descrever os primeiros momentos do Cosmos. A Teoria da grande unificação (TGU) procuraria unificar e explicar numa só estrutura teórica todos os fenômenos físicos nos níveis atômico e subatômico, dificuldade ainda não superada, porquanto a interação gravitacional é explicada pela Teoria da relatividade geral, e as demais forças, pela Mecânica quântica. O Campo eletromagnético já dispõe de uma “Teoria Quântica eletrodinâmica”; a força nuclear fraca, que age no interior do núcleo do átomo, e a força eletromagnética seriam manifestações de uma mesma interação, e unificadas, nos anos de 1960, pela teoria de Glashow-Weiberg-Salam para constituir a “interação eletrofraca”; por esse trabalho, os três cientistas receberiam o Prêmio Nobel de Física de 1979. Fruto dos notáveis progressos, nos últimos anos, nas pesquisas da Física das partículas, o modelo padrão das partículas fundamentais é uma teoria unificadora das duas interações não gravitacionais (a eletrofraca e a forte), pelo que, na realidade, seria necessário ainda juntar a unificação das forças do modelo e a interação gravitacional numa Teoria da grande unificação (TGU) para ser alcançado o objetivo desejado. 157 CARLOS AUGUSTO DE PROENÇA ROSA A entrada em funcionamento definitivo, em 2009 (teste em setembro de 2008), do acelerador de partículas conhecido como Grande Colisor de Hádron – LHC (Large Hadron Collider) – da CERN, localizado na fronteira suíço-francesa, poderá recriar, em escala de laboratório, situações semelhantes às do momento do Big Bang, o que permitirá esclarecer algumas questões fundamentais para a Cosmologia. A colisão, em quatro pontos do circuito de 27 km, de dois feixes de prótons girando em direções opostas provocará uma energia e uma luminosidade de tal magnitude que permitirá observar partículas elementares, inclusive o previsto Bóson de Higgs, e confirmar, assim, o modelo padrão das partículas fundamentais, do qual constam três grupos de partículas elementares fundamentais (léptons, quarks e mediadores). Espera-se que o LHC possa aclarar vários temas pendentes e intrigantes da Cosmologia, como a natureza da matéria escura e da antimatéria, a razão de algumas partículas não terem massa, a existência ou não de outras dimensões do Espaço, e como teriam sido os primeiros segundos após o Big Bang. O eventual avanço no conhecimento dos constituintes mais elementares da matéria contribuirá para que nossa compreensão dos momentos iniciais do Universo chegue mais perto do Tempo zero (t = 0). 7.3.6.9 Outras Teorias sobre o Universo Embora o Modelo Cosmológico Padrão seja o mais prestigiado e conte com o apoio amplamente majoritário do meio científico, várias outras teorias expansionistas do Universo, baseando-se em recentes avanços na Física das partículas elementares de alta energia e na teoria quântica dos campos, surgiram para explicar os primeiros momentos da formação do Cosmos, de forma a resolver certos problemas deixados sem resposta pelo modelo; dados recentes colhidos (COBE, WMAP, BOOMERANG) revelariam indícios de situações nos tempos primordiais do Universo que requereriam um período de “elevada expansão inflacionária” para justificar a atual similaridade de temperaturas e densidades em regiões amplamente espaçadas. Modelos cosmológicos que contemplassem uma expansão exponencial logo após o Big Bang, o que não sucede com o MCP (expansão linear do Universo ao longo de bilhões de anos), poderiam explicar certos problemas, como os da homogeneidade, do elevado grau de homogeneização e da aparente planaridade do Universo. Várias teorias e diversos modelos têm sido formulados com esse propósito, sem terem alcançado apoio no meio científico, talvez por sua 158 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO complexidade, como a Teoria da inflação caótica, de Andrei Linde (1948), a Teoria da inflação dupla, de Neil Turok, o Modelo Ekpirótico de Paul Steinhardt, e a Teoria da Geometria retorcida 5-dimensional, de Lisa Randall (1962) e Raman Sundrum. Dessas novas teorias, a mais prestigiada é a formulada pelo físico e cosmólogo americano Alan Guth (1947), em 1981, conhecida como a do Universo Inflacionário, a qual resolve certos problemas não solucionados pelo MCP. Segundo a teoria de Guth, teria ocorrido, logo após o Big Bang, na chamada era Planck (t = 10-43 a t = 10-6) uma fase de expansão exponencial, resultante de uma densidade de energia negativa ou força gravitacional negativa. Nessa fração de segundo, a massa do Universo aumentou proporcionalmente à expansão exponencial, mantendo a densidade constante; o tamanho do Cosmos teria se multiplicado por um fator representado pelo número 1 (um) seguido de um trilhão de zeros em menos de 10-35 segundos; para esse curtíssimo prazo de tempo (1 milionésimo de segundo), a temperatura teria baixado de 1027 K para 1015 K. A partir desse momento o Universo entraria na fase de expansão menos veloz atualmente observada, a massa se estabilizaria e a densidade começaria a cair. Esse modelo da Inflação Cósmica está fundamentado na Mecânica quântica e no modelo padrão das partículas fundamentais, o qual ainda está pendente de comprovação. 7.4 Física Na história da evolução da Física, o século XX corresponde ao início de uma nova era, chamada de Física moderna, em sucessão à Física clássica, originada no começo do século XVII, com os trabalhos de Galileu no campo da Dinâmica. Dado o sucesso da Mecânica na explicação dos movimentos planetários e terrestres, firmou-se a convicção de que os fenômenos físicos, de toda ordem (como térmico e elétrico), poderiam ser também elucidados em termos de movimento e matéria. A Mecânica se constituiria, assim, no grande pilar da Física clássica, a qual teria um extraordinário desenvolvimento nos três séculos seguintes. O calor seria associado ao movimento de um fluido calórico, a eletricidade à existência de um ou dois fluidos elétricos, a luz se propagaria em movimento ondular. A noção de campo, surgida no século XIX, apenas abalaria os conceitos mecânicos. O grande progresso nas pesquisas, em parte devido ao avanço tecnológico em máquinas e instrumentos, permitiria a expansão da área de 159 CARLOS AUGUSTO DE PROENÇA ROSA conhecimento que evidenciaria fenômenos térmicos, ópticos e elétricos, os quais não eram corretamente explicados pelos princípios e leis vigentes da Física clássica. Experiências em diversos campos descobririam fenômenos até então não identificados e para os quais a comunidade científica não encontrava esclarecimentos e respostas adequadas na Física mecanicista. O extraordinário desenvolvimento experimental nessa fase evolutiva da Física geraria, assim, a própria necessidade de revisão, de reformulação e de inovação teórica de forma a estabelecer as regras, normas e leis de uma nova realidade de fenômenos. Por outro lado, a impossibilidade de esclarecer a estrutura da matéria criaria um impasse entre a “atomista” (Clausius, Maxwell, Boltzmann) e a “escola energetista” (Mach, Ostwald), que seria um dos aspectos dominantes das divergências teóricas, apenas solucionadas no início do século XX. Nesse contexto, sete grandes descobertas experimentais do final do século XIX devem ser consideradas, uma vez que teriam um impacto decisivo nas elucubrações teóricas que fundamentariam a Física moderna: a dos raios catódicos, por William Crookes (1879) e Eugen Goldstein; a do efeito fotoelétrico, por Heinrich Hertz (1887); a dos raios-X, por Wilhelm Conrad Roentgen (1895); a dos elétrons, por Joseph John Thomson (1897); a da radioatividade, por Henri Becquerel (1896) e pelo casal Pierre e Marie Curie (1898); a do Efeito Zeeman (1896); e as radiações alfa e beta, por Ernest Rutherford (1897), e gama, por Paul Villard (1900). Apesar da resistência de segmentos representativos da comunidade científica em admitir a inaplicabilidade dos estabelecidos princípios às novas descobertas, seria, contudo, necessária a reformulação de teorias para substituir concepções que se tornaram inadequadas, quando aplicadas às dimensões atômicas. A falta de explicações racionais e lógicas para fenômenos recém-descobertos, como os da radioatividade e do efeito fotoelétrico, o da interação da matéria e radiação, o da constância da velocidade da luz no vácuo, e o da distribuição da energia da luz emitida por um corpo negro, colocava em risco e sob questionamento a própria validade dos princípios, leis e conceitos adotados. A Física experimental não confirmava conceitos da Física teórica clássica, ou, em outras palavras, a aplicação da Mecânica, da Termodinâmica e do Eletromagnetismo clássicos a átomos e partículas levava a conclusões em desacordo com a experiência (como certos efeitos da radiação). Em consequência, nos primeiros anos do século XX, conceitos como os de Matéria, Tempo, Espaço e Força seriam revistos, noções como as de átomo e continuidade seriam refinadas, as ideias modernas de relatividade e incerteza seriam inseridas. A aplicabilidade universal, em todas as escalas 160 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO e em velocidades próximas à da luz, de leis clássicas, não seria aceita, isto é, o mundo atômico e das partículas não estaria sujeito às regras e leis aplicáveis às grandes dimensões e distâncias. Na história da Física, dois são os anos chamados de “milagrosos”, por seu especial significado: o de 1666, quando Newton, em Woodsthorpe, teria concebido suas grandes formulações (gravitação universal, leis do movimento, propriedades da luz e da cor), e desenvolvido o Cálculo infinitesimal, bases de suas principais obras: Philosophiae Naturalis Principia Mathematica (1686) e Opticks (1704); e o ano de 1905, quando Einstein publicou no número 17 da revista Annalen der Physik, quatro artigos, um sobre o movimento browniano, outro sobre geração e conversão da luz, o terceiro sobre dimensão molecular, e um quarto artigo a respeito da Eletrodinâmica dos corpos em movimento (Teoria Especial da Relatividade), e mais um, no número 18 da mesma revista, no qual apresentou sua famosa fórmula da equivalência da energia e massa (E = mc2). Em 1916, seria publicada a Teoria da Relatividade Geral, com sua redefinição de gravitação. A reformulação ou a inovação de conceitos para lidar com os fenômenos físicos daria nascimento à chamada Física moderna, cujos dois pilares seriam: 1) a Teoria quântica, de Planck, que introduziria o caráter descontínuo da energia e viria a se transformar em base teórica para o estudo dos fenômenos físicos em escala microscópica; e 2) as Teorias da relatividade especial e geral de Einstein, que estabeleceriam, entre outras, a relatividade do Tempo e do Espaço, a equivalência da energia e massa, a velocidade constante da luz, a inexistência do éter, e a gravitação como resultado de uma deformação do Espaço-Tempo, devido à presença da massa dos objetos. Deve ser registrado que, embora uma Ciência experimental, a Física moderna seria formulada em bases teóricas criadas em gabinetes de trabalho num processo racional e dedutivo e não em laboratórios por meio de experiências e testes. A Teoria quântica, aplicada por Einstein, em 1905, para explicar o efeito fotoelétrico, seria adotada rapidamente pela comunidade científica, enquanto a Teoria da relatividade demoraria alguns decênios para ser aceita pela grande maioria dos físicos e para ser ensinada nas universidades58. Formulada nos anos de 1920, a teoria que deu origem ao Princípio da Incerteza, de Heisenberg, teria tremendo impacto no desenvolvimento e na compreensão da Ciência, em geral, e da Física, em particular. De acordo com o Princípio, grupos de aspectos essenciais de uma partícula (posição, velocidade, quantidade de movimento e energia) não podem ser 58 TATON, René. La Science Contemporaine. 161 CARLOS AUGUSTO DE PROENÇA ROSA medidos com a mesma precisão e ao mesmo tempo, isto é, não há meios de se medir simultaneamente e com a mesma precisão as propriedades elementares do comportamento subatômico. Por exemplo, no caso da partícula quântica, a medição com exatidão de sua posição implica numa grande incerteza quanto à sua velocidade, e vice-versa. O Princípio da Incerteza viria a ter enormes repercussões na Filosofia da Ciência, uma vez que contestava um dos seus preceitos essenciais. O caráter absoluto da certeza e do determinismo científicos, prevalecentes até aquele momento, seria objetado, assim, pela afirmação do conhecimento relativo, dando lugar à previsão e à probabilidade. O modelo quântico de átomo, de Niels Bohr; a teoria da dualidade onda-partícula para a matéria, de Louis de Broglie; as contribuições teóricas na formulação da Mecânica quântica (Max Born, Heisenberg, Jordan, Schrödinger); e os trabalhos de Dirac (que deram origem à Equação de Dirac, embrião da teoria quântica do campo) e Pauli (princípio da exclusão) contribuiriam de forma decisiva para que, a partir de meados dos anos 60, fossem desenvolvidos os principais integrantes do que viria a ser conhecido como o modelo padrão da Física de partículas elementares. Essa nova área da Física seria objeto de intensas pesquisas, com as consequentes importantes descobertas de partículas, de mediadores das interações e da interação forte, para as quais o desenvolvimento dos aceleradores de partículas foi essencial na criação do Modelo Padrão. A noção de matéria como constituída por quatro elementos predominou durante muitos séculos, desde sua formulação, por Empédocles, até que seria substituída, praticamente no final do século XIX, pela teoria atômica. A descoberta dos léptons e dos quarks como constituintes elementares da matéria constituiria mais um desenvolvimento de extremo significado na história da Ciência por suas implicações em diversos setores da Física moderna. Ainda que tivessem prosseguido importantes investigações nas diversas áreas tradicionais da Física (Acústica, Óptica, Mecânica, Eletromagnetismo, Termodinâmica), as pesquisas em Mecânica quântica e em Física de partículas elementares seriam prioritárias para a comunidade científica e os meios governamentais e industriais. O interesse por essas áreas e o prestígio daí decorrente seriam decisivos para o avanço nas pesquisas, como atestam as concessões do Prêmio Nobel de Física (PNF), da Medalha Max Planck (MMP) e da Medalha Copley, da Sociedade Real de Londres (MC), em sua grande maioria, aos estudos teóricos e investigações das mencionadas áreas. 162 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A cooperação internacional se intensificaria por meio de congressos e simpósios, intercâmbio universitário, contratação de professores e pesquisadores de diversas nacionalidades, concessão de bolsas e contatos pessoais. Criaram-se institutos e centros de pesquisas num grande número de países, estabelecendo-se extensa rede de colaboração que resultaria em proveito mútuo. Prêmios seriam outorgados a físicos de diferentes nacionalidades, por suas relevantes contribuições ao desenvolvimento da Ciência, por várias instituições nacionais, sendo o mais importante e cobiçado o Prêmio Nobel, concedido anualmente, desde 1901. Crescente número de publicações especializadas divulgaria as novidades teóricas e as conquistas experimentais nos diversos ramos da Ciência Física. A intensidade desse intercâmbio de ideias e de experiências seria altamente benéfica para a comunidade científica internacional, aumentando, ainda mais, seu prestígio junto à opinião pública. Especial referência para o intercâmbio de ideias e experiências foi a criação, em 1912, do Instituto Internacional Solvay, para Física e Química, pelo industrial belga Ernest Solvay, devido ao sucesso da reunião do Conselho Solvay, no ano anterior, que contara com a presença, entre outros, de Lorentz, Perrin, Wien, Curie, Poincaré, Einstein, Planck, de Broglie, Rutherford e Langevin. Coordenando grupos de trabalho, seminários e conferências, tem sido o Instituto Solvay um fórum de inestimável valor para a promoção da Física e da Química. A 23ª Conferência Solvay, realizada em dezembro de 2005, na cidade de Bruxelas, teve como tema “A Estrutura Quântica do Espaço e do Tempo”. A mais famosa reunião foi a 5ª Conferência, de 1927, que tratou de “elétrons e fótons” e foi palco do célebre debate entre Einstein e Bohr. Dessa Conferência participaram 29 cientistas (Langmuir, Planck, Curie, Lorentz, Einstein, Langevin, Guye, Wilson, Richardson, Debye, Knudsen, Bragg, Kramers, Dirac, Compton, de Broglie, Born, Bohr, Picard, Henriot, Ehrenfest, Herzen, Donder, Schrödinger, Verschaffelt, Pauli, Heisenberg, Alfred Fowler e Brillouin). Desses, 17 foram agraciados com o Prêmio Nobel de Física. Outro exemplo atual dessa profícua cooperação é a Sociedade Europeia de Física, fórum de debate de temas científicos, que congrega as 38 sociedades nacionais de Física da região, com seus 80 mil membros. Conscientes da fundamental importância estratégica global da pesquisa científica e de sua característica atual de empreendimento de alto custo, pela demanda de pessoal, material e tempo, entidades públicas prestigiariam e incentivariam tais atividades no campo da Física com a colaboração e apoio de empresas privadas, muitas vezes engajadas, 163 CARLOS AUGUSTO DE PROENÇA ROSA por meio de seus laboratórios no desenvolvimento de pesquisas. Como em outras Ciências, a investigação deixou de ser o trabalho solitário e isolado de um pesquisador para se transformar, na atualidade, numa atividade de equipe. Devido à necessidade inevitável de mobilização de extraordinários recursos financeiros e humanos para o desenvolvimento das pesquisas, seria crescente e profícua a pesquisa multilateral. Exemplo desse esforço de cooperação para superar imensos e graves obstáculos é o da criação, em 1954, da Organização Europeia de Pesquisa Nuclear (CERN), o maior laboratório mundial (Genebra) de pesquisa em Física das partículas. Conta, atualmente, a CERN, com 20 países membros e 8 observadores (Rússia, Turquia, Japão, Índia, EUA, Israel, UNESCO e Comissão Europeia), cerca de 6.500 cientistas e engenheiros, provenientes de 500 universidades e de 80 nacionalidades. Do ponto de vista geográfico, dois períodos nítidos da pesquisa dos fenômenos físicos podem ser observados, em função do deslocamento do eixo dessa investigação, da Europa ocidental para os EUA: o primeiro período se estende até o final da década de 1930, e o segundo perduraria até a presente data. A Europa ocidental continuaria a manter, até o início da Segunda Guerra Mundial, sua indiscutível e tradicional liderança mundial como o mais importante centro de pesquisa de Física teórica e experimental. Após o recesso forçado, nos anos de 1940, por motivo das prioridades do conflito armado e da reconstrução do Pós-Guerra, os EUA assumiriam, e conservariam até o presente, a irrefutável posição de líder nas pesquisas da Ciência Física. A Alemanha continuaria como o principal centro da Física teórica e experimental, até início da década de 1930, quando muitos de seus cientistas (Hans Bethe, Otto Stern, Otto Hahn, Jack Steinberger) emigrariam para outros países da Europa e para os EUA, em fuga do regime nazista, ali implantado em 1933. A condição privilegiada de suas universidades (Berlim, Heidelberg, Göttingen, Munique, Frankfurt, Giessen) e dos seus laboratórios tornaria a Alemanha o incontestável foco irradiador das pesquisas dos fenômenos físicos, e para onde convergiam estudantes, professores e pesquisadores de várias partes do mundo. Sua liderança e sua influência eram reconhecidas internacionalmente. Boa parte do avanço teórico registrado nesse período teve a participação, exclusiva ou decisiva, de cientistas alemães (Planck, Einstein, von Laue, Lenard, Stark, Born, Heisenberg, Hertz, Wien, Sommerfeld, Bothe, Otto Hahn, Strassmann, Bethe, Franck), atuantes na Física quântica, na Relatividade e na Física nuclear. O alto nível da pesquisa continuaria, na Alemanha, no segundo período, como atestam as contribuições de Mössbauer, Jensen, Von Klitzing, Ruska, Binning, Bednorz, Steinberger, 164 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Paul, todos agraciados com o Prêmio Nobel de Física no Pós-Guerra. A Sociedade Científica Kaiser Wilhelm se tornaria, depois da Guerra, no Instituto Max Planck, maior centro de pesquisa científica da Alemanha, e dos mais importantes do mundo. A Grã-Bretanha se manteria, ao longo do período, como importante centro de pesquisa física, tendo contribuído para o desenvolvimento do conhecimento dos fenômenos com fundamentais aportes teóricos e experimentais, como, entre outros, os de Thomson, Rutherford, Aston, Moseley, Barkla, Bragg, Richardson, Chadwick, Cockroft, Blackett e Dirac. As atividades de pesquisa prosseguiriam ativas no Reino Unido na segunda metade do século, destacando-se os trabalhos de Powell, Gabor, Ryle, Hewish, Mott, Josephson e Hawking. Uma das principais entidades de pesquisa é o Laboratório Cavendish (1874), da Universidade de Cambridge, de fama mundial. A tradição francesa em pesquisa teórica e experimental (Foucault, Fizeau, Raoult, Becquerel, casal Pierre e Marie Curie, Poincaré) conservaria o país dentre os mais avançados no campo da Física, com as contribuições de Marie Curie, Perrin, Langevin, de Broglie, Irene e Frederic Joliot-Curie. Superado o impacto altamente negativo dos efeitos da Segunda Guerra Mundial, voltaria a França a ocupar posição de relevo como centro de excelência. A Holanda teria um papel de grande relevância nesse primeiro período, graças aos trabalhos de Lorentz, Zeeman, van der Waals, Kammerlingh-Onnes, Uhlenbeck, Debye. Kramers, Veltman, Hooft e van der Meer são importantes pesquisadores da atualidade, ganhadores do Prêmio Nobel. Cientistas de outros países europeus dariam valiosa contribuição, igualmente, para a Física moderna, como os austríacos Schrödinger, Pauli, Hess e Lise Meitner; os suecos Hannes Alfven, Otto Klein e Kai Siegbahn; e o dinamarquês Niels Bohr. Ainda na Europa, a Rússia (URSS), envolvida em graves conflitos externos e internos, e apesar da emigração de vários cientistas, seria capaz de manter, com suas Universidades de Moscou e Leningrado (São Petersburgo), elevado nível de pesquisa ao longo do século XX. Devem ser notadas as contribuições de Minkowski, Friedmann, Gamow, Landau, Cherenkov, Tamm, Prokhorov, Ilya Frank, Kapitza, Kurchatov, Fock, Veksler, Sakharov, Basov e Flerov, entre outros. Quanto à Ásia, as principais contribuições do Japão se dariam, a partir da década de 1950, com os trabalhos de Yukawa, Tomonaga, Esaki, Koshiba, Nambu, Kobayashi e Maskawa, agraciados com o Prêmio Nobel. A Índia e a China ocupam, na atualidade, posição de relevo, no campo da investigação, graças a seus bem equipados e dotados centros de excelência. A prioridade outorgada pelos respectivos governos e entidades 165 CARLOS AUGUSTO DE PROENÇA ROSA públicas e privadas à pesquisa e à expansão da base industrial explicam o extraordinário avanço e sucesso desses países no desenvolvimento de seus projetos em áreas como a atômica e a espacial. A modernização e atualização do ensino universitário e técnico em grandes centros culturais (Bombaim, Calcutá, Delhi, Pequim, Xangai, Cantão) justificam a expectativa de continuado progresso, a curto e médio prazos, na investigação. Os EUA, que, na primeira metade do século XX, ocuparam posição importante no cenário internacional (Robert Millikan, Clinton Davisson, Arthur Compton, Carl Anderson, Ernest Lawrence), assumiriam, na atualidade, incontestável liderança na pesquisa científica em geral, e na Física, em particular. Com amplos recursos financeiros e humanos, maciços investimentos de maturação a longo prazo, numerosos centros de investigação, grande capacidade de formação e recrutamento de cientistas, e decisivo apoio da comunidade empresarial e das entidades públicas às universidades e aos institutos de pesquisas, o país se transformaria no principal centro mundial de pesquisa no campo da Ciência Física. Mais de 70 pesquisadores americanos, ou residentes nos EUA, receberam o Prêmio Nobel de Física no Pós-Guerra. No grande esforço dos EUA para se tornar uma potência científica, não pode ser esquecida a valiosa contribuição de renomados físicos estrangeiros, como, entre outros, os húngaros Wigner, Szilard e von Neumann; os italianos Fermi e Segré; os austríacos Rabi e Weisskopf; o suíço Félix Bloch; os alemães Einstein, Otto Stern e Ralph Krönig; e os holandeses Goudsmit e Uhlenbeck. O Brasil ingressaria no cenário internacional somente após a Segunda Guerra Mundial, graças às contribuições de Mario Schenberg, César Lattes, Marcelo Dami, Jayme Tiomno e José Leite Lopes, entre outros, e à criação do Conselho Nacional de Pesquisa e do Ministério da Ciência e Tecnologia. Devem ser igualmente registrados, os esforços da Argentina e do México no desenvolvimento da pesquisa no campo da Física teórica e aplicada. Em função das características específicas da Física, sua evolução na atualidade será exposta nos seguintes subcapítulos: Teoria Quântica, Teoria da Relatividade, Física Atômica e Nuclear, Física Quântica e Física das Partículas. 7.4.1 Teoria Quântica A Teoria Quântica data, oficialmente, de 14 de dezembro de 1900, quando o físico alemão Max Karl Ernst Ludwig Planck (1858-1947) 166 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO apresentou perante a assembleia da Academia Alemã de Física, seu hoje famoso trabalho Sobre a teoria da lei de distribuição de energia do espectro contínuo. A importância e o impacto de tal teoria na evolução da Física são de tal ordem a ponto de ser reconhecida como um dos pilares da Física moderna. Max Planck nasceu na cidade portuária de Kiel, então pertencente à Dinamarca, mas que passaria, pouco depois (1866), ao domínio da Prússia. Com a transferência da família para Munique, onde seu pai, Johann Julius von Planck, lecionaria Direito constitucional, Max Planck estudaria na renomada escola local Maximilian-Gymnasium. Ingressou, em 1874, na Universidade de Munique, onde demonstrou particular interesse pela Termodinâmica, assunto de sua defesa de tese (Sobre a Segunda Lei da Teoria Mecânica do Calor) de doutorado (1879). Prosseguiria seus estudos na Universidade de Berlim, tendo tido como mestres e orientadores Gustav Kirchhoff, autor da lei da radiação e inovador, com Robert Bunsen, da Análise espectral; Hermann Helmholtz, descobridor da primeira lei da Termodinâmica (conservação da energia); e Rudolf Clausius, formulador da segunda lei da Termodinâmica (entropia). Após curto período como professor nas Universidades de Munique e Kiel, assumiria, em 1889, com a morte de Kirchhoff, ocorrida em 1887, a cátedra na Universidade de Berlim, onde permaneceria até 1928, quando se aposentou. Planck, que recebera em 1918 o Prêmio Nobel de Física (PNF) por sua Teoria Quântica, assumiria, em 1930, a presidência da Sociedade Kaiser Wilhelm, principal instituição de pesquisa científica alemã, tendo a ela renunciado, em 1937, por graves divergências com o regime nazista, mas permaneceria no país durante toda a Guerra no intuito de preservar e resguardar a vida científica na Alemanha. Terminado o conflito, Planck seria reconduzido à presidência da Sociedade, a qual, em sua homenagem, hoje se chama Instituto Max Planck, um dos mais renomados centros científicos de pesquisa teórica. Planck teve uma infortunada vida particular, com a morte de sua primeira esposa, de seu filho mais velho na Primeira Guerra Mundial, de suas duas filhas gêmeas por complicações após os partos, e de seu filho mais moço, fuzilado pelos nazistas, em 1944, por participar de complô contra Hitler. Com sua casa e biblioteca destruídas, Planck se mudaria para Göttingen, depois da Guerra, onde faleceu e foi enterrado. Planck escreveu Termodinâmica (1897), Teoria da Radiação do Calor (1906), Introdução à Física Teórica (1932/33), A Filosofia da Física (1936) e Autobiografia Científica. 167 CARLOS AUGUSTO DE PROENÇA ROSA 7.4.1.1 - Radiação dos Corpos Negros Todos os objetos absorvem e irradiam energia. Em Física, “corpo negro” significa o objeto ideal, que absorve 100% da radiação sobre ele incidente e deve, quando aquecido, irradiar toda radiação recebida. Se frio, o objeto parece negro, porque não reflete nenhuma luz. Um objeto, quando gradualmente aquecido, emite primeiro uma incandescência vermelha, e, à medida que é aquecido, emite uma luz vermelha, depois amarela, depois azul-branca e finalmente branca. Isto significa, no espectro de cores da luz, que a intensidade da luz está se movendo do infravermelho para o azul. Em decorrência de seus estudos (1859) sobre as linhas espectrais de Fraunhofer, Kirchhoff pesquisara (1861) o problema do corpo negro, tendo formulado a chamada lei de emissão e de radiação ou Lei Kirchhoff, pela qual a capacidade de um objeto emitir luz é equivalente à sua habilidade de absorvê-la na mesma temperatura. Ou seja, a energia emitida por um corpo negro dependia somente de sua temperatura e do comprimento da onda emitida. O problema era que o número de diferentes frequências na faixa de alta frequência é maior que na faixa de baixa frequência, pelo que, se o corpo negro irradiasse igualmente todas as frequências de radiação eletromagnética, toda a energia praticamente seria irradiada na faixa de alta frequência. Como a mais alta frequência de irradiação no espectro da luz visível é violeta, teoricamente um corpo aquecido deveria irradiar unicamente ondas luminosas ultravioletas. Essa situação, chamada de catástrofe ultravioleta, no entanto, não ocorria, sendo que a Física de então não podia encontrar uma explicação. A teoria dominante para explicar a radiação dos objetos aquecidos e as cores que emitiam sustentava o caráter ondulatório da luz, segundo o qual a energia luminosa emitida teria maior tendência a ser irradiada numa frequência mais alta que numa mais baixa pela relação existente entre a frequência de uma onda e seu comprimento. Quanto mais alta a frequência da onda, mais curto seu comprimento. Várias tentativas, nos anos seguintes, procurariam explicar o problema da distribuição da energia espectral. Em 1879, Josef Stefan estudaria o assunto e concluiria que a energia emitida por um corpo quente (qualquer temperatura acima do Zero absoluto) era proporcional à quarta potência de sua temperatura, conclusão a que chegaria também, em 1894, Ludwig Boltzmann. A chamada Lei Stefan-Boltzmann, somente válida para corpos negros, relacionava a energia total do corpo com a temperatura, mas não levava em conta o comprimento da onda. O tema seria retomado em 1896, por Wilhelm Wien, que explicaria a distribuição de radiação de um corpo negro apenas para os comprimentos de ondas 168 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO pequenas (alta frequência) e por John Rayleigh/James Jeans para os de ondas compridas (baixa frequência). A questão da distribuição da radiação emitida por um corpo negro continuava, portanto, sem solução, uma vez que as teorias não confirmavam os dados empíricos. 7.4.1.2 - A Concepção de Planck Dois pressupostos básicos orientariam os estudos iniciais de Planck sobre a questão da radiação do corpo negro: a de que toda matéria era composta de átomos, e que a energia era contínua, irradiada em ondas. Após constatar a impossibilidade de encontrar resposta adequada nos princípios até então adotados, ocorreria a Planck a necessidade de introdução de novos conceitos para explicar o fenômeno, o que redundaria na formulação do que se constituiria numa das duas teorias fundamentais da Física moderna. A solução encontrada foi intuitiva, e que a experiência viria a comprovar, mas que significava um rompimento de grande alcance com os postulados admitidos de que a luz e o calor seriam emitidos num fluxo constante de energia: a descontinuidade da energia, que existiria em pacotes mínimos, indivisíveis59, sugerindo que a energia, como a matéria, existia em pequenas, mas finitas, unidades. A essas unidades, Planck chamou de unidade de radiação de energia ou quantum (do latim para quanto). A originalidade da concepção era supor que o átomo seria capaz de emitir, de uma só vez, sob a forma de um pequeno grupo de ondas, toda a energia nele contida. Os átomos, oscilando com a frequência, só poderiam absorver ou emitir um múltiplo de uma energia E = hf, que Planck denominou de quantum de energia. De acordo com a teoria, a energia só se manifestaria nessas unidades fundamentais, indivisíveis, as quais só seriam ajustáveis em degraus sequenciais. A energia do quantum estaria em relação direta com sua frequência, isto é, o quantum de luz violeta (numa extremidade do espectro da luz) conteria o dobro de quantidade de energia de um quantum de luz vermelha (na outra extremidade do espectro da luz). Ou seja, o tamanho do quantum (pacote de energia) seria fixo, mas o conteúdo de energia seria inversamente proporcional ao comprimento da onda da radiação (como o comprimento de onda da luz violeta é metade do da luz vermelha, o quantum de luz violeta conteria duas vezes mais energia que o da luz vermelha). Como a energia só pode ser emitida e 59 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. 169 CARLOS AUGUSTO DE PROENÇA ROSA absorvida em quanta inteiros, já que não há quantum fracionário, a emissão de frequências elevadas requer mais energia, o que torna menos provável a acumulação de energia adicional, e, por conseguinte, torna impossível a ocorrência da catástrofe ultravioleta. Planck formularia, ainda, uma equação matemática na qual relacionaria o conteúdo de energia de um quantum à frequência da radiação, que, por ser proporcional ao comprimento de onda, seria diretamente proporcional um ao outro. Em qualquer quantum, a relação entre a energia contida e a frequência da radiação emitida deveria ter o mesmo valor, isto é, deveria ser uma constante universal, a que ele chamou de quantum elementar de ação. Essa constante, hoje conhecida como constante de Planck, é expressa pela letra “h” (h: 6,626176X10-34 J x seg) e consta da famosa Equação – E = hv –, a qual significa ser um quantum de energia (E) igual à frequência (v) da radiação multiplicada à constante de Planck (h). Ou, em outras palavras, os átomos, oscilando com a frequência, só poderiam absorver ou emitir um múltiplo de um quantum de energia E = hf. Assim, em qualquer processo de radiação, a quantidade de energia emitida, dividida pela frequência, é igual a um múltiplo da constante (h). O valor da constante de Planck é extremamente pequeno, de dimensões quase infinitesimais, em que o comprimento é da ordem de 10-35 metros; a massa, de 10-5 gramas; e o Tempo, 10-43 segundos60. O valor da constante de “h” está gravado no túmulo de Planck, em Göttingen. 7.4.1.3 - Confirmação da Teoria: O Efeito Fotoelétrico Inicialmente considerada, pelo próprio Planck, como uma mera hipótese, sua formulação do quantum passaria à categoria de teoria quando Einstein a utilizou para explicar o efeito fotoelétrico, outro fenômeno para o qual a Física não oferecia uma explicação adequada. Em 1887, Heinrich Hertz, em suas pesquisas experimentais sobre a Teoria eletromagnética de James Clerk Maxwell, descobriu o chamado efeito fotoelétrico, resultante da geração de atividade elétrica (centelha) pela luz ao atingir alguns metais. Por estar envolvido nas investigações sobre as ondas eletromagnéticas, Hertz não se ocuparia mais do assunto. Em 1902, o físico alemão Philipp Eduard Lenard estudaria o efeito fotoelétrico e demonstraria que o efeito se devia à emissão de elétrons, recém-descobertos por J. J. Thomson. Formularia Lenard duas leis: 1 – os elétrons emitidos têm velocidades iniciais finitas, são independentes da 60 CRUMP, Thomas. A Brief History of Science. 170 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO intensidade da luz incidente, porém dependem de sua frequência; e 2 – o número total de elétrons emitidos é proporcional à intensidade da luz incidente. Tais leis são incompatíveis com a Teoria eletromagnética de Maxwell (1873), segundo a qual, quanto mais intensa a radiação, maior seria a energia cinética do elétron61. O enigma do fenômeno a ser esclarecido era o de a mudança do comprimento da onda (ou da cor) afetar os elétrons do átomo. Assim, a luz azul, por exemplo, fazia com que os elétrons fossem emitidos em velocidades maiores que a da luz amarela, enquanto a luz vermelha não produzia qualquer efeito. A Física clássica não tinha resposta para o enigma. Em artigo publicado no mês de março de 1905 e intitulado Um ponto de vista heurístico sobre a geração e a transformação da luz, Einstein esclareceria o assunto recorrendo à teoria quântica. Mostraria que a luz também é constituída de quanta, e explicaria que esse efeito fotoelétrico só poderia ser interpretado se fosse admitido que o metal absorve a luz por “pacotes discretos de energia”. Em seu contato com a matéria, a luz não se comportaria como um fluxo contínuo, mas como um conjunto de quanta; a luz teria, assim, uma estrutura intermitente. Quanto mais energia contiver o quantum, mais velocidade imprime ao elétron cuja emissão provocou. Assim, a luz vermelha, cujo quantum contém uma energia menor, não tem qualquer efeito sobre os elétrons do metal. A luz violeta expulsa elétrons em baixa velocidade; o ultravioleta gera uma velocidade maior; e raios-X produzem elétrons muito rápidos. A teoria quântica, utilizada por Einstein em seu artigo, mostrava, assim, que a luz tinha propriedades de partícula. Por essa explicação quântica do efeito fotoelétrico, Einstein receberia o Prêmio Nobel de Física (PNF) de 1921. O físico americano Robert Millikan ganharia, em 1923, o Prêmio Nobel de Física por sua verificação experimental da equação fotoelétrica de Einstein, pela medição do valor da carga elétrica do elétron, e pela primeira determinação direta da constante “h” de Planck (1912-15), e, em 1926, o químico Gilbert Newton Lewis, em carta à revista Nature, cunhou o termo “fóton” para designar o “quantum da luz”. A teoria quântica serviria, em 1913, para fundamentar o modelo de átomo de Niels Bohr, e a constante de Planck dominaria os cálculos da Física atômica. Nos anos seguintes, seria estabelecida a Mecânica quântica, graças às contribuições, entre outros, de Bohr, Born, Jordan, Heisenberg, Schrödinger, Pauli e Dirac. 61 BASSALO, José Maria Filardo. Nascimentos da Física. 171 CARLOS AUGUSTO DE PROENÇA ROSA 7.4.2 Teoria da Relatividade O outro pilar em que se assenta a Física moderna é a Teoria da relatividade, que no dizer do próprio Einstein se assemelha a um prédio composto de dois pavimentos: a Teoria especial e a Teoria geral. A Teoria especial, sobre a qual a Teoria geral repousa, aplica-se a todos os fenômenos físicos, em sistemas inerciais, com exceção da gravidade, e não se aplica a sistemas acelerados; a Teoria geral generaliza a Teoria especial para sistemas acelerados, fornecendo a Lei da gravitação e sua relação com as outras forças da Natureza. O tremendo impacto dos conceitos enunciados no conjunto da fabulosa obra científica de Einstein teria imensa repercussão em todo o campo da Ciência Física, tendo inaugurado, para muitos historiadores da Ciência, a era da Física moderna em 1905, o “ano milagroso”, com a publicação de seus cinco famosos artigos. Albert Einstein (1879-1955) nasceu na cidade de Ulm, em Baden-Würtenberg, tendo feito, a partir de 1889, seus estudos secundários em Munique, para onde havia sido transferido seu pai, fabricante de equipamentos elétricos. Mudou-se Einstein para a Suíça, onde concluiu, em Aarau, seu curso secundário. Em 1896, teve revogada sua cidadania alemã. Em 1900, concluiu o curso do Instituto Politécnico. Adquiriu a nacionalidade suíça em 1901, e obteve, por concurso, posto no Instituto de Tecnologia de Zurique. Insatisfeito com o emprego, subsidiava seu salário com aulas particulares, até 1902, quando conseguiu o posto de perito técnico de terceira classe no Escritório de Patente do governo federal, em Berna. Em 1902, nasceu sua filha, com Mileva Maric, que seria dada para adoção. Apesar da resistência inicial da família, casou-se Einstein com Mileva em janeiro de 1903, com quem teria mais dois filhos, Hans Albert (1904) e Eduard (1910). Durante esses anos, dedicou-se ao estudo da Física teórica, em particular das obras de Faraday, Kirchhoff, Hertz, Maxwell, Mach e Lorentz. Em 1905, publicaria nos Anais de Física, cinco artigos, dois dos quais com a Teoria especial da relatividade, e, em 1907, formularia o “princípio da equivalência”, trabalho considerado início de seus estudos que culminariam com a Teoria geral da relatividade. Em 1909, já com reputação firmada na comunidade científica, aceitou o convite da Universidade de Zurique para assumir o cargo de professor associado de Física. Transferiu-se pouco depois para a Universidade de Praga, como professor titular, mas retornaria temporariamente, em 1912, 172 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO a Zurique, para assumir cátedra no Instituto Politécnico. Em 1911, publicara, no Annalen der Physik, importante artigo sobre a influência da gravidade na propagação da luz. Em 1914, mudou-se Einstein para Berlim, onde assumiria cargo no Instituto Kaiser Guilherme, ingressaria na Academia Prussiana de Ciências e daria aulas na Universidade de Berlim. Em 1916, publicou a Teoria Geral da Relatividade, e, ao final da Guerra de 1914-1918, sua esposa e os dois filhos retornariam à Suíça. Logo após o divórcio, em 1919, Einstein se casaria com sua prima Elsa. Por seu trabalho sobre o efeito fotoelétrico, de 1905, ganhou, em 1921, o Prêmio Nobel de Física. Nos anos de 1920, reassumiria a cidadania alemã, sustentaria célebre polêmica com Niels Bohr sobre a Mecânica quântica, participaria de grande número de congressos internacionais, proferiria conferências em diversos países e se dedicaria, sem sucesso, à procura de uma teoria unificada de campo (primeira versão, em 1929, e a última, em 1953), que uniria as teorias da gravitação e do Eletromagnetismo. Quando na Califórnia, em 1933, Hitler assumiu o poder na Alemanha, motivo pelo qual Einstein emigrou para os EUA, renunciou, pela segunda vez, à cidadania alemã e assumiu a norte-americana (1940). Aceitou a indicação vitalícia para o Instituto de Estudos Avançados de Princeton e nunca mais retornou à Alemanha. Apesar de ter escrito a Roosevelt recomendando o desenvolvimento da bomba atômica, escreveu e fez campanha pelo desarmamento nuclear e se opôs às investigações do Congresso, no início dos anos de 1950, sobre as atividades antiamericanas. Além de Fundamentos da teoria da relatividade especial e geral (1917), seu primeiro livro, Einstein escreveria, entre outros, O significado da relatividade (1922); em 1949, O Mundo como eu o vejo; e, em 1950, Meus últimos anos. 7.4.2.1 1905 – O Ano Miraculoso Até 1904, já havia a prestigiosa revista Annalen der Physik, de Leipzig, publicado cinco artigos de Einstein (um, em 1901; dois, em 1902; um, em 1903; e outro. em 1904), todos na área da Mecânica estatística, que estuda o comportamento de átomos e moléculas. Apesar do valor relativo, do ponto de vista científico, esses trabalhos mostravam o interesse do autor pela Física teórica, mas não prenunciavam a verdadeira revolução que promoveria, a partir do ano de 1905, no entendimento dos fenômenos físicos. Einstein escreveria seis importantes artigos em 1905, dos quais quatro seriam publicados no número 17 do Annalen der Physik, de Leipzig, um no número 18, e o sexto no número 19 da mesma revista, em 1906. 173 CARLOS AUGUSTO DE PROENÇA ROSA Os dois primeiros trabalhos tratavam de átomos e moléculas, tema altamente controvertido na comunidade científica da época. O primeiro, intitulado Uma nova determinação das dimensões moleculares, era fundamentalmente seu trabalho que lhe valeria o doutorado, em janeiro de 1906, da Universidade de Zurique. Nele, o autor apresentaria um novo método para determinar os raios das moléculas e o número de Avogadro (6,02x1023), inicialmente calculado em 2x1023, isto é, o número de moléculas existentes numa molécula-grama de qualquer substância, ou seja, numa quantidade de massa igual a M gramas, no M é a massa molecular da substância. No segundo artigo, Sobre o movimento de pequenas partículas suspensas em líquidos estacionários exigido pela teoria molecular cinética do calor, Einstein utilizaria os trabalhos de George Stokes (1819-1903) sobre o deslocamento de uma esfera no líquido e de Jacobus Henricus Van’t Hoff sobre pressão osmótica para explicar, numa análise matemática e pela colisão entre átomos e moléculas, o movimento errático do pólen suspenso em líquido, detectado pelo botânico escocês Robert Brown em 1827. Caberia acrescentar sobre esses temas que o físico francês Jean Baptiste Perrin (1870-1942) realizaria uma série de experiências e observações microscópicas para confirmar os trabalhos de Einstein e forneceria os primeiros cálculos do tamanho aproximado do átomo. Perrin poderia contar o número de pequenas partículas de goma-resina suspensas em diferentes alturas de uma coluna de água e a distribuição das posições sucessivas de uma partícula em suspensão, agitada pelo movimento browniano. Perrin estimaria o número de Avogadro entre 6x1023 e 7x1023. Seu trabalho Os Átomos seria publicado em 1913, primeira constatação objetiva do átomo62. O terceiro artigo seria relativo ao efeito fotoelétrico, fenômeno sem explicação pela Teoria ondulatória clássica da luz. Einstein seria o primeiro a aceitar a hipótese do quantum (unidade fundamental da energia) de Planck, com a qual explicaria que o efeito fotoelétrico resultaria da absorção pelo elétron emitido de um quantum hv de energia da luz (no qual v é sua frequência), quando esta energia absorvida é maior do que a energia de ligação que prende o elétron ao metal. Indo além da concepção original de Planck, Einstein apresentaria o quantum de luz e a inovadora proposta, sem qualquer dado experimental, de ser a luz constituída por partículas com energia hv, isto é, que a luz deveria consistir de um feixe descontínuo de radiação. Por essa descoberta, ganharia Einstein o Prêmio Nobel de Física de 1921 e promoveria a aceitação da Teoria quântica pela comunidade científica. 62 COTARDIÈRE, Philippe de la. Histoire des Sciences. 174 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.4.2.2 Teoria Especial da Relatividade O quarto artigo de 1905, publicado em 26 de setembro, é o célebre Sobre a eletrodinâmica dos corpos em movimento, no qual introduziria sua Teoria especial (ou restrita) da relatividade, limitada a sistemas de referência em movimento relativo entre si com velocidades uniformes, não aceleradas. O termo relatividade foi popularizado por Planck. No exame da teoria, devem ser indicados, preliminarmente, como antecedentes recentes: as críticas de Ernst Mach (1838-1916), em A Ciência da Mecânica (1883), à Mecânica de Newton, principalmente aos conceitos de Espaço, Tempo e Movimento absolutos; e os trabalhos e pronunciamentos de Henri Poincaré (1854-1912) do qual são célebres os pensamentos: “a forma das leis físicas são as mesmas em relação a qualquer referencial inercial”, e “as leis dos fenômenos físicos devem ser as mesmas tanto para um observador ‘fixo’ quanto para um observador que se mova com a velocidade uniforme de translação em relação a ele”63, além de seu ceticismo quanto às noções de Espaço e Tempo absolutos. No final do século XIX, havia uma discussão, no meio científico, sobre como o movimento da Terra no éter (meio invisível, sólido, tênue) afetaria as ondas luminosas. O entendimento geral era de que, devido à propagação das ondas luminosas pelo éter (aceito pela comunidade científica), e ao movimento da Terra no Espaço, a velocidade das ondas luminosas, medida em direção desse movimento da Terra, deveria ser maior (velocidade da luz + velocidade da Terra) que a medida numa direção em ângulo reto com ela (apenas velocidade da luz). Em seus experimentos com o interferômetro, em 1887, os físicos americanos Albert Michelson (1852-1931) e Edward Morley (1838-1923) dividiram a luz branca em dois feixes, um orientado na direção do deslocamento da Terra, e o outro, que percorria a mesma distância, situado perpendicularmente a esse mesmo deslocamento. Os dois feixes de luz passavam por um jogo de espelho e se reuniam num ponto onde produziam “franjas de interferência”. A corrente de éter deveria provocar aceleração ou desaceleração nos raios de luz. Como nenhuma “diferença de marcha” entre os dois feixes e nenhum deslocamento das franjas de interferência foi verificada, o experimento foi considerado um fracasso, pois não comprovou o que era esperado, tanto o chamado “vento do éter”, quanto a diferença da velocidade da luz, ou seja, a velocidade da luz não era afetada pelo movimento da Terra Com o intuito de explicar o resultado negativo da experiência Michelson-Morley, o físico irlandês George Fitzgerald (1851-1901), 63 NATALE, Adriano; VIEIRA, Cássio (editores). O Universo sem Mistério. 175 CARLOS AUGUSTO DE PROENÇA ROSA em 1889, sugeriria uma contração do comprimento do braço do interferômetro no sentido do movimento. Essa contração do braço teria ocorrido por um fator suficiente para anular a diferença de chegada dos dois feixes luminosos64. Em 1892, o físico holandês Hendrik Antoon Lorentz (1853-1928) sustentaria a hipótese de que os corpos em movimento se contraem na direção em que este ocorre, e, em 1904, desenvolveria uma série de equações, chamadas de transformações de Lorentz, que modificariam as equações de Maxwell sobre o comportamento das ondas eletromagnéticas que se moviam no Espaço à velocidade da luz. As equações se referiam a comprimento, massa e tempo, nas quais as velocidades eram todas menores que a da luz. Dois postulados são essenciais na Teoria especial da relatividade: 1) Princípio da relatividade – as leis da Física são as mesmas em todos os sistemas inerciais de referência; e 2) Princípio da constância da velocidade da luz – a velocidade da luz no vácuo é constante para todos os sistemas de referência inerciais, qualquer que seja seu movimento ou o da fonte luminosa. Ao contrário da Mecânica newtoniana, que defendia poder um objeto se mover a uma velocidade ilimitada desde que acelerado por uma força suficiente, sustentaria Einstein que a velocidade da luz é constante medida no vácuo e é também limite, que não pode ser superada, nem mesmo igualada, por nenhum corpo. A constância da velocidade da luz, independente do sistema de referência inercial, explicava, assim, o resultado negativo da experiência Michelson-Morley que, por sua vez, mostrava a inutilidade da noção do éter, que deveria ser abandonada. Ao fazê-lo, Einstein rejeitaria, igualmente, o princípio de um referencial absoluto, de um espaço estacionário absoluto. Em decorrência dos dois postulados acima, Einstein provaria que não existe Espaço, Tempo, Massa e Repouso absolutos, como sustentava Newton: “o Tempo absoluto, verdadeiro e matemático, por sua própria natureza, sem relação a nada externo, permanece sempre semelhante e imutável” e “o espaço absoluto, em sua própria natureza, sem relação com qualquer coisa exterior, permanece sempre semelhante e inamovível”. Tudo é relativo ao referencial do observador. O Tempo, por exemplo, se aplica somente ao referencial em que está sendo medido. Em decorrência, Einstein introduziria a noção da relatividade da simultaneidade, contestando, assim, seu tradicional caráter absoluto: eventos que são simultâneos para um sistema de referência não o são necessariamente em relação a outro, ou, em outras palavras, o que um observador constata, por meio de medidas, como acontecendo ao mesmo tempo, pode não 64 RIVAL, Michel. Os Grandes Experimentos Científicos. 176 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO ser simultâneo para outro observador que esteja se deslocando com velocidade constante em relação ao primeiro65. A Teoria especial mostra, ainda, que dois observadores, situados em referenciais que se deslocam um em relação ao outro com velocidade constante v, obteriam medições diferentes para o intervalo de tempo entre dois eventos e o comprimento de uma barra na direção de v. Está igualmente implícito na Teoria especial que, a uma velocidade próxima à da luz, ocorre aumento da massa de um corpo, por causa da energia cinética para colocá-lo em movimento. Como energia e massa são intercambiáveis, para aumentar a velocidade do corpo, é preciso aumentar a energia, o que aumentará a massa do corpo. Assim, o único absoluto no Universo seria a velocidade constante da luz no vácuo, ou, limite físico do Universo, razão pela qual Einstein utilizaria, no início, a denominação de teoria da invariância para sua Teoria especial da relatividade, mas que não prevaleceria, devido à preferência generalizada, na comunidade científica, pelo nome de relatividade dado por Planck. Ainda em 1905, mas no número 18 da Annalen der Physik, seria publicado o quinto artigo de Einstein, no qual apresentaria sua fórmula, em que estabelece a relação entre massa e energia. A quantificação dessa relação está expressa na mais famosa equação da Física - E=MC2, em que a energia (E) de uma quantidade de matéria com determinada massa é igual ao produto da massa (M) pelo quadrado da velocidade (C) da luz. De acordo com a fórmula, uma pequena quantidade de massa contém uma enorme quantidade de energia, o que não era possível de ser constatado na época, por ser teoricamente impossível dividir o átomo, e por ser, assim, tecnicamente irrealizável. Ela serviria, contudo, para explicar o brilho do Sol e das outras estrelas, e é a fórmula para a fonte de energia do Universo66. Esta fórmula explica também por que a massa de um corpo aumenta quando sua velocidade, ou seja, sua energia, é aumentada. Os dois artigos sobre Relatividade não tiveram repercussão imediata no meio científico, o que causou grande decepção a Einstein. Pela complexidade do assunto e pelos conceitos revolucionários emitidos sobre as bases assentadas da Física clássica, os artigos passaram praticamente despercebidos, apesar de publicados pela mais importante revista científica. No entanto, dois dos maiores físicos alemães da época, Max Planck e Walther Nernst, compreenderam e apoiaram as novas concepções, o que serviria de incentivo ao jovem Einstein para prosseguir em seus estudos. 65 66 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. RONAN, Colin. História Ilustrada da Ciência. 177 CARLOS AUGUSTO DE PROENÇA ROSA A Teoria especial da relatividade trata apenas de observadores com velocidades constantes, isto é, se aplica apenas a sistemas de referência com movimentos inerciais, livres de forças e acelerações. Em artigo de 1907, Einstein teria o que chamou de “o pensamento mais feliz da minha vida”: a igualdade entre a massa inercial e a massa gravitacional, considerada mera coincidência pela Mecânica clássica, seria uma indicação de uma estreita vinculação entre a inércia e a gravitação. Uma pessoa numa caixa fechada não seria capaz de distinguir se está em repouso num campo gravitacional ou se está sendo acelerado a uma taxa constante numa nave no Espaço livre. Essa conexão entre movimento acelerado e gravidade seria chamada por Einstein de princípio da equivalência, gênese da Teoria geral da relatividade. Em 1908, o matemático Hermann Minkowski (1861-1909), que fora professor de Einstein na Politécnica de Zurique, interpretou, em seu livro Espaço e Tempo, as transformações de Lorentz como sendo geométricas num Espaço de quatro dimensões (Espaço-Tempo), que incluía, além das três dimensões espaciais (altura, largura e comprimento), uma quarta dimensão, o Tempo. Assim, para especificar corretamente a ocorrência de um fenômeno, seria indispensável fornecer quatro números ou coordenadas da ocorrência, concepção de acordo com os postulados da Teoria especial da relatividade e de fundamental importância para a futura Teoria geral da relatividade67. 7.4.2.3 Teoria Geral da Relatividade Terminada a elaboração da Teoria Especial, que trata da massa inercial, mas não se refere à gravitação, Einstein se dedicaria a meditar sobre uma Teoria para englobar referenciais acelerados. Em 1907, conceberia o princípio da equivalência. Em 1911, escreveria artigo, publicado no Annalen der Physik número 35, sobre a influência da gravidade na propagação da luz. Adotaria a ideia do Espaço-Tempo. Trabalharia, com a colaboração do matemático e amigo Marcel Grossmann (1878-1936), em Análise tensorial e Geometria diferencial, para a fundamentação matemática da Teoria. Adicionaria a concepção de que o espaço quadridimensional não é euclidiano (plano), mas curvo, como sugerido pela geometria do matemático Georg Riemann, em 1854. A revista Annalen der Physk, número 49, de março de 1916, publicaria o artigo de Einstein Os Fundamentos da Teoria Geral da Relatividade, pela qual todas as leis da Física são invariantes em 67 MASON, Stephen F. Historia de las Ciencias. 178 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO relação a qualquer mudança das variáveis espaciais e temporais. Trata-se, portanto, de uma extensão da Teoria especial da relatividade, que, no processo, estabeleceria uma nova Teoria da gravitação, da qual a Teoria de Newton é um caso particular. A Teoria geral da relatividade mudaria completamente o conceito de espaço, cuja estrutura é influenciada pela massa gravitacional. Einstein provaria que o Espaço fica distorcido pela presença de uma grande massa, o que ocasiona a gravidade, e que no Espaço curvo a distância mais curta entre dois pontos não ocorre ao longo de uma reta, mas de uma linha curva, chamada geodésica. A visão newtoniana da gravidade como força de efeito instantâneo conflitava, também, com a Teoria especial da relatividade, que estabelece nada poder ultrapassar a velocidade da luz. Em essência, a Teoria geral mostra que inércia e gravidade são equivalentes, o Espaço deve ser pensado em quatro dimensões, e o Espaço-Tempo é curvo, por influência de grande massa, sendo a curvatura o campo gravitacional. A gravidade não é, assim, uma força, mas é causada por inclinações e curvas feitas no Espaço pelos objetos, sendo, portanto, uma manifestação do efeito da matéria no Espaço-Tempo à sua volta. A curva elíptica descrita pela Terra em órbita do Sol é resultado da distorção da geometria do Espaço-Tempo causada pela massa do Sol, o que torna a elipse uma geodésica, isto é, o caminho mais curto no Espaço-Tempo, e não o resultado de uma “atração à distância”68. Se a força gravitacional não for muito intensa, como, por exemplo, a da Terra, a Teoria da gravidade de Einstein é irrelevante para a curvatura do Espaço-Tempo, pelo que a Teoria gravitacional de Newton é perfeitamente aplicável para os movimentos dos planetas, com exceção de Mercúrio que, por estar mais próximo do Sol, sofre mais fortemente o efeito da distorção provocado pela massa deste. Três discrepâncias da Teoria com a Mecânica de Newton, assinaladas por Einstein, foram confirmadas, o que reverteria, oportunamente, o ceticismo com que a Teoria geral da relatividade foi recebida: a órbita de Mercúrio não é uma elipse fixa, a luz que passa próxima ao Sol é defletida duas vezes mais que o previsto pela Mecânica clássica, e a luz, submetida a um intenso campo gravitacional, sofreria um desvio para o vermelho. A Teoria geral da relatividade é considerada o marco inicial da Cosmologia moderna. As Teorias da relatividade mostram como os conceitos de massa, tempo e energia estão estreitamente ligados, e evidenciam como as relações da Física clássica deixam de ser exatas quando aplicadas a corpos em altíssimas velocidades. 68 BRENNAN, Richard. Gigantes da Física. 179 CARLOS AUGUSTO DE PROENÇA ROSA Com o intuito de divulgar e tornar sua obra científica mais compreensível para o maior número de interessados, Einstein escreveria, em 1917, seu primeiro livro, cujo título é autoexplicativo: Fundamentos da Teoria da Relatividade Especial e Geral. 7.4.3 Física Atômica e Nuclear O atomismo permaneceria, por todo o século XIX, como uma teoria contestada por uma parte reduzida, ainda que importante, da comunidade científica. No livro A New System of Chemical Philosophy, de 1808, John Dalton (1766-1844) exporia sua teoria atômica, cujo principal postulado era o de ser a matéria formada por partículas (átomos) extremamente pequenas, maciças, esféricas e indestrutíveis. Apesar da contribuição de vários químicos e físicos, o atomismo clássico, na impossibilidade de sua comprovação experimental, permaneceria como mera teoria. Seus mais famosos defensores foram Stanislao Cannizzaro, com a defesa da proposta de Amadeu Avogadro a respeito de moléculas, como conjunto de átomos; Rudolf Clausius, James Clerk Maxwell e Ludwig Boltzmann, na Teoria cinética dos gases; Dmitri Mendeleiev, com a Tabela periódica dos elementos; François Marie Raoult, com a determinação do peso molecular; William Crookes, na pesquisa dos raios catódicos; Svante Arrhenius, com sua tese iônica da eletrólise; Antoine Becquerel e a descoberta da radioatividade natural; e Pieter Zeemann e Hendrik Antoon Lorentz, sobre a ação do campo magnético sobre as linhas espectrais69. O físico alemão Eugen Goldstein (1850-1930), em suas experiências com eletricidade, notou (1886), ao provocar descargas elétricas num tubo a pressão reduzida e usando um cátodo perfurado, que um feixe luminoso se propagava em sentido oposto ao dos raios catódicos. Esse feixe, chamado de raio canal, teria carga positiva e pesquisas posteriores determinariam que sua massa era 1.836 vezes maior que a do elétron. Em 1904, Rutherford daria o nome de próton a essa partícula e a comprovaria em 1911. De especial significado para o reforço da teoria atômica e para o desenvolvimento do conhecimento da estrutura do átomo, seria a descoberta, em 1897, ao pesquisar os raios catódicos, do elétron, por Joseph John Thomson (1856-1940), físico inglês, que deduziria sua carga negativa ao estudar o efeito eletromagnético. Essa descoberta seria decisiva para uma nova concepção do átomo, o qual seria entendido, então, como constituído de pequenas partículas. Thomson receberia, 69 TATON, René. La Science Contemporaine. 180 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO em 1906, o Prêmio Nobel de Física (PNF) por suas investigações teóricas e experimentais sobre a passagem da eletricidade através dos gases. Ainda em 1897, Ernest Rutherford descobriria dois tipos de partículas: alfa, átomos de hélio com carga positiva, e beta, elétron de carga negativa, cujas deflexões magnéticas seriam observadas pelo mesmo Rutherford em 1899, e, em 1900, Paul Villard (1860-1934) descobriria os raios-gama, neutros, cuja direção não é afetada pelo campo magnético. As importantes descobertas e experiências do final do século, em especial nos campos da Radioatividade, da Teoria cinética dos gases, da Termodinâmica e do Eletromagnetismo, prosseguiriam nos primeiros anos do século XX, na busca de uma compreensão da realidade do átomo. Nesse sentido, caberia citar, a título exemplificativo, i) de Jean Baptiste Perrin (1870-1942, PNF-1926), a demonstração, em 1895, de que os raios catódicos eram formados por partículas de carga elétrica negativa, os estudos e experiências de 1901 sobre a hipótese de os elétrons se deslocarem em órbitas em torno de um núcleo central, e sua comprovação experimental (1913) do átomo; ii) de Ernest Rutherford ao observar (1902) que o átomo de hidrogênio poderia ter mais de mil elétrons; iii) de William Thomson (1824-1907), mais conhecido como Lorde Kelvin, ao adiantar a ideia, em 1902, de que no átomo poderia haver uma carga positiva distribuída homogeneamente sobre um volume esférico; iv) de Philipp Lenard (1862-1947), Prêmio Nobel de Física de 1905, com o trabalho em que cada átomo excitado emite todas as séries de seu espectro; e v) do inglês Charles Barkla (1877-1944), ao mostrar serem os raios-X polarizados, e haver uma relação entre peso atômico e a emissão de raios-X secundários por elementos químicos. Em 1902, Rutherford e o químico inglês Frederick Soddy (1877-1956) formularam a teoria da transmutação espontânea sofrida por algumas espécies atômicas e escreveram, em 1903, artigo no qual foi empregada, pela primeira vez, a expressão “energia atômica”, além de apresentarem o princípio da conservação da radioatividade. Rutherford mostrou ainda, em 1903, que as partículas alfa eram desviadas em campos elétricos fortes e que portavam carga elétrica positiva. 7.4.3.1 Modelo Atômico de Thomson As pesquisas de J. J. Thomson, professor de Física experimental do Laboratório Cavendish, sobre descargas elétricas nos gases, demonstraram a deflexão de partículas, em decorrência de campos eletromagnéticos. A medição da relação energia/massa para cada uma das partículas permite conhecer a massa do elétron (o nome elétron havia sido proposto por 181 CARLOS AUGUSTO DE PROENÇA ROSA Johnstone Stoney como unidade de carga elétrica, pois não se sabia, então, que havia uma partícula com essa carga70). A descoberta do elétron culminaria, em 1903, com a publicação, na revista Philosophical Magazine, de seu trabalho com a primeira versão do que viria a ser conhecido como o famoso modelo “pudim de ameixas”, segundo o qual o átomo seria uma esfera maciça. Como não poderia existir apenas carga elétrica negativa (elétron), imaginaria o átomo com elétrons espalhados numa densidade contínua, e igual, de carga elétrica positiva, o que deixava o átomo eletricamente neutro. Assim, no modelo, o átomo era constituído por uma “pasta” positiva, recheada de elétrons de carga negativa, de distribuição ao acaso na esfera (raio da ordem de 10-8 cm). Sabendo, pela demonstração do físico inglês Joseph J. Larmor (1857-1942), que um elétron acelerado perdia energia, Thomson considerou que estes giravam em anéis com velocidade angular constante. O modelo foi reapresentado, em 1904, na Philosophical Magazine, e incluído no Relatório da Sociedade Filosófica de Cambridge. Ainda em 1904, Thomson publicaria o livro Electricity and Matter, no qual afirmaria que o átomo de hidrogênio conteria cerca de mil elétrons. É de particular importância registrar as novidades i) de o átomo deixar de ser considerado um corpo elementar simples, pois consistia de duas partes, positiva e negativamente carregadas, unidas pelas forças de atração elétrica; ii) da admissão da divisibilidade do átomo; e iii) do reconhecimento da natureza elétrica da matéria. No mesmo ano de 1904, e no Philosophical Magazine, o físico japonês Hantaro Nagaoka (1865-1950) apresentou modelo atômico do tipo saturniano, de um caroço central positivo rodeado de anéis de elétrons deslocando-se com velocidade angular. As investigações prosseguiriam nos domínios da Química e da Física, permitindo um melhor conhecimento de várias áreas, como do espectro eletromagnético, de novas linhas espectrais, da radioatividade, do espalhamento das partículas alfa e beta, do decaimento radioativo. Nesse sentido, devem ser lembradas as contribuições de Lorde Kelvin, William Bragg (1862-1942, PNF 1915), Louis Karl Heinrich Friedrich Paschen (1865-1947), Walther Ritz (1878-1909), Johannnes Stark (1874-1957, PNF-1919), Otto Hahn (1870-1968, PNQ-1944), Lise Meitner (1878-1968), Hans Geiger (1882-1945), Wilhelm Wien (1864-1928, PNF1911), Ernst Marsden (1889-1970), Arthur Haas (1884-1941) e William Wilson (1875-1965). Ernest Rutherford publicaria, em 1904, Radioactivity, livro que descrevia suas experiências sobre esse fenômeno. 70 SCHENBERG, Mario. Pensando a Física. 182 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.4.3.2 Modelo Atômico de Rutherford O neozelandês Ernest Rutherford (1871-1937) ganhou, em 1895, por dois estudos sobre radioatividade, bolsa de estudos, tendo escolhido o Laboratório Cavendish, da Universidade de Cambridge, então dirigido por J. J. Thomson, como a instituição para se especializar em pesquisas dos fenômenos eletromagnéticos. Em 1897, distinguiu duas formas diferentes de emanações radioativas do urânio, às quais Rutherford chamou de raios alfa e beta, que seriam utilizadas em suas pesquisas para a natureza do átomo. Em 1898, aceitou o cargo de professor da Universidade McGill, em Montreal, onde, com a colaboração, no período de outubro de 1901 a abril de 1903, do químico Frederick Soddy, escreveria nove importantes artigos sobre radioatividade. Rutherford desenvolveria, inclusive, o conceito de “vida-média”, a partir da deterioração do tório a uma velocidade constante numa série de outros elementos, se estabilizando, finalmente, como chumbo, o que permitiria usar a radioatividade para a verificação da idade da Terra, ao mesmo tempo em que avançava a ideia desse tipo de transmutação dos elementos. Regressou à Inglaterra em 1907 para assumir a cátedra de Física na Universidade de Manchester. Ganhou, por seus trabalhos, o Prêmio Nobel de Química de 1908. Transferiu-se para a Universidade de Cambridge, em 1919, e assumiu a direção do Laboratório Cavendish, na vaga de J. J. Thomson, recentemente falecido. Nesse mesmo ano, realizou a primeira transmutação artificial do elemento nitrogênio, que foi transformado num isótopo do oxigênio, por meio do bombardeamento com partículas alfa. Entre 1925 e 1930, foi Presidente da Sociedade Real, e, em 1931, foi agraciado com o título de Barão, com assento na Câmara dos Lordes. Além de Radioactivity (1904), escreveu Radioactivity Transformations (1906), Radioactivities Substances and Their Radiations (1930), e The Newer Alchemy (1937). Desde 1906, fazia Rutherford experiências com partículas alfa produzidas por substâncias naturalmente radioativas, como o rádio. Procurando compreender a natureza dessas partículas extremamente energéticas, que se deslocavam em altíssimas velocidades, concluiria, em 1908, depois das experiências de seu assistente Hans Geiger, que a partícula alfa era um átomo de hélio, portador de uma dupla carga positiva. Rutherford se utilizaria de tais partículas para sondar o interior dos átomos, convencido de que, no interior, deveria estar o centro de forças elétricas muito importantes. Verificou em suas experiências que as partículas se dispersavam quando passavam através da matéria, pelo que resolveu estudar a dispersão das partículas alfa. A experiência, levada a 183 CARLOS AUGUSTO DE PROENÇA ROSA cabo por Ernest Marsden, consistia num pedaço de rádio emitindo um feixe de partículas alfa, uma finíssima folha de ouro, que servia de alvo, e telas de sulfato de zinco, que produziam cintilações quando as partículas alfa as tocavam. O essencial do feixe de partículas passou diretamente através da fina folha, sendo muito ligeiramente desviado. Porém, havia alguns desvios em ângulos bem grandes, e até mesmo algumas reflexões. Desse inesperado e surpreendente resultado experimental, concluiria Rutherford que a partícula alfa em geral não colidia com o núcleo atômico, mas quando isto acontecia, encontrava um campo tão intenso no átomo que era fortemente desviada de seu caminho. Para produzir uma deflexão tão importante da partícula alfa, quando de uma colisão atômica, o átomo devia consistir num centro maciço, eletricamente carregado, de dimensão muito pequena71. Em maio de 1911, Ernest Rutherford apresentou, na revista Philosophical Magazine, e no Relatório da Sociedade Literária e Filosófica de Manchester, os resultados de suas experiências sobre o espalhamento das partículas alfa e beta pela matéria e a existência de um núcleo no interior do átomo, no qual deveria haver uma partícula neutra (o nêutron – cuja massa é 1.836 vezes a do elétron – seria descoberto por James Chadwick, em 1932). No núcleo, estaria concentrada toda a carga positiva nas partículas que chamou de prótons (do grego prótons para primeiras coisas). A existência dessas partículas – a massa do próton é 1.836 vezes maior que a do elétron – seria comprovada pelo próprio Rutherford em 1919, arrancando-as de núcleos de nitrogênio por meio de partículas alfa. O modelo de átomo de Rutherford passou a ser conhecido como “planetário”, pois o átomo seria como o Sistema Solar, o núcleo representando o Sol, e os elétrons, os planetas, girando em órbitas circulares, formando a eletrosfera, região externa ao núcleo. Calculou o raio do átomo como de 10 mil a 100 mil vezes maior que o raio do núcleo, o que significava que o átomo era formado por espaços vazios. Em 1929, Rutherford apresentaria a ideia de que o núcleo atômico era constituído por prótons e elétrons. O modelo se baseava na teoria do Eletromagnetismo, segundo a qual toda partícula com carga elétrica, submetida a uma aceleração, geraria uma onda eletromagnética. Desta forma, o elétron, quando submetido a uma força centrípeta, irradiaria energia na forma de onda eletromagnética. Essa emissão faria o elétron perder energia cinética e potência, acabando por operar uma série de órbitas, que se tornariam espiraladas, vindo a cair sobre o núcleo. O modelo mostrava, por conseguinte, um átomo instável (duraria apenas de 10 a 11 segundos), o que não ocorre na prática. 71 RIVAL, Michel. Os Grandes Experimentos Científicos. 184 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.4.3.3 Modelo Atômico de Bohr Niels Hendrik David Bohr (1885-1962) ingressou na Universidade de Copenhague, sua cidade natal, em 1903. Formou-se em Física, no ano de 1909, e concluiu o Doutorado, em 1911, com uma tese sobre a teoria dos elétrons. Em 1911, foi para Cambridge para trabalhar com J. J. Thomson e complementar seus conhecimentos, mas se transferiria, em março do ano seguinte, para Manchester, onde trabalharia com Ernest Rutherford, com quem estabeleceria uma sólida e longa amizade e colaboração. Em 1913, publicaria sua teoria sobre a estrutura atômica, conquistaria prestígio no meio científico, e, em 1916, retornaria à Dinamarca, nomeado professor de Física teórica da Universidade onde estudara. Em 1922, inauguraria, como Diretor, o Instituto de Física Teórica de Copenhague, que em poucos anos ganharia a reputação de ser um dos mais importantes centros de pesquisa de Física nuclear. Nesse instituto, seria desenvolvida, com a colaboração, entre outros, de Max Born, Werner Heisenberg e Wolfgang Pauli, a Mecânica quântica. No mesmo ano (1922) em que, sob sua supervisão, foi descoberto o elemento “háfnio” e formulou seu princípio da correspondência, segundo o qual para números quânticos muito grandes, ou seja, em frequências baixas, as leis da Teoria quântica e da Mecânica clássica se tornavam idênticas, Bohr receberia o Prêmio Nobel de Física (PNF), sua consagração como um dos mais importantes cientistas do século, e, em 1930, a Medalha Max Planck (MMP). O Princípio da complementaridade (1927) de Bohr, de partícula e onda como descrições complementares da mesma realidade atômica, e o Princípio da Incerteza de Heisenberg seriam centrais na célebre controvérsia que, durante mais de 35 anos, sustentou com Einstein sobre a Filosofia da Física quântica72. Durante os anos 30, expandiria o campo da Física nuclear e sugeriria o modelo da “gota líquida” para o núcleo do átomo. Apesar de sua notória atitude política antinazista, permaneceu Bohr na Dinamarca, invadida, em 1940, pela Alemanha, até 1943, com o intuito de preservar os estudos e pesquisas do Instituto de Física Teórica. Diante dos boatos de que seria preso, e da insistência de amigos, escapou, com a família, para a Suécia, e depois viajou para a Inglaterra e EUA, onde permaneceu até o final da Guerra. De regresso à Dinamarca, retornou Bohr à atividade, aposentando-se em 1955. O modelo de átomo de Bohr representa grande mudança de concepção em relação ao modelo de Rutherford, já que contrariava alguns fundamentos da Eletrodinâmica de Maxwell e da Mecânica de Newton, e aplicava a Teoria quântica de Planck. Trata-se, na realidade, de um modelo 72 BRENNAN, Richard. Gigantes da Física. 185 CARLOS AUGUSTO DE PROENÇA ROSA misto, numa tentativa de reconciliar a Física clássica, de aplicação para corpos macroscópicos, com a Física para objetos de dimensão atômica. Seu modelo se refere ao átomo do hidrogênio, com um próton e um elétron, e se basearia, na elaboração de sua teoria, na fórmula empírica do matemático suíço Johann Jakob Balmer (1825-1898) para determinar as linhas espectrais do hidrogênio. Os cientistas da segunda metade do século XIX e início do XX estavam buscando explicações para as séries espectrais dos elementos químicos. Observadas por Josef von Fraunhofer (1787-1826) em 1814, chegou o físico alemão a calcular o comprimento das ondas de algumas das 574 linhas espectrais que observara no espectro solar. Em 1885, o professor Balmer descobriu uma fórmula (eleve 3 ao quadrado; divida 1 pelo resultado e subtraia essa fração de ¼; multiplique a resposta pelo número 32.903.640.000.000.000) para calcular a frequência (e consequentemente o comprimento da onda) da linha vermelha do espectro visível do hidrogênio. Se em lugar do 3, se começar pelo número 4, obtém-se a linha verde do espectro, e com o número 5, a linha violeta. Os números inteiros seguintes (6, 7, 8, etc.) produzem algarismos que também correspondem a sua frequência73. Bohr estudaria a radiação do átomo de hidrogênio com o objetivo de encontrar uma explicação para as linhas espectrais. Já era conhecido, no início do século XX, que a radiação da luz branca, como a luz solar, era decomposta em diversas cores. No caso da decomposição da luz solar, se obtém um espectro contínuo, formado por ondas eletromagnéticas visíveis e invisíveis. No caso, porém, de a luz que atravessar um prisma ser emitida por certas substâncias, como, por exemplo, hidrogênio, sódio ou neônio, o espectro será descontínuo, caracterizado por linhas coloridas separadas. Isto significa que somente alguns tipos de radiação luminosa são emitidos, ou radiações de valores determinados de energia são emitidas, particularidade que intrigava os cientistas. Ainda que o modelo planetário de Rutherford parecesse correto a Bohr, a instabilidade nesse modelo indicava ser indispensável uma nova formulação que aperfeiçoasse a estrutura do átomo, mesmo que tivesse de renegar alguns dogmas da Física clássica. Trabalhando no Laboratório Cavendish, próximo a Thomson e Rutherford, apresentaria Bohr, em dois anos, um modelo alternativo ao concebido por seu grande amigo Rutherford. O grande valor de Bohr, na formulação de um novo modelo, foi sua coragem de abandonar a Teoria eletromagnética de Maxwell e a Mecânica de Newton, estabelecendo que o elétron deveria descrever 73 STRATHERN, Paul. Bohr e a Teoria Quântica. 186 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO órbitas discretas circulares, quantizadas, em torno do núcleo, e que, enquanto estivesse se movendo numa das órbitas, não emitia nenhuma radiação eletromagnética, o que era contrário à teoria de Maxwell. Bohr apresentou seu modelo atômico em três artigos publicados no Philosophical Magazine, dos meses de julho (Sobre a Constituição de Átomos e Moléculas), setembro (Sistemas que Contêm Um Só Núcleo) e novembro (Sistemas que Contêm Vários Núcleos), de 1913. Seu modelo é um núcleo no qual estariam prótons e nêutrons, e, por fora, girando, os elétrons em órbitas (camadas eletrônicas) circulares, fixas, concêntricas e específicas, denominadas K, L, M, N, O, P, Q, ou 1, 2, 3, 4, 5, 6 e 7, números que correspondem ao respectivo número quântico principal. Cada camada poderia possuir um número determinado de elétron que é ligeiramente maior que a camada mediatamente inferior. A camada K poderia conter, no máximo, 2 elétrons; a L, 8; a M, 18; a N, 32; a O, 18; a P, 18; e a Q, 8 elétrons. A última camada de qualquer átomo não poderia conter mais de oito elétrons. De acordo com o número quântico principal, calculou Bohr a distância das diversas órbitas em relação ao núcleo. O átomo estaria em estado fundamental ou estacionário quando seus elétrons ocupam as camadas menos energéticas. Quando o átomo recebe um quantum de energia, o elétron salta para uma órbita mais energética, mais afastada do núcleo. É o chamado salto quântico. Quando retorna, porém, a uma órbita menos energética, o elétron perde, na forma de onda eletromagnética, uma quantidade de energia que corresponde à diferença de energia existente entre as órbitas envolvidas. O elétron, enquanto gira na mesma órbita, não emite energia, mas ao saltar para outra órbita emite ou absorve uma quantidade definida de energia (quantum de energia). Ao saltar e ao voltar à sua órbita inicial, o elétron emite uma irradiação eletromagnética, que se traduz por uma listra espectral. Seu postulado é, assim, o de que o elétron só emite energia quando passa de uma órbita de maior energia para uma de energia mais baixa. A diferença de energia entre as duas órbitas é que era transportada pela radiação quantizada, sob a forma de fóton. A relação entre a frequência e a quantidade de energia emitida é dada pela teoria de Planck. Ou, em outras palavras, a energia não era continuamente irradiada pelo elétron, pois ela era descontínua, em pacotes, estabelecendo o vínculo entre a série de Balmer e o quantum. Bohr induzira da fórmula de Balmer que a energia liberada pelo elétron saltando de uma órbita para outra era emitida na quantidade suficiente em pacotes ou quantizada. Para a determinação da órbita, Bohr iria contra a Mecânica de Newton, ao preconizar que só eram possíveis órbitas em que o momento angular do elétron fosse um múltiplo inteiro da constante 187 CARLOS AUGUSTO DE PROENÇA ROSA (h) de Planck, porque a constante tem exatamente a dimensão de um momento angular. Segundo a Mecânica de Newton, qualquer valor do momento angular seria permitido. A comunidade científica teve uma recepção pouco entusiástica ao trabalho de Bohr, dividindo-se entre o apoio de Einstein e James Jeans (1877-1946), a desconfiança de John William Strutt Rayleigh (1842-1919), Arnold Sommerfeld e Hendrik Lorentz, e a oposição de J. J. Thomson. Em 1914, James Franck (1882-1964, MMP-1951) e Gustav Hertz (1887-1975, MMP-1951) confirmariam, com dados experimentais, pelo bombardeamento de átomos de mercúrio por elétrons, a natureza quantizada da transferência de energia do modelo atômico de Bohr, pelo que os dois físicos alemães receberiam o Prêmio Nobel de Física (PNF) de 192574. Arnold Sommerfeld (1916), para explicar o Efeito Zeeman no hidrogênio, aperfeiçoaria o modelo atômico de Bohr. Percebendo que as raias orbitais do modelo eram um conjunto de raias finas, concluiu que um dado nível de energia era composto, na realidade, de subníveis (de quatro tipos: s, p, d, f) de energia, aos quais estavam associadas várias órbitas diferentes, sendo uma, circular, e as demais, elípticas. Generalizando a quantização de Bohr, estendendo-a para órbitas elípticas, Sommerfeld seria um pioneiro da Mecânica quântica relativística. Sua outra importante contribuição à Física seria a descoberta da famosa “constante universal de estrutura fina”, que é um número sem dimensão, constituído pelo quadrado da carga do elétron, a constante de Planck e a velocidade da luz: E2/HC ou a divisão 1/137, que caracteriza a magnitude da força eletromagnética. Ainda em 1916, o físico e químico holandês, Petrus Joseph Wilhelm Debye (1884-1966, PNQ 1936, MMP-1950) também usaria o modelo BohrSommerfeld para explicar o Efeito Zeeman (efeito dos campos magnéticos no desdobramento das linhas centrais espectrais, ou, em outras palavras, efeito do magnetismo sobre a luz). 7.4.3.4 Outros Desenvolvimentos Nos anos seguintes, haveria um extraordinário interesse pela Física atômica, refletido nos avanços teóricos e experimentais sobre radiação, matéria, partícula, Efeito Zeeman e espectro eletromagnético, entre outros fenômenos. Em 1923, ocorreria a descoberta do chamado efeito Compton, pelo físico americano Arthur Compton (1892-1962, 74 RIVAL, Michel. Os Grandes Experimentos Científicos. 188 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO PNF-1927) que, em suas pesquisas sobre a natureza dual da radiação eletromagnética, ou seja, partícula/onda, confirmaria a teoria do quantum de luz exposta por Einstein em 1905. A massa de alguns átomos indicava que, além de elétrons e prótons, deveria haver no interior do átomo alguma outra partícula, ainda não detectada, sem carga, mas com massa aproximadamente igual à do próton. Em 1932, o físico inglês James Chadwick (1891-1974), que trabalhara no Laboratório Cavendish, como assistente de Rutherford (que aventara a existência de uma partícula neutra no núcleo do átomo), descobriria o nêutron, partícula eletricamente neutra. Por essa descoberta, receberia o Prêmio Nobel de Física de 1935. A partir de então, o modelo de átomo elétron-próton cederia lugar para o atual próton – nêutron – elétron, no qual o átomo é considerado como possuindo certo número de prótons, igual ao número atômico (Z), elétrons suficientes para neutralizar sua carga e tantos nêutrons (A-Z) quantos necessários para completar o número de massa (A). Deve ser registrado que Walther Bothe (1891-1957, PNF-1954), em 1930, e o casal francês de físicos Frédérick e Irène JoliotCurie, em 1931, bombardearam elementos leves, como lítio (Li), berílio (Be), alumínio (Al) e boro (B), com partículas alfa emitidas pelo polônio (Po), mas não reconheceram a radiação produzida como a partícula nêutron, mas como raios-Gama. Outros físicos, como Francis Henri Perrin, Pierre Victor Auger e Wolfgang Pauli, já haviam escrito, também, sobre a existência de uma partícula neutra no núcleo do átomo. A estrutura do átomo, conhecida a partir dos primeiros anos da década de 30, era, assim, a de um núcleo, formado pelas partículas elementares próton (de carga positiva) e nêutron, e de uma eletrosfera, com a partícula elementar elétron (de carga negativa). O modelo atômico de Bohr seria, contudo, substituído pelo modelo orbital da Mecânica quântica, baseado na Teoria quântica de Planck, na dualidade partícula-onda de Louis de Broglie, na Mecânica ondulatória de Schrödinger, no modelo matricial e no Princípio da Incerteza de Heisenberg, nos trabalhos de Max Born e Pascual Jordan, e na Mecânica quântica de Paul Dirac. Esse modelo quântico do átomo está apresentado no capítulo referente à Mecânica quântica. A Física atômica e nuclear continuaria, na década de 30, como uma das áreas de intensa pesquisa, teórica e experimental, no intuito de entender a estrutura do átomo e o funcionamento de seus componentes. O irlandês Ernest Walton (1903-1995, PNF-1951) e o inglês John Cockcroft (1897-1967, PNF-1951), ambos trabalhando no Laboratório Cavendish, obtiveram, em abril de 1932, a primeira reação nuclear com aceleradores artificiais. 189 CARLOS AUGUSTO DE PROENÇA ROSA A importância desse experimento está em ter sido pioneiro no resultado da história dos aceleradores de partícula, na desintegração nuclear, na demonstração da validade da teoria do efeito túnel e na verificação da equivalência entre energia e matéria75. Ainda em 1932, Heisenberg e o russo Dmitri Iwanenko proporiam, separadamente, a hipótese de que os prótons e os nêutrons, constituintes do núcleo atômico, se comportavam como partícula única, denominada núcleon, que interagiam por meio de uma força atrativa capaz de superar a força repulsiva. No ano seguinte, o físico húngaro Leo Szilard (1898-1964) adiantaria sua ideia sobre a produção de energia pela reação nuclear, em que dois nêutrons fracionam dois átomos de berílio, que liberam mais quatro nêutrons, e assim por diante, e Patrick Blackett e Giuseppe Occhialini confirmariam, experimentalmente, a existência do pósitron (antipartícula do elétron), descoberto em 1932, por Carl Anderson, e já previsto por Dirac, em 1928. Em 1934, o casal Frédéric e Irène Joliot-Curie apresentou à Academia de Ciências de Paris o resultado de suas experiências com o bombardeamento do alumínio (Al) com partículas alfa, tendo sido observado que o alvo do Al, depois de expelir nêutrons, continuava a emitir radiações provenientes de um isótopo (radioisótopo) do fósforo, não encontrado na Natureza. Tratava-se da descoberta da radioatividade artificial, pela reação nuclear, o que lhes valeu, no ano seguinte, o Prêmio Nobel de Química. Em maio desse mesmo ano, Enrico Fermi (1901-1954, PNF-1938, MMP-1954) realizou experiências sobre a radioatividade induzida, bombardeando, com nêutrons, alguns elementos químicos em ordem crescente do número atômico, inclusive o urânio. Apesar de ter obtido a desintegração e a correspondente meia-vida do urânio, não compreendeu Fermi e seus colaboradores o significado do resultado da pesquisa. Prosseguindo suas investigações sobre radioatividade induzida, Fermi descobriu, em outubro, que os nêutrons tinham sua velocidade reduzida quando atravessavam a parafina. Desenvolveria, então, a técnica de obtenção de nêutrons lentos ou térmicos, e passou a produzir novos elementos radioativos artificiais. Fermi e seu grupo de colaboradores não foram capazes de perceber que tais nêutrons eram a chave da fissão nuclear76, já que era maior a probabilidade de se obter a fissão do urânio (U235) para nêutrons lentos do que para nêutrons rápidos. O físico japonês Hideki Yukawa (1907-1981, PNF-1949) proporia a existência de uma força nuclear (força forte) de curto alcance entre os núcleons, mediada por partículas de massa intermediária entre a do 75 76 RIVAL, Michel. Os Grandes Experimentos Científicos. BASSALO, José Maria Filardo. Nascimentos da Física. 190 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO elétron e a do próton, a que se chamaria méson. Em 1936, Niels Bohr, para explicar as desintegrações nucleares, divulgaria seu modelo nuclear conhecido como gota líquida, em que os núcleons (próton e nêutron), considerados como constituindo uma gota líquida, se encontram em estado de agitação térmica, movendo-se ao acaso. 7.4.3.5 Fissão Nuclear Em 1938, os químicos alemães Otto Hahn (1879-1968, PNQ-1944, MMP-1949) e Fritz Strassmann (1902-1980), e a física austríaca Lise Meitner (1878-1968, MMP-1949) haviam descoberto, teoricamente, que bombardeando certos átomos com partículas de materiais radioativos seria possível quebrar (fissionar) o núcleo daqueles átomos, liberando energia. Estava, assim, dominado o processo físico fundamental para a geração da energia nuclear: bombardeado por nêutrons, os núcleos dos isótopos de urânio (U235 e U233) absorvem as partículas e se tornam instáveis, partindo-se em dois pedaços espontaneamente. O núcleo do urânio se fragmenta em núcleos mais leves, chamados de fragmentos de fissão, como bário e criptônio. A energia correspondente às forças nucleares que uniam os pedaços é subitamente liberada na forma de energia cinética (energia de movimento) desses fragmentos e de nêutrons liberados pela fissão. Tratava-se de experiência análoga às do casal Joliot-Curie e de Fermi, com o bombardeamento do urânio com nêutrons lentos. Informado por Otto Frisch (1904-1979) de que ele mesmo e Lise Meitner haviam preparado artigo a ser publicado na revista inglesa Nature sobre a cisão do urânio nos estudos de Hahn/Meitner/ Strassmann, Bohr, que se encontrava numa conferência internacional de Física, nos EUA, anunciaria aos participantes a histórica novidade de ter sido alcançada a fissão nuclear. A fissão, além dos fragmentos, produz também dois ou três nêutrons, que são absorvidos pelos núcleos do urânio, os quais se tornam instáveis, provocando novas fissões e novos nêutrons, que provocarão novas fissões em novos núcleos, numa reação nuclear em cadeia. O problema era como estabelecer uma reação em cadeia controlada para que pudesse ser utilizada na geração de energia. As pesquisas em Física atômica e nuclear, que avançavam em alguns centros europeus, como Alemanha, Grã-Bretanha, Dinamarca, França e Itália, praticamente cessariam com o início do conflito mundial de 1939. As potências beligerantes passariam a priorizar, no esforço de guerra, a pesquisa voltada para a maior eficiência de novas e tradicionais armas de guerra (aviões, submarinos, 191 CARLOS AUGUSTO DE PROENÇA ROSA tanques, carros de combate, porta-aviões, aparelhos de comunicações, radar), o que não incluía a produção de energia. Em vista da informação do sucesso da pesquisa na Alemanha quanto à fissão nuclear e temeroso de que o inimigo estivesse investindo maciçamente no desenvolvimento de uma “bomba atômica”, o governo dos EUA daria prioridade a um programa secreto, chamado Projeto Manhattan, de outubro de 1941, cuja pesquisa esteve sob a direção do físico Julius Robert Oppenheimer, chefe de pesquisa da Universidade de Chicago. O objetivo não seria energético, mas de fabricação da bomba nuclear. O projeto teria impulso após o ataque japonês à base naval de Pearl Harbour, determinante da entrada dos EUA na Guerra contra os países do Eixo. Em dezembro de 1942, Fermi e seu grupo de 15 cientistas da Universidade de Chicago produziram a primeira reação nuclear em cadeia controlada. Os EUA, que acolheram alguns importantes cientistas foragidos da perseguição nazista e da Guerra (Fermi, Hahn, Leo Szilard, Eugene Wigner, Hans Bethe), desenvolveria o projeto nos Laboratórios de Los Alamos, no Novo México, e de Oak Ridge (enriquecimento de urânio), no Tennessee. Em apenas três anos de intensa investigação, foi possível detonar, em 16 de julho de 1945, no deserto de Alamogordo, no Novo México, a bomba nuclear chamada de Trinity, a primeira explosão nuclear da História. Logo em seguida (menos de um mês), uma bomba de urânio cairia sobre Hiroshima (6 de agosto) e uma de plutônio (Pu239, material físsil obtido a partir de U238) sobre Nagasaki (9 de agosto). Com o término da Guerra, o início da corrida armamentista e a retomada das pesquisas em outros países, o segredo da fabricação de bomba atômica seria desvendado, restando apenas, para sua fabricação, as dificuldades para superar as limitações técnicas, financeiras e industriais. Desde então, o grande avanço teórico e experimental, aliado ao desenvolvimento de equipamentos de pesquisa, conduziria a importantes descobertas para melhor conhecimento do interior do átomo. Um novo campo de investigação, denominado Física das partículas, dedicada ao estudo dos constituintes mais elementares da matéria e da energia, se abriria na Física, despertando crescente interesse e atividade no meio científico. 7.4.4 Física Quântica A experiência adquirida nos primeiros anos do século XX atestava a inaplicabilidade de leis e de princípios da Mecânica e da Eletrodinâmica clássicas ao mundo atômico e molecular. Exemplo nesse sentido era o modelo atômico de Rutherford em que o elétron, gravitando 192 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO em torno de um núcleo positivo, deveria irradiar continuamente ondas eletromagnéticas, perdendo, em consequência, energia até cair sobre o núcleo, o que realmente não acontece. Por outro lado, a Física clássica não tem como explicar a existência de moléculas, pelo que seria indispensável a formulação de uma nova Física corpuscular, que descrevesse o comportamento da matéria em escala reduzida, microscópica. A partir dos trabalhos pioneiros de Niels Bohr, examinados anteriormente no capítulo da Física atômica e nuclear, e de Louis de Broglie, seria desenvolvida, nos anos 1925-28, a chamada Mecânica quântica, na base das pesquisas e formulações principalmente de Max Born (1882-1970), Ernst Pascual Jordan (1902-1980), Werner Heisenberg (Mecânica matricial), Erwin Schrödinger (Mecânica ondulatória), Wolfgang Pauli e Paul Adrien Maurice Dirac, a qual daria respostas apropriadas aos fenômenos no mundo atômico e subatômico. 7.4.4.1 Dualidade Partícula/Onda e Outros Desenvolvimentos Há um reconhecimento generalizado, no meio científico, do papel pioneiro de Louis de Broglie em iniciar um processo que culminaria na criação da Mecânica quântica, ao relacionar as propriedades da matéria com as Teorias dos quanta e da relatividade. Incentivado pelo irmão Maurice, Louis Victor Pierre Raymond de Broglie, Príncipe de Broglie (1892-1987), de família aristocrática francesa, formado em História, teria seu interesse intelectual voltado para a Física, ao estudar os trabalhos de Planck sobre a Teoria quântica, e de Einstein sobre a relatividade. Formou-se durante a Primeira Guerra Mundial em Ciências físicas, e, após o conflito, trabalhou em Física teórica no laboratório de seu irmão, na pesquisa da estrutura da matéria, utilizando raios-X. Defenderia sua tese de doutorado (Pesquisa sobre a Teoria dos Quanta) na Sorbonne, em 1924, com sua revolucionária tese de Mecânica ondulatória, na qual toda a partícula material estaria associada a uma onda, pelo que o elétron poderia ser concebido como partícula-onda. Adepto das teorias de Planck e Einstein, sustentaria de Broglie que, como todos os fenômenos naturais envolviam certa forma de matéria e de radiação (ondas eletromagnéticas), toda onda, a exemplo da luz, deveria ter, igualmente, propriedades da partícula, e toda matéria deveria ter, igualmente, propriedade de onda. É a extensão da dualidade partícula-onda da radiação (Planck e Einstein) para a matéria. Nessas condições, de Broglie definiria o elétron como partícula-onda, apesar de não haver, na época, nenhuma evidência experimental 193 CARLOS AUGUSTO DE PROENÇA ROSA da natureza ondulatória das partículas77. Consta que Paul Langevin (1872-1946), da banca examinadora, antes de se pronunciar sobre a tese do jovem Louis de Broglie, teria pedido a opinião de Einstein, que teria se mostrado entusiasmado com as novas ideias. Por sua contribuição ao desenvolvimento da Física quântica, de Broglie receberia o PNF em 1929 e a Medalha Max Planck de 1938. Escreveu os livros Introduction à l’étude de la mécanique ondulatoire (1930) e Certitudes et Incertitudes de la Science (1966). A teoria seria confirmada por Clinton Joseph Davisson (PNF-1937) e Lester Germer (1896-1971), em 1927, quando examinaram a dispersão dos elétrons lentos por superfícies lisas. Verificaram que a “relação entre o ângulo da intensidade máxima, a velocidade dos elétrons e o espaçamento das malhas de crista é a mesma que para uma onda, com a condição de que se atribua aos elétrons um comprimento de onda, dado pela fórmula de Louis de Broglie”, ou seja, um feixe de elétrons sofria difração como acontece com uma onda. Comprovada, assim, a dualidade partícula-onda do elétron, a Mecânica ondulatória ou quântica se desenvolveria em bases experimentais sólidas. Deve ser registrado que, em 1925, o jovem físico alemão Walther Elsasser (1904-1991) publicara artigo, que passou despercebido, no qual interpretara os resultados da experiência de 1923, de Davisson e Charles Henry Kunsman (1890-1970), do espalhamento de elétrons lentos por cristais policristalinos (platina e magnésio) como sendo devidos à difração dos elétrons78. Quatro outros desenvolvimentos teóricos e experimentais, de 1925, seriam de especial relevância para melhor compreensão do átomo e para o desenvolvimento da Mecânica quântica. O físico inglês Patrick Maynard Stuart Blackett (1897-1974, PNF-1948) publicaria sua experiência com a câmara de Wilson, havendo fotografado, pela primeira vez, a trajetória de um próton. A introdução pelos físicos holandeses Samuel Goudsmit (1902-1978, MMP-1964) e George Uhlenbeck (1900-1988, MMP-1964) de números quânticos fracionários para explicar o espectro do hidrogênio e a formulação da hipótese de que os elétrons possuíam uma rotação intrínseca, a que denominaram spin (giro). O elétron se comportaria como girando em torno de seu eixo, com propriedades de um ímã, como se tivesse um momento angular intrínseco (spin) em torno de seu eixo. Wolfgang Pauli, ao analisar o modelo atômico de Bohr, em que cada elétron era dotado de três números quânticos (que definem a órbita de um elétron), propôs um modelo de átomo baseado em elétrons de quatro números quânticos (o quarto número só poderia ter dois valores: -1/2 77 78 RIVAL, Michel. Os Grandes Experimentos Científicos. BASSALO, José Maria Filardo. Nascimentos da Física. 194 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO ou 1/2, sob o argumento de que dois elétrons não poderiam ocupar o mesmo estado quântico, mas dois elétrons poderiam ocupar uma mesma órbita79). Esse é seu famoso princípio da exclusão, relativo à distribuição dos números quânticos dos elétrons do átomo. 7.4.4.2 Mecânica Quântica O austríaco Erwin Schrödinger (1887-1961) recebeu o doutorado em 1910 da Universidade de Viena, onde exerceria a cátedra de Física. Em 1921, ocupou a cátedra em Zurique, onde continuou seu trabalho sobre Mecânica estatística dos gases e sobre as Teorias da cor, atômica e quântica. Em 1924, leu a tese de Louis de Broglie de que as partículas subatômicas poderiam se comportar, em determinadas circunstâncias, como ondas. Em dezembro de 1925, Schrödinger inventaria sua conhecida equação matemática, uma equação de onda, em que o elétron deixaria de ser um ponto posicionado em vários locais em volta do núcleo do átomo para ser representado como uma onda vertical, girando em volta e pelo núcleo em níveis definidos de energia. A teoria Mecânica quântica ondulatória, com a Equação para ondas estacionárias dos elétrons atômicos, foi exposta em seis artigos, publicados em 1926 no Annalen der Physik, de Leipzig. No ano seguinte, sucedeu a Max Planck como professor de Física teórica na Universidade de Berlim, mas, em 1933, com a ascensão do nazismo, transferiu-se para a Inglaterra (Oxford), e compartilhou o Prêmio Nobel de Física com Paul Dirac, e a Medalha Max Planck (MMP) de 1937. Em 1936, regressou à Áustria para ensinar na Universidade de Graz, mas, com a anexação do país pela Alemanha de Hitler, Schrödinger deixou o país, e depois de breve período na Itália e EUA, permaneceria na Irlanda (Dublin), na Escola de Física teórica, até 1956, quando regressaria em definitivo para a Áustria como professor na Universidade de Viena80. No mesmo ano de 1925, enquanto Schrödinger concebia a Equação da onda, o físico alemão Heisenberg estudava o comportamento das partículas subatômicas e desenvolveria a chamada Mecânica matricial. Werner Heisenberg (1901-1976) ingressou na Universidade de Munique em 1920, estudou com Max Born e doutorou-se em 1923. De seus contatos em Göttingen com Bohr, aceitou o convite para colaborar no Instituto de Física teórica de Copenhague. Por não conseguir o modelo atômico Bohr-Sommerfeld justificar certos fenômenos experimentais, Heisenberg buscaria alternativas 79 80 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. PIZA, Antônio F. R. T. Schrödinger & Heisenberg. 195 CARLOS AUGUSTO DE PROENÇA ROSA teóricas capazes de explicar o que realmente ocorria no mundo subatômico. Utilizando-se da Álgebra matricial para descrever o elétron, Heisenberg desenvolveria a Mecânica matricial, para cuja fundamentação matemática contou com a colaboração dos físicos alemães Max Born (MMP-1948) e Ernst Pascual Jordan (1902-1980, MMP-1942). O trabalho no qual “quantizaram” o campo de radiação eletromagnético usando a Mecânica matricial seria publicado em 1926, pouco antes dos artigos de Schrödinger sobre Mecânica ondulatória. Certa controvérsia surgiria no meio científico diante da aparente contradição entre as duas Mecânicas (a das ondas e a das partículas), idênticas quanto aos resultados, mas a dificuldade seria resolvida com a Teoria da complementaridade de Bohr. Segundo a teoria de Bohr, os conceitos de onda e de partícula eram duas descrições complementares da mesma realidade, cada uma sendo apenas parcialmente correta e de âmbito limitado81, ou seja, apesar de suas estruturas e conceitos diferentes, as duas teorias eram equivalentes. Heisenberg publicaria em defesa de sua obra, no ano de 1927, seu famoso artigo Sobre o Conteúdo Intuitivo da Cinemática Quântica e Mecânica, no qual propôs o Princípio da Incerteza, pelo qual não é possível calcular com exatidão a posição e o momento linear (isto é, a massa vezes a velocidade – mv) de uma partícula subatômica, e, portanto, descrever exatamente o estado de um sistema. Para tanto, Heisenberg formularia equação pela qual o produto da incerteza da posição pela incerteza do momento linear de uma partícula não poderá ser menor que o número positivo conhecido como constante de Planck, isto é, a incerteza nunca pode ser reduzida a zero. O princípio formulado teria o decidido apoio de Bohr, e seria conhecido como a “interpretação de Copenhague”, marco do nascimento da Mecânica quântica. De 1927 a 1941, Heisenberg seria professor de Física da Universidade de Leipzig, onde trabalhou com Pauli, com quem desenvolveria a Eletrodinâmica quântica, e permaneceria, durante todo o período da Segunda Guerra Mundial, na Alemanha, inclusive como diretor do Instituto Kaiser Guilherme (atual Instituto Max Planck), tendo falecido de câncer. Heisenberg receberia por suas contribuições para a Mecânica quântica o Prêmio Nobel de Física de 1932 e a Medalha Max Planck de 1933. 7.4.4.3 Modelo Atômico Orbital O modelo atômico de Bohr explica bem os átomos de hidrogênio e o do hélio ionizado, mas é insuficiente para átomos com mais de um elétron. 81 BRENNAN, Richard. Gigantes da Física. 196 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Não é uma completa descrição quântica, pois agrega algumas condições quânticas a um tratamento de Mecânica clássica. O modelo determinístico de átomo de Bohr impunha alguma restrição arbitrária ao movimento do elétron em torno do núcleo. Em 1926, o físico austríaco Erwin Schrödinger generalizaria a teoria partícula-onda para abranger partículas ligadas, como elétrons nos átomos, e formularia sua famosa equação matemática, que é uma Equação da onda, definidora do comportamento ondular completo de uma partícula, em três dimensões. A equação contempla os resultados de Bohr para as energias do átomo de hidrogênio e explica, igualmente, com grande precisão, as propriedades de todos os átomos. Este modelo quântico considera o elétron como onda de matéria, e não como partícula, e adota a Equação de onda de Schrödinger, que serve para se obter a energia do elétron e sua posição mais provável num dado instante. Nessa formulação, não era possível determinar a trajetória da partícula. O trabalho de Schrödinger reforçava a formulação equivalente, mas diferente e um pouco anterior, do físico Werner Heisenberg, segundo a qual, quanto maior a precisão experimental de posição de um elétron, menor a precisão na determinação de seu momento linear, e vice-versa. Como ambos os parâmetros são essenciais para se conhecer a trajetória, Heisenberg descartava, assim, o conceito (válido para partícula macroscópica) de trajetória, e sustentava que a posição de uma partícula não poderia ser prevista com exatidão, e só poderia ser determinada por meio do experimento. Esse é o famoso Princípio da Incerteza, um dos determinantes fundamentais da Física atual. A aceitação desse princípio significaria que as informações obtidas só poderiam indicar a região do espaço mais provável em que se encontraria o elétron, isto é, a probabilidade orbital, que estaria relacionada com o quadrado do módulo da função de onda associada ao elétron para uma dada energia. A orbital seria, assim, a região mais provável do espaço na qual poderia ser encontrado o elétron. Baseando-se em Heisenberg, o físico alemão Max Born proporia que “se escolhermos conhecer com pouca incerteza a energia de um elétron num átomo, então temos que aceitar a correspondente grande incerteza sobre a sua posição no espaço em relação ao átomo”, e vice-versa. O modelo deixaria de ser determinístico para ser probabilístico, estatístico. O modelo quântico atual mantém as sete regiões de níveis de energia, ou camadas eletrônicas, que para os 92 elementos químicos existentes são K (2 elétrons), L (8), M (18), N (32), O (32), P (18) e Q (2); os quatro subníveis de energia (s, p, d, f) estão dentro das camadas, cada com um número máximo de elétrons (s- 2, p- 6, d-19, f- 14). 197 CARLOS AUGUSTO DE PROENÇA ROSA DISTRIBUIÇÃO ELETRÔNICA POR ORDEM GEOMÉTRICA SUBNÍVEIS CAMADASELÉTRONS 1s2 K2 2 6 2s , 2p L 8 3s2, 3p6, 3d10 M 18 4s2, 4p, 4d10, 4f14 N 32 5s2, 5p6, 5d10, 5f14 O 32 6s2, 6p6, 6d10 P 18 7s2 Q 2 No desenvolvimento da Mecânica quântica, o matemático e físico inglês Paul Adrien Maurice Dirac (1902-1984) ocupa um lugar especial por suas extraordinárias contribuições. Graduou-se Dirac em Engenharia elétrica e Matemática na Universidade de Bristol, sua cidade natal, e, em 1923, ganhou uma bolsa para pesquisa no St. John’s College, em Cambridge, onde estudou as Teorias atômica e quântica e conheceu Niels Bohr. Sua tese de doutorado em Física, em 1926, foi sobre a Mecânica matricial de Heisenberg. Visitou Göttingen, em Copenhague, e participou, em 1927, da V Conferência de Solvay, em Bruxelas, onde apresentou sua Teoria da transformação, mostrando a equivalência das abordagens de Heisenberg e Schrödinger. Ao aplicar a função de onda da Equação de Schrödinger ao campo eletromagnético, Dirac trouxe o campo de força eletromagnético para o domínio da Mecânica quântica, o que o torna pioneiro no desenvolvimento da Eletrodinâmica quântica. Em 1928, Paul Dirac formularia, com a incorporação de conceitos da Teoria da relatividade (Teoria relativística do elétron), sua famosa equação (Equação de Dirac) para descrever o comportamento do elétron, uma deficiência da Equação de Schrödinger, por não contemplar o spin do elétron, descoberto, em 1925, por Uhlenbeck e Goudsmit. Baseado em sua Equação, chegaria, em 1930, à conclusão de que a emissão beta poderia ser explicada por uma nova partícula subatômica com a mesma massa do elétron, mas com carga positiva equivalente. A proposta da existência de uma antimatéria (no caso um elétron positivo), nova e revolucionária, seria recebida com ceticismo e tida como absurda no meio científico. A Equação de onda de Dirac para o elétron relativístico não só determinava os níveis energéticos, mas também introduzia, automaticamente, o spin do elétron, aperfeiçoando, assim, a Teoria ondulatória não relativística do elétron com spin, de Wolfgang Pauli82. Pouco depois (1932), no entanto, o pósitron seria descoberto 82 SCHENBERG, Mario. Pensando a Física. 198 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO por Carl Anderson (1905-1991), em sua pesquisa de raios cósmicos, confirmando, assim, a previsão de Dirac. Por seu trabalho, que, aplicável a todas as partículas, acrescentou uma nova dimensão de matéria, a antimatéria, ao Universo, Dirac dividiria com Schrödinger o Prêmio Nobel de Física de 1933 e a Medalha Max Planck de 1952. Dirac é autor das importantes obras Quantum Theory of the Electron (1928) e Principles of Quantum Mechanics (1930), além de ter escrito muitos artigos e proferido conferências sobre Mecânica quântica, Relatividade, Cosmologia. Foi professor de Matemática da Universidade de Cambridge de 1932 a 1969, e, em 1971, assumiu a cátedra de Física da Universidade do Estado da Flórida. 7.4.4.4 Controvérsia Einstein-Bohr. O Paradoxo EPR Uma das mais famosas e longas controvérsias científicas seria travada, nas décadas de 20, 30 e 40, entre dois campos opostos, surgidos na Física a partir da formulação da chamada interpretação de Copenhague sobre o modelo probabilístico da Mecânica quântica. Foi nesse contexto que Einstein proferiu seu famoso argumento de que “Deus não joga dados”, a que Bohr teria retrucado: “pare de dizer o que Deus pode ou não pode fazer”. Apesar de ter sido um dos responsáveis pelo desenvolvimento e aceitação da Teoria quântica, Einstein não concordava com seu caráter aleatório, e se oporia à interpretação de Heisenberg/Bohr de que a realidade era criada pelo observador. De seu lado, se colocariam, além do próprio criador da Hipótese quântica, Planck, físicos como Marie Curie, Schrödinger, von Laue, Rosen, David Bohm. Em apoio à nova Mecânica, Bohr e Heisenberg contariam com o apoio de Born, Pauli, Dirac, entre outros. Num primeiro momento, a crítica de Einstein se concentraria na acusação de que a interpretação de Copenhague recolocava o Homem no centro do Cosmos, de onde Copérnico o expulsara havia cerca de 500 anos. Nesse sentido, escreveu: “a crença num mundo externo independente da percepção subjetiva é a base de todas as Ciências naturais”. Bohr argumentava que, graças a Einstein, a Ciência adotara a relatividade do Espaço e do Tempo, dependentes do estado de movimento do observador. Nesse sentido, a Mecânica quântica apenas estendeu a realidade à dependência do observador. Forçado a reconhecer que a Mecânica Quântica descrevia corretamente todas as experiências atualmente concebíveis, Einstein passaria a alegar ser ela incompleta, pois só faz previsões estatísticas. A 199 CARLOS AUGUSTO DE PROENÇA ROSA essa crítica, Bohr respondia tratar-se, na verdade, de uma virtude, e não de fraqueza, porque correspondia à indeterminação que existe no mundo. Para mostrar que a Teoria quântica era incompleta, Einstein, em 1935, com a colaboração dos físicos Boris Podolsky (1896-1966) e Nathan Rosen (1909-1995), publicaria um artigo, no Physical Review, intitulado Se a realidade física descrita pela Mecânica Quântica pode ser considerada completa. No artigo, os autores afirmavam que “se, sem perturbar um sistema físico, for possível predizer com certeza (isto é, com a probabilidade igual a um) o valor de uma quantidade física, então existe um elemento de realidade física correspondente a essa quantidade física” e apresentavam um “experimento mental”. Dado que em Mecânica quântica valia a lei da conservação do momento, num sistema de duas partículas, que tivesse seu momento total conhecido, bastaria medir o momento de uma delas para saber o da outra, pois o momento da segunda partícula tem que ser o total menos o momento da primeira partícula. Dessa forma, se for medido o momento da primeira partícula, será conhecido o momento da segunda partícula, que não foi medido. A conclusão é a de que basta fazer uma medição da posição da segunda partícula para que ela tenha momento e posição conhecidos, o que violava o Princípio da Incerteza de Heisenberg. Se as partículas estivessem muito afastadas (uma na Terra e a outra em Andrômeda), ao se medir a posição da partícula na Terra, qualquer informação sobre seu momento seria perdida, bem como a do momento da partícula mais distante, pois a informação não poderia ser instantânea, já que a velocidade máxima no Universo é limitada à da luz83. Bohr refutou o argumento do que seria conhecido como paradoxo EPR (sigla formada pelas iniciais de seus três autores) com seu Princípio da Complementaridade. A questão da transmissão instantânea continuava pendente de solução, pois o fenômeno conhecido como entrelaçamento quântico, previsto pela Mecânica quântica, mostrava que medições realizadas em partes separadas de um sistema quântico se influenciam mutuamente. O assunto evoluiria com o físico irlandês John Stuart Bell (1928-1990), que publicou, em 1964, artigo intitulado Sobre o Paradoxo EPR, com um teorema, argumentando existir uma grandeza que poderia ser medida, uma “desigualdade de Bell” que se fosse comprovada, Einstein estaria certo, e se não fosse, estaria a Mecânica quântica. Experiência levada a cabo pelo jovem físico francês Alain Aspect (1947), em 1982, mostrou que a informação quântica pelo fenômeno do entrelaçamento quântico se propaga instantaneamente, dando, assim, mais uma comprovação experimental à Mecânica quântica. 83 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. 200 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.4.5 Física das Partículas No início do século XX, a única partícula subatômica então conhecida era o elétron, descoberto por J. J. Thomson, em 1897, uma vez que o próton, detectado em 1886, por Eugen Goldstein, só teria sua comprovação, por Rutherford, em 1911. O grande avanço teórico e experimental, aliado ao desenvolvimento de equipamentos de pesquisa, conduziria a importantes descobertas para melhor conhecimento do interior do átomo. Um novo campo de investigação, denominado Física das partículas, dedicada ao estudo dos constituintes mais elementares da matéria e da energia, se abriria na Física, despertando crescente interesse e atividade no meio científico. Uma intensa investigação teórica e experimental se desenvolveria nos anos anteriores à Segunda Guerra Mundial, início de um período fértil em descobertas e avanços tecnológicos, e prosseguiria em diversos centros de pesquisa nas décadas seguintes, o que permitiria, na atualidade, um melhor e mais amplo conhecimento, ainda que incompleto, do complexo mundo subatômico. O entendimento de que os elétrons, os prótons e os nêutrons, descobertos respectivamente em 1897, 1911 e 1932, eram os constituintes elementares, por conseguinte, fundamentais e indivisíveis do átomo, seria profundamente alterado à medida que progrediram os experimentos. Desses, apenas o elétron, que não pode ser subdividido em constituintes menores, continuaria a ser considerado como partícula elementar (do grupo lépton), porém o próton e o nêutron, com massas praticamente iguais e 1.836 vezes maiores que o elétron, perderiam essa condição com a descoberta de serem compostos de partículas mais fundamentais (quarks). Paralelamente ao avanço teórico e experimental quanto às partículas elementares e antipartículas, progrediria, também, o conhecimento a respeito das partículas do campo, intermediárias das quatro interações fundamentais. O desenvolvimento de grandes e poderosas máquinas permitiria, a partir dos anos 50, acelerar partículas a altas energias e realizar colisões de forma controlada. Como as forças da Natureza, conforme o conhecimento atual, são transportadas por partículas (bósons), a Física das partículas compreende o exame das partículas elementares e das interações fundamentais. 7.4.5.1 Desenvolvimento das Pesquisas. Descobertas. Modelos Da primeira fase da Física das partículas devem ser mencionadas algumas contribuições essenciais para seu futuro desenvolvimento. A 201 CARLOS AUGUSTO DE PROENÇA ROSA descoberta, em 1911, pelo físico austríaco Victor Francis Hess (18831964), de que a radiação atmosférica provinha do Espaço cósmico, seria um passo da maior importância para o desenvolvimento da Física nuclear e da Cosmologia, porquanto identificou uma fonte na qual se poderiam pesquisar as partículas subatômicas. O físico americano Robert Andrews Milikan (1868-1953), que receberia o PNF de 1923, por seus trabalhos na determinação da carga do elétron e sobre o efeito fotoelétrico, denominaria de raios cósmicos a mencionada radiação descoberta por Hess. Ao estudar o desvio dos raios cósmicos depois de atravessarem uma câmara de Wilson sob um forte campo magnético, o físico Carl Anderson observaria uma nova partícula subatômica, de carga positiva igual a do próton, massa igual à dos elétrons e tão abundante quanto estes, a que chamou de pósitron, prevista, em 1928, por Dirac. Por essa descoberta, dividiu o Prêmio Nobel de Física de 1936, com Victor Hess. Em 1933, o inglês Patrick Blackett (1897-1974, PNF 1948) e o italiano Giuseppe Occhialini (19071993) comprovariam, experimentalmente, a existência do pósitron, a primeira antipartícula conhecida. O estudo das partículas elementares se iniciou praticamente em 1927 com um equipamento multiplicador de voltagem que o inglês John Douglas Cockcroft (1897-1967) e o irlandês Ernest Thomas Walton (1903-1995) desenvolveram na Universidade de Cambridge para criar voltagens elétricas altíssimas com poder suficiente para acelerar prótons, deixando-os mais energéticos que as partículas alfa existentes na Natureza. Em 1930, conseguiram acelerar prótons que provinham da ionização de átomos de hidrogênio, e, em 1932, anunciaram à Sociedade Real que haviam realizado, no Laboratório Cavendish, a primeira reação nuclear artificial ao bombardearem um núcleo de lítio com um feixe de prótons. Por esse trabalho, os dois físicos britânicos dividiram o Prêmio Nobel de Física de 195184. Grande avanço experimental ocorreria a partir dos primeiros anos 30 com a invenção de aceleradores de partículas, que aceleram a grandes velocidades partículas com carga elétrica. Ao serem aceleradas, sua energia aumenta e as unidades utilizadas para medi-la são indicadas por MeV (milhão de elétron-volts) e GeV (bilhão de elétron-volts). Com um GeV, uma partícula pode percorrer num segundo sete vezes o equador da Terra. Com essas altas energias, adquirem as partículas altíssima velocidade, próxima da velocidade da luz no vácuo. Há dois tipos básicos de acelerador: o linear, em que a partícula segue uma trajetória 84 BASSALO, José Maria Filardo. Nascimentos da Física. 202 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO reta, onde a energia final obtida é proporcional à soma das diferenças de potencial geradas pelos mecanismos de aceleração dispostos na trajetória da partícula; e o cíclico, no qual a trajetória curva da partícula é causada pela ação dos campos magnéticos em espiral ou circular. O cíclotron e o síncroton são os tipos mais utilizados de aceleradores cíclicos, sendo que os síncrotons de prótons chegam a atingir a energia de 800 GeV, enquanto o síncroton de elétron atinge no máximo 12 GeV de energia. Nos EUA, em 1931, os físicos Ernest Orlando Lawrence (1901-1958) e Milton Stanley Livingston (1905-1986), em artigos no Physical Review, descreveram experiências realizadas com o cíclotron, um tipo de acelerador circular que haviam construído, tendo obtido, na primeira experiência, a aceleração de moléculas de hidrogênio com a energia de 80 mil elétron-volts, na segunda, produziram prótons de 1 MeV (10 6 elétron-volts) e na terceira prótons de 1.22 MeV. Pela invenção do cíclotron, Lawrence recebeu o Prêmio Nobel de Física de 1939. O cíclotron, mais eficiente que o equipamento de Cockroft, seria o aparelho responsável pelo extraordinário progresso nas pesquisas futuras a respeito das partículas subatômicas, até então limitadas à análise das reações provocadas pelos raios cósmicos. Assim foram descobertos, por exemplo, o pósitron e o méson-pi. Os detectores da época eram câmaras de nuvens ou câmaras de Wilson, que registravam o vapor condensado provocado pela partícula eletricamente carregada ao passar dentro dela. Em 1932, James Chadwick descobriria o nêutron, que com o próton forma o núcleo do átomo. Wolfgang Pauli, em 1930, sugerira que, durante o decaimento beta (quando um isótopo instável de algum elemento emite um elétron e se transforma em outro elemento), outra partícula seria emitida, a qual teria a energia que desaparecera durante o decaimento. A essa partícula, sem carga elétrica e sem massa, mas com spin suficiente para produzir a partícula beta, Enrico Fermi chamou de neutrino, que só viria a ser observada, pela primeira vez, em 1956, por Frederick Reines (1918-1998), que, por essa descoberta, dividiu o PNF de 1995 com Martin Perl, que descobrira, em 1975, a partícula tao (lépton). Em 1937, Carl Anderson (que, em 1932, descobrira o pósitron) e Seth Neddermeyer (1907-1988) anunciaram no Physical Review a descoberta de partícula fortemente ionizada e com a massa prevista por Hideki Yukawa, em 1935. Essa partícula (méson) é hoje chamada μ múon. A existência do méson p (Pi), prevista por Yukawa, extremamente instável, que se transforma em partículas mais leves (uma delas o múon), 203 CARLOS AUGUSTO DE PROENÇA ROSA mais pesado, porém, que o elétron e de vida média muito curta, seria confirmada, em 1947, pelo inglês Cecil Powell (1903-1969), que receberia o PNF de Física de 1950 por essa descoberta e pelos aperfeiçoamentos do método fotográfico nos processos nucleares. Desse experimento participaram César Lattes (1924-2005) e Giuseppe Occhialini. Ainda nos anos 40 e 50, seriam descobertas nos raios cósmicos partículas com massas (méson K e L) e o híperon (bárion, com mais massa que o próton e o nêutron). Em 1956, Frederick Reines detectaria a existência dos neutrinos. A segunda antimatéria, no caso o antipróton, seria detectada, em 1954, por Emilio Segré (1905-1989) e Owen Chamberlain (1920). Ao final da década de 50, eram conhecidas mais de 30 partículas subatômicas de laboratórios, entre elas os méson p (pi), hoje pion, e µ (múon), o méson K (káon), Δ (Delta), Σ (Sigma), Ξ (Xi) e Λ (lambda), os híperons (sigma +,-,0, lambda 0, csi 0) e nos anos 60 mais de 70 partículas, com a inclusão, entre outras, de η (eta), ρ (rô) e Ω (ômega)85. A descoberta de tantas partículas, se positiva e animadora, por um lado, para melhor entendimento da matéria e do átomo, traria, igualmente, problemas, pelo intrigante comportamento contraditório de algumas, como as que se formavam em pares e tinham uma vida ou duração por mais tempo que o previsto, e por isto seriam chamadas de partículas estranhas, como os káons e os híperons. A estranheza (denominação dada por Murray Gell-Mann) foi um fator criado para explicar os resultados peculiares observados nas colisões de partículas subatômicas a velocidade muito alta. Uma segunda fase nas pesquisas da Física das partículas pode ser considerada como inaugurada em meados dos anos 50 com os primeiros estudos sobre a quebra do Princípio da simetria e a formulação de modelos de partículas elementares. A teoria da simetria das partículas elementares, paradigma da Física e da Cosmologia, considera três princípios – de paridade, de carga e de tempo –, que simplificam cálculos matemáticos e geram leis de conservação. O Universo é, contudo, composto, predominantemente, pela matéria, e não por quantidades iguais de matéria e antimatéria, como deve ter ocorrido nos primeiros momentos de sua formação. As observações astronômicas comprovam essa assimetria, que, já nos anos de 1950, os físicos procuravam uma explicação para esse mistério. Um grande avanço teórico se daria em 1956, com a predição de que a lei da preservação da paridade não seria aplicável no mundo subatômico, ou, 85 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. 204 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO em outras palavras, que o Princípio da simetria não seria válido no caso das interações fracas entre as partículas. Essa controvertida proposição de Tsung-Dao Lee (1926), da Universidade de Colúmbia, e Chen-Ning Yang (1922), da Universidade de Princeton, chineses radicados nos EUA, seria confirmada, em 1957, pela física Chien-Shiung Wu (1912), professora da Universidade de Colúmbia. Lee e Yang receberiam o Prêmio Nobel de Física de 1957. Em 1964, os físicos americanos James Watson Cronin (1931) e Val Logsdon Fitch (1923) descobririam “violações dos princípios fundamentais de simetria no decaimento do méson-k neutro”, o que lhes daria o PNF de 1980. Os físicos japoneses Yoichiro Nambu (1921), por descobrir o mecanismo da quebra espontânea da simetria, e Makoto Kobayashi (1944) e Toshihide Maskawa (1940), pela descoberta da origem da quebra da simetria, a qual prevê a existência de pelo menos três famílias, ou gerações, de quarks na Natureza, receberam o PNF de 2008. Para a situação criada nos anos 1950 e 60, Enrico Fermi chamaria de um verdadeiro zoológico de partículas. Cresceria na comunidade científica a compreensão da necessidade de se organizar o complexo e vasto campo das partículas subatômicas, pelo que muitos pesquisadores se dedicariam à tarefa de procurar partículas ainda mais fundamentais e a criar modelos para organizá-las. Dos vários modelos criados, como o Modelo de dois mésons, de Shoichi Sakata e Mitsui Taketana, de 1942; o Modelo de Sakata, de 1956; o Modelo de Fermi-Yang, da violação da paridade; o Modelo de Partons (partículas que constituiriam os hádrons), de autoria de Feymann, em 1969. O de maior sucesso foi o de Gell-Mann, chamado de Modelo dos quarks e glúon (1964). O neutrino múon seria descoberto por Leon Lederman (1922), em 1962, pelo que receberia o PNF de 1988, juntamente com Melvin Schwartz (1932-2006) e Jack Steinberger (1921) 7.4.5.2 Modelo dos Quarks e Glúons. Gell-Mann Nascido em Nova York, em 1929, Murray Gell-Mann foi um menino-prodígio, ingressando, com bolsa integral, aos 14 anos, na Universidade de Yale, onde se doutorou em Física, em 1951, com um trabalho sobre Física nuclear. Por meio de seu professor, Victor Weisskopf (1908-2002), obteve posto no Instituto de Estudos Avançados de Princeton, transferindo-se, no ano seguinte, para a Universidade de Chicago, quando trabalharia com Fermi em Física das partículas. Estudaria, então, as intrigantes partículas que, produzidas pela interação forte, eram desintegradas pela 205 CARLOS AUGUSTO DE PROENÇA ROSA interação fraca; o káon, por exemplo, que deveria ter uma vida de 10-23 segundos, sobrevivia até 10-10 segundos. Gell-Mann proporia (1954) que tais partículas eram produzidas em pares, e as chamou de estranhas86. No ano seguinte, foi nomeado professor na Caltech, onde estabeleceria amizade e colaboração com Feynman. Em 1961, Gell-Mann adotaria a teoria matemática de grupo de transformações, a SU3 (unidade de simetria terciária), como instrumento de classificação das partículas, o que lhe permitiria, como no caso de Mendeleiev com a Tabela periódica dos elementos, classificar as partículas em famílias e prever as ainda não observadas87. Cabe indicar que, de forma independente, na mesma época, o físico israelista Yuval Ne’eman (1925-2006) procedeu a uma classificação idêntica dos hádrons segundo a SU3. Gell-Mann receberia o PNF de 1969 por sua contribuição e descobertas referentes à classificação de partículas elementares. Em 1964, Gell-Mann e George Zweig (1937), de forma independente, propuseram a existência de partículas subatômicas, os verdadeiros “a-tomos” ou partículas fundamentais constitutivas de todas as outras partículas. A elas, daria Gell-Mann o nome de quarks, palavra retirada do romance de James Joyce, Finnegan’s Wake. Na teoria original, todas as partículas conhecidas poderiam ser descritas pela combinação de apenas três quarks: o up (u), o down (d) e o strange (s) para os quais havia os respectivos antiquarks. A grande novidade da proposta era que as cargas elétricas dos quarks não eram inteiras, mas fracionárias, sendo as do “s” e do “d” de -1/3 e a do “u” de 2/3. Três quarks comporiam os bárions: por exemplo, o próton é composto de dois quarks u e um quark d (uud), o que dá uma carga total igual a 1, e o nêutron por dois d e um u (ddu), o que corresponde a uma carga nula88. No intuito de estabelecer ordem no confuso mundo subatômico, Gell-Mann, ainda em 1964, no Schematic Model of Baryons and Mesons, classificaria as partículas pelo peso: as mais leves, como o elétron, foram chamadas de léptons, e as mais pesadas de hádrons que, por sua vez, foram divididas em bárions (prótons, nêutrons, lambdas) e mésons (píons e káons), esses últimos com peso médio. Ainda em 1964, proporia Gell-Mann no The Eightfold Way (Via dos Oito Preceitos) agrupar as partículas em famílias, chamadas “multipletos”, que consistiam de 3 (tripletos), 8, 10 ou 27 partículas com características comportamentais comuns, no caso, as partículas hádrons (bárions e ROSENFELD, Rogério. Feynman & Gell-Mann. BERTHON, Maurice-Edouard. Les Grands Concepts Scientifiques et leur Évolution. 88 CHERMAN, Alexandre. Sobre os Ombros de Gigantes. 86 87 206 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO mésons que interagem fortemente). Gell-Mann utilizaria, para tanto, o grupo SU(3), isto é, unidade simétrica de três dimensões ou simetria terciária89. Os quarks pertencem ao tripleto. Segundo esse modelo, os prótons e os nêutrons seriam constituídos por três quarks e seriam chamados de bárions (pesado, em grego), enquanto as partículas com dois quarks (quark e antiquark), como o píon e o káon, seriam chamados de méson. Os quarks poderiam apresentar-se em três diferentes formas, chamadas de sabores: up (u), down (d) e strange (s), e teriam spin fracionário (1/2). Assim, o próton seria formado por dois quarks up e um down (u, u, d) e o nêutron por dois down e um up (u, d, d). Por serem partículas de spin fracionário, deveriam obedecer ao princípio de exclusão de Pauli, segundo o qual “duas partículas iguais não podem ocupar o mesmo estado quântico” (uuu ou ddd), isto é, os três quarks do mesmo sabor não poderiam existir na mesma partícula. Para resolver o problema, os físicos Oscar W. Greenberg e Yoichiro Nambu sugeriram, independentemente, em 1964, que cada sabor dos quarks poderia existir em três estados diferentes ou “cargas cor” (vermelho, verde ou azul). Desta forma, os bárions seriam formados por um quark de cada cor, de tal maneira que o resultado final fosse branco; os mésons, por sua vez, seriam formados por dois quarks, de cores diferentes, que somadas dariam branco. Os quarks da mesma cor se repelem, e os de cores diferentes se atraem. Essa interação entre as cores se daria por meio de uma nova partícula chamada de glúon (do inglês glue, para cola), responsável pela união dos quarks, que formam os prótons e os nêutrons. Desta forma, o glúon seria o mediador da força forte entre os quarks, devido à carga cor, e seu papel na interação forte seria fazer a troca de cores entre os quarks, mantendo-os unidos. De acordo ainda com o Modelo dos quarks/glúons, a partícula mediadora glúon não teria carga elétrica, teria spin inteiro (1) e seria bicolor (cor e anticor); as anticores seriam: ciano (antivermelho), magenta (antiverde) e amarelo (antiazul). Conforme os aceleradores tiveram aumentado seu poder de aceleração, começariam a surgir as partículas previstas no modelo teórico de Gell-Mann. Um quarto quark, de letra c, denominado “charm”, foi proposto, em 1967, por Sheldon Glashow (1932), e descoberto experimental e independentemente por Samuel Chao Chung Tin (1936) e por Burton Richter (1931), em 1974, os quais receberiam o PNF de 1977; o quinto quark foi identificado por Leon Lederman (1922), em 1977, conhecido como “bottom” (b), e o sexto quark foi descoberto em 1994, pela equipe da Fermilab, e tem o nome de “top” (t). 89 COTARDIÈRE, Philippe de la. Histoire des Sciences. 207 CARLOS AUGUSTO DE PROENÇA ROSA Quanto aos léptons, há seis: elétron e neutrino, da 1ª geração; múon (descoberto em 1937, por Anderson e Neddermeyer) e seu neutrino, descoberto em 1962, por Leon Lederman, Melvin Schwartz e Jack Steinberger, da 2ª geração; e tau (descoberto por Martin Perl (1927), em 1975), e seu neutrino detectado em 2000, por uma equipe da Fermilab, da 3ª geração. Assim, no início de 1980, era conhecida a listagem completa das partículas elementares da matéria, ainda que várias não tivessem sido detectadas, mas previstas no modelo teórico originalmente sugerido por Gell-Mann. 7.4.5.3 Interações Fundamentais Até muito recentemente, só se conheciam duas forças da Natureza, a da gravidade e a eletromagnética. Com o desenvolvimento da Física das partículas, mais duas forças, no âmbito do núcleo do átomo, seriam descobertas. A Física atualmente, portanto, na descrição dos fenômenos, em termos de seus componentes microscópios básicos e suas interações mútuas, reconhece haver, na Natureza, quatro forças fundamentais, hoje denominadas de interação: Interação gravitacional – a Teoria clássica da gravitação é a Lei de Newton, da gravitação universal, generalizada por Einstein na Teoria geral da relatividade, segundo a qual ela é consequência da curvatura do Espaço causada pelas massas, o que altera as geodésicas do Espaço-Tempo, modificando a trajetória de corpos maciços e desviando os raios luminosos. Esta interação é responsável pelas grandes estruturas, como as galáxias, as estrelas e os planetas, e pelo movimento dos corpos celestes no Universo. Sendo a de intensidade relativa mais fraca, a interação gravitacional é de longo alcance e perde intensidade quanto maior for a distância entre os corpos; age em todos os corpos com massa (ou energia), ou seja, todos os corpos com massa experimentam a ação gravitacional, mesmo quando ela é muito fraca, isto é, quando a energia cinética da partícula for maior que sua energia potencial gravitacional. Segundo Einstein, a força gravitacional não é transmitida instantaneamente, mas à velocidade da luz. Sua partícula mediadora seria o gráviton, ainda não detectado experimentalmente, e cuja própria existência é puramente teórica90. Não existe uma formulação quântica da força gravitacional. Interação eletromagnética – resulta da ação das atrações e repulsões elétricas e magnéticas, ou seja, os fenômenos elétricos e 90 COTARDIÈRE, Philippe de la. Histoire des Sciences. 208 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO magnéticos estudados na Física clássica pela Eletrodinâmica de James Clerk Maxwell; somente as partículas que possuem carga elétrica têm este tipo de interação. Está presente na formação das moléculas. Sua intensidade depende da carga das partículas, e, como a gravitacional, é de longo alcance e perde força à medida que as partículas se distanciam. A interação eletromagnética envolve diretamente todas as partículas contendo carga. A força eletromagnética é cerca de 1041 vezes maior que a força da gravidade. A partícula mediadora desta interação é o fóton (um bóson); sua existência foi proposta por Einstein, em 1905, quando apresentou sua explicação do efeito fotoelétrico. Interação fraca – A Teoria de Fermi (1933) sobre a produção da partícula beta (o elétron) foi pioneira para a futura compreensão da interação fraca. Uma explicação para o processo de decaimento radioativo e de partículas nucleares, como o píon, o múon e várias partículas denominadas estranhas, seria estudada na década de 1950 por Chen Ning Yang, Tsung-Dao Lee, Feynman e Gell-Mann, entre outros. A chamada interação fraca, ou força nuclear fraca, age no interior do núcleo atômico sobre as partículas fundamentais (léptons e quarks) e é responsável pela transformação espontânea de um nêutron num próton e de um próton em nêutron. É mediada pelos bósons fracos W+, W- e Z0, descobertos, em 1983, com a participação decisiva de Simon van der Meer (1925) e Carlo Rubbia (1934), que receberiam o PNF de 1984; na pesquisa, fora utilizado o Super Próton Síncroton da CERN. Os neutrinos não possuem carga elétrica, mas possuem massa de valor inferior a 2,2 ev, de acordo com experimento Mainz (2000), e são apenas afetados pela interação fraca e pela força da gravidade. Interação forte – responsável pela coesão do núcleo atômico. Intrigava a comunidade científica saber como se mantinha a coesão do núcleo, já que os prótons, sendo positivos, deveriam se repelir, e os nêutrons estão imunes à força eletromagnética; dessa forma, deveria haver alguma força, no interior do átomo, que impediria o esfacelamento do seu núcleo. Em 1935, Yukawa sugeriria que, como a interação eletromagnética se passa pela troca de fótons entre as partículas com carga elétrica, o mesmo deveria ocorrer entre prótons e nêutrons, a fim de assegurar a estabilidade do núcleo; a proposta de Yukawa incluía uma partícula, o méson, que agiria como o intermediário da força aglutinadora, capaz de superar a força repulsiva coulombiana, e deveria ter uma massa 200 vezes maior que a do elétron. A teoria física associada à interação forte é a Cromodinâmica quântica. Interação atrativa, de curto alcance, descoberta em 1979, atua, por meio de sua partícula transportadora, o glúon, 209 CARLOS AUGUSTO DE PROENÇA ROSA no sentido de manter os quarks coesos, ou seja, a força forte ocorre através da troca de glúons entre quarks em diferentes prótons e nêutrons. Sua duração é extremamente curta, da ordem de 10-24 segundo. 7.4.5.4 Eletrodinâmica Quântica A Eletrodinâmica quântica (EDQ) descreve os fenômenos envolvendo partículas eletricamente carregadas interagindo por meio da interação (força) eletromagnética, ou seja, é a Teoria quântica do campo eletromagnético pela aplicação da Mecânica quântica e da relatividade. Em outras palavras, a EDQ é a teoria dos elétrons e dos fótons (partícula mediadora que transporta a força eletromagnética), isto é, descreve a interação entre a radiação eletromagnética e a matéria, estuda a emissão e a absorção de fótons pelos átomos e a sua interação com os elétrons e outras partículas fundamentais. Dirac, ao aplicar a Teoria da relatividade restrita ao elétron, seria pioneiro da Eletrodinâmica quântica e referência para os trabalhos futuros nessa área. A Equação de onda de Dirac continha, no entanto, parâmetros infinitos, devido a que o elétron em movimento emitia um campo eletromagnético que interagia com seu próprio campo. Essa autointeração infinita levava a uma situação tida como catastrófica no plano matemático, pois significava que essa interação, por contribuir para a massa e a carga elétrica do elétron, tornava-as quantidades infinitas, o que era um absurdo. Esse problema impediria o desenvolvimento da EDQ até o final da Segunda Guerra, quando seria encontrada a maneira de contorná-lo, mas não de resolvê-lo. A solução foi a utilização de um artifício, chamado de “renormalização”, apresentado por Victor Frederick Weisskopf (1908-2003, MMP-1956) e Hendrik Kramers (1894-1952), que consistia em modificar os valores de referência para eliminar os infinitos91. Em 1943, o físico japonês Sin-Itiro Tomonaga (1906-1979, PNF1965) considerou que a força eletromagnética transportada por fótons era proporcional ao inverso do quadrado da distância, o que significava que no próprio elétron a força eletromagnética deveria ser infinita. Tomonaga aplicaria o chamado método da renormalização para evitar o surgimento dessas quantidades infinitas. Escrito em japonês e durante a Guerra, o artigo não teve repercussão no meio científico92, vindo a ser conhecido quando publicado, em 1948, no Physical Review 74. Nos EUA, Julian 91 92 BIEZUNSKI, Michel. Histoire de la Physique Moderne. CHERMAN, Alexandre. Sobre os Ombros de Gigantes. 210 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Schwinger (1918-1994, PNF-1965) chegaria ao mesmo resultado com o mesmo método empregado por Tomonaga. O trabalho de maior impacto sobre o assunto, e considerado, pela inovação, como marco inicial da Eletrodinâmica quântica, se deve a Richard Feynman (1918-1988). Formado pelo MIT, em 1939, com a tese Forças e Tensões nas Moléculas, transferiu-se para Princeton, onde estudou com John Wheeler (1911), doutorando-se, em 1942, com o trabalho O Princípio da Menor Ação na Mecânica Quântica. Durante a Segunda Guerra Mundial, trabalhou no Projeto Manhattan, no Laboratório de Los Alamos, com Hans Bethe, e, em 1945, foi designado professor assistente na Universidade de Cornell, voltando, então, a estudar os problemas decorrentes das quantidades infinitas na EDQ. Em artigos de 1948, publicados no Reviews of Modern Physics 20 e no Physical Review 74, Feynman apresentou sua famosa série de diagramas que tornavam possível seguir os elétrons e os fótons, e a absorção ou emissão desses por aqueles. Em 1965, juntamente com Tomonaga e Schwinger, receberia Feynman o Prêmio Nobel de Física. Em seu período no Instituto de Tecnologia da Califórnia (Caltech), desenvolveria, com Murray Gell-Mann, a Teoria geral da interação fraca, publicada, em 1968, com o título de Teoria da Interação de Fermi, e contribuiria, igualmente, para a Teoria da cromodinâmica quântica (CDQ), desenvolvida por Gell-Mann para descrever a força forte e explicar a estrutura interna das partículas elementares. Seu Curso de Introdução à Física, na Caltech, seria publicado, em 1963, com o título de Feynman Lectures on Physics, que obteria grande sucesso, seguido, em 1965, de As Características da Lei Física. Em 1986, participou da Comissão Rogers, encarregada do inquérito para apurar as causas do desastre do ônibus espacial Challenger, quando seus seis tripulantes morreram. Feynman manteve muitos vínculos com o Brasil, tendo trabalhado por seis semanas, em 1949, no Centro Brasileiro de Pesquisas Físicas (CBPF), no Rio de Janeiro, retornando, em 1951, para um período de 10 meses, a convite do Professor Leite Lopes. Voltou ao Brasil em 1953, e colaborou, com doações, para a reconstrução da biblioteca do CBPF, gravemente afetada pelo incêndio de 195993. Sendo a Mecânica quântica probabilística, na qual não existe certeza absoluta simultaneamente da posição e do momento linear de objetos, a Equação de Schrödinger descreve a probabilidade, após um certo tempo, da ocorrência de um estado final como resultado de um dado estado inicial. Em sua tese de 1942, Feynman sugeriria o princípio da ação mínima quântica pela “soma ponderada de todos os possíveis caminhos, 93 ROSENFELD, Rogério. Feynman & Gell-Mann. 211 CARLOS AUGUSTO DE PROENÇA ROSA ou seja, cada caminho contribui com um peso determinado, tendo certa probabilidade de ser o escolhido pelo sistema”. Esse método ficou conhecido como “integral de caminho” e é empregado em várias áreas da Física. De regresso à vida acadêmica, após a Guerra, Feynman se ocuparia, entre outros assuntos, com a questão das quantidades infinitas decorrentes da teoria de Dirac. Feynman desenvolveria um método para redefinir massa e carga das partículas com a eliminação dos infinitos, preservando, ao mesmo tempo, as equações. O obstáculo da renormalização seria superado pelos famosos diagramas de Feynman, cujo método de cálculo é fácil de usar e permite calcular a probabilidade do evento quântico por meio de gráficos simples, forma de representar o que acontece quando elétrons, fótons e outras partículas interagem entre si. Segundo a EDQ, as forças eletromagnéticas entre dois elétrons surgem pela emissão de um fóton por um dos elétrons e a sua absorção por outro elétron. Se o elétron emite ou absorve um fóton, estaria, no entanto, contrariando o princípio da conservação da energia ou do momento. Graças ao Princípio da Incerteza, de Heisenberg, no mundo de escala subatômica, o princípio da conservação de energia pode ser violado para pequenos intervalos de tempo, em que o “sistema” toma emprestada energia para o elétron emitir um fóton que é devolvido quando o outro elétron absorve o fóton. Trata-se, assim, de uma troca virtual de um fóton entre elétrons. Nesse processo de espalhamento de elétrons, ocorrem mudanças na trajetória dos elétrons pela simples troca virtual de um fóton. O fenômeno é representado no diagrama de Feynman, no qual as partículas (elétrons) estão nas linhas retas e os fótons nas linhas sinuosas. Cada elemento do diagrama corresponde a uma fórmula matemática, o que permite calcular as probabilidades de ângulos de desvios possíveis. Em 1949, o físico americano Freeman Dyson (1923, MMP-1969) mostraria que os três métodos (Tomonaga, Schwinger e Feynman) eram equivalentes. Em 1965, Tomonaga, Schwinger e Feymann dividiriam o PNF por suas contribuições para a formulação da Teoria da eletrodinâmica quântica. 7.4.5.5 Flavourdinâmica ou Teoria da Interação Eletrofraca A força fraca é a que explica o processo de decaimento radioativo, como os decaimentos beta, nuclear, do múon, do píon e de várias partículas “estranhas” (S). A força fraca, por estar restrita ao átomo, não era conhecida nem contemplada pela Física clássica, sendo sua 212 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO formulação exclusivamente quântica. A primeira teoria das interações fracas foi apresentada por Enrico Fermi, em 1933, que constatara que os núcleos que decaiam com emissão beta tinham vida longa, o que significaria uma interação de pequena intensidade, requerendo muito tempo para sua desintegração. A essa interação, Fermi daria o nome de força fraca, a qual atua a distâncias extremamente pequenas, de 10-18 m. As pesquisas de Fermi seriam aperfeiçoadas nos anos 50 e 60, por Lee, Yang, Feymann e Gell-Mann. Esses dois últimos físicos mencionados escreveriam, em 1968, A Teoria da Interação de Fermi, em que exporiam sua Teoria geral da interação fraca. Os neutrinos (do elétron, do múon e do tau), cuja existência fora prevista por Pauli, mas detectados em 1956, sofrem apenas interações fracas e gravíticas. Os físicos Steven Weinberg (1933), Sheldon Glashow (1932) e Abdus Salam (1926-1996) receberiam o PNF de 1979 por terem elaborado uma Teoria de gauge não abeliana que previa a existência das partículas mediadoras (bósons) da interação fraca. Se confirmada, as interações eletromagnéticas e fracas poderiam ser consideradas como uma única força, denominada interação eletrofraca94. A descoberta, em 1983, por uma equipe do CERN, dos bósons W +, W- e Z0 (de carga zero), partículas mediadoras da interação fraca, que possuem massa muito maior que os fótons, reforçaria, no meio científico, a teoria da interação eletrofraca. No particular, vale recordar que o físico brasileiro José Leite Lopes (1918-2006), em artigo de 1958, no Physical Review, previu a existência de tais bósons intermediários. O PNF de 1999 seria concedido aos físicos Gerardus‘t Hooft (1946), da Universidade de Utrecht, e a Martinus J. G. Veltman (1931), da Universidade de Michigan, por elucidar a estrutura quântica da interação eletrofraca, ao demonstrar que a teoria era renormalizável. Os físicos Carlo Rubbia e Simon van der Meer receberiam o PNF de 1984 por suas contribuições que levariam à descoberta das partículas de campo W e Z, transportadoras da interação eletrofraca. 7.4.5.6 Cromodinâmica Quântica A Cromodinâmica quântica (CRQ), parte importante e integrante, do modelo padrão da física das partículas elementares, é a teoria que trata da interação nuclear forte, isto é, a força que mantém o núcleo do átomo unido, responsável, portanto, por sua estabilidade. Embora a mais forte das interações fundamentais, ela só age no núcleo atômico. 94 BIEZUNSKI, Michel. Histoire de la Physique Moderne. 213 CARLOS AUGUSTO DE PROENÇA ROSA Os mediadores da força nuclear forte são os glúons, partículas (bósons) sem massa que interagem com os quarks mantendo-os coesos para formarem os hádrons. Essas partículas elementares foram sugeridas por Gell-Mann em seu modelo dos quarks e glúons, de 1964. Na teoria da interação forte, a chamada carga de cor dos quarks e dos glúons tem o mesmo papel que a carga elétrica na interação eletromagnética. Diante do grande progresso nas pesquisas com os aceleradores de partículas, nos anos 60 (descoberta de quarks, em 1967), que corroborariam anteriores evidências de subpartículas atômicas, cientistas se dedicariam a formular uma Teoria quântica de campo da interação forte, a exemplo da Eletrodinâmica quântica para a força eletromagnética. Em 1973, David Gross (1941) e Frank Wilczek (1951), de Princeton, e David Politzer (1949), de Harvard, laureados com o PNF de 2004, anunciariam uma descoberta que permitiria calcular a forte interação entre os quarks. De acordo com a teoria, os glúons interagem com os quarks, mas também, o que é surpreendente, entre eles. A Teoria da cromodinâmica quântica mostra que, quanto mais próximos se encontram os quarks uns dos outros, mais fraca é a interação entre eles. Os quarks chegam mais perto uns dos outros quando a energia aumenta, enquanto a força da interação decresce com a energia, permitindo que os quarks se comportem como partículas livres; a isso se dá o nome de liberdade assintótica. Em contraposição, a força da interação aumenta com a distância, o que impede ao quark de ser expulso do núcleo atômico ou de qualquer hádron. A formulação de Gross, Wilczek e Politzer teria confirmação experimental e daria fundamentação Teórica à cromodinâmica quântica. 7.4.5.7 Unificação das Interações O matemático e físico escocês James Clerk Maxwell (1831-1879) estudaria, a partir de 1864, a teoria de Faraday sobre magnetismo e elaboraria equações para descrever os fenômenos elétricos e magnéticos, as quais seriam incorporadas a seu Tratado de Eletricidade e Magnetismo, de 1873. Com sua obra, Maxwell unificaria teoricamente as forças elétricas e magnéticas, como dois diferentes aspectos de um mesmo fenômeno, o Eletromagnetismo. A descoberta experimental, no século XX, do átomo e das forças (fraca e forte) atuantes em seu interior, despertaria a ideia de que seria possível, a exemplo do Eletromagnetismo, unificar as quatro forças fundamentais (interações) numa só teoria. Desde os anos 30, essa seria uma tarefa a que se dedicariam, sem sucesso, vários físicos, 214 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO inclusive Einstein. Com a unificação teórica das forças eletromagnética e fraca na interação eletrofraca, as forças da Natureza passariam a três: a gravitacional, a eletrofraca e a forte, estas duas últimas com formulação quântica. 7.4.5.8 Bóson de Higgs O físico inglês Peter Ware Higgs (1929) propôs, em 1964, a existência de um bóson, o chamado Bóson de Higgs, que teria dado existência a outras partículas, e seria responsável por conferir massa aos bósons mediadores da interação eletrofraca, mas igualmente para explicar a origem da massa das diversas partículas elementares. Em 2009, entrará em funcionamento definitivo o Grande Colisor de Hádrons (LHC – Large Hadron Collider), acelerador de partículas da CERN, localizado em Genebra, com capacidade de gerar energia total de colisão de dois prótons de 14 TeV. Com esse experimento, se espera poder observar traços do Bóson de Higgs, além de dimensões extras e partículas que poderiam constituir a “matéria escura” do Universo. A eventual confirmação da existência do Bóson de Higgs será o teste definitivo da correção da Teoria da interação eletrofraca e do Modelo padrão de partículas elementares. 7.4.5.9 Modelo Padrão das Partículas Elementares O chamado Modelo padrão das partículas fundamentais pode ser considerado como tendo sido, inicialmente, formulado nos anos de 1970 e estabelecido empiricamente nos anos de 1980. A confirmação de uma série de suas previsões daria imensa popularidade e credibilidade no meio científico ao Modelo, sendo, hoje em dia, aceito como válido, apesar de persistirem alguns mistérios, como os da origem das massas das partículas da matéria (léptons e quarks) e a razão de prótons e elétrons terem a mesma carga elétrica. As três forças (eletromagnética, fraca e forte) aplicáveis ao microcosmo são explicadas pelo Modelo padrão, que descreve os quarks, os léptons e os bósons. De acordo com o Modelo, tudo no Universo é resultado da combinação das 12 partículas fundamentais, que, unidas pelas quatro forças fundamentais, formam a matéria. A existência de uma 13ª partícula foi aventada por Higgs, o chamado Bóson de Higgs, em 1964, na Physics 215 CARLOS AUGUSTO DE PROENÇA ROSA Revue Letter 13, 508, para explicar a massa das partículas e, desde então, tem sido pesquisado pelos cientistas sem sucesso. As partículas fundamentais são agrupadas como férmions ou como bósons. Os férmions (léptons e quarks) têm spin semi-inteiro (1/2, 2/3, 5/2...) e obedecem à estatística Fermi-Dirac. A denominação desse grande grupo de partículas foi em homenagem a Enrico Fermi. Os bósons, de spin inteiro (1, 2, 3...), obedecem à estatística Bose-Einstein, e a designação homenageia o físico indiano Satyendra Nath Bose (1894-1974) que, em 1924, demonstrou a fórmula de radiação do corpo negro, de Planck, sem utilizar a estatística de Maxwell-Boltzmann. Consideram-se, no Modelo padrão95, um total de 16 partículas fundamentais, das quais 12 (léptons e quarks) são partículas constitutivas da matéria, e quatro (bósons) são partículas transportadoras das interações fundamentais. Estão elas assim agrupadas: Léptons: elétron, elétron-neutrino, múon, múon-neutrino, tau e tau-neutrino; essas partículas não sofrem a ação da interação forte; o elétron, o múon e o tau têm carga negativa, e os três neutrinos não têm carga elétrica; são partículas que viajam sozinhas; a cada uma dessas partículas corresponde uma antipartícula; os léptons não são influenciados pela interação forte. Quarks: Up (u), Down (d), Charm (c), Strange (s), Botton (b) e Top (t); os quarks u, c e t têm carga elétrica positiva de 2/3, e os demais têm carga negativa de -1/3; estão confinados no interior de partículas maiores, e não são encontradas isoladamente, mas aos pares. Cada quark tem três atributos ou cores (verde, vermelho e azul) e a cada um corresponde um antiquark. Bósons: fóton, glúon, bósons vetoriais intermediários (W e Z) e gráviton. Três quarks formam um bárion (há mais de 120 tipos de bárions; exemplos: próton, nêutron lambda, ômega), e um par de quark/antiquark forma um méson (há mais de 140 tipos; exemplos: píon, káon, eta). Os bárions e os mésons formam o grande grupo de hádrons. Os léptons constituem o outro grande grupo, mas não são formados por quarks, e sim por elétron, múon e tau ou um de seus neutrinos. A cada partícula corresponde outra com a mesma massa e o mesmo spin, mas carga elétrica e números quânticos de sinais opostos, chamada de antipartícula, a qual pode ser produzida em laboratório; assim, por exemplo, ao próton corresponde o antipróton, ao elétron o pósitron e ao méson π (pi) positivo o méson π (pi) negativo. O nêutron e o antinêutron, 95 MARTINS, Jader Benuzzi. A história do átomo de Demócrito aos quark. 216 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO apesar de terem carga nula, possuem outros números quânticos de sinal oposto, mas algumas partículas neutras, como o fóton, são as suas próprias antipartículas. A primeira antimatéria detectada, postulada por Paul Dirac, em 1928, foi o pósitron, em 1932, por Carl Anderson, e a segunda, o antipróton, seria descoberta, em 1954, por Emilio Segré e Owen Chamberlain. 7.5 Química Como ocorrido em outros ramos da Ciência (Astronomia, Física, Biologia, Sociologia, Matemática), a Química seria palco, igualmente, de extraordinário e renovador desenvolvimento teórico e experimental na Época Contemporânea. Novos conceitos, princípios e noções se imporiam para fundamentar as bases teóricas de uma Química em expansão e em grande atividade, em diversos domínios, em boa parte motivada pelas crescentes demandas de uma Sociedade, principalmente a partir da Primeira Guerra Mundial, em processo acelerado de industrialização e urbanização. A imensa contribuição da Química, em particular da Química industrial, ao desenvolvimento econômico e social, como atestam suas aplicações, por exemplo, na Agricultura, na Indústria, na Biologia e na Medicina, teria um imediato reconhecimento popular e determinaria o interesse público e empresarial em seu desenvolvimento e expansão. O surgimento e desenvolvimento das indústrias petroquímica (plástico, borracha sintética), de alimentação, farmacêutica, entre outras, para atender à crescente demanda, comprova a grande contribuição da ciência química ao bem-estar da população. As pesquisas se intensificariam, os laboratórios se multiplicariam, a tecnologia aprimoraria a qualidade dos equipamentos, e a Química alcançaria âmbito mundial, deixando de ser uma atividade científica restrita, como em séculos anteriores, praticamente à Europa. Países como os EUA, Japão, Austrália e Canadá surgiriam, na primeira metade do século XX, com significativas contribuições para o entendimento dos fenômenos químicos, que se estenderia, posteriormente, a outros centros, como a Argentina, Brasil, China, Índia e México. Assim, o fenômeno da internacionalização, ou da globalização, uma das características da Ciência no século XX, estaria presente no processo evolutivo da Química. A significativa herança recebida do século anterior (atomismo, Química Orgânica, estrutura molecular, Tabela periódica dos 217 CARLOS AUGUSTO DE PROENÇA ROSA elementos, Bioquímica, noções de valência e de radical, Físico-Química, Estereoquímica, Análise) não deve, nem pode ser minimizada, uma vez que tão importantes avanços foram fundamentais para o processo evolutivo de compreensão dos fenômenos químicos, e decisivos para a notável expansão de diversos setores da Química. Muitos conceitos e princípios seriam aperfeiçoados, adaptados, expandidos, revistos ou reformulados, mas constituíram um formidável conjunto de conhecimento de uma etapa indispensável e criativa para as inovações teóricas que se seguiram. Dessa forma, as contribuições de um Dalton, Gay-Lussac, Berzelius, Avogadro, Wohler, Liebig, Mendeleiev, Berthelot, Kekulé, Pasteur, Würtz, Van’t Hoff, Emil Fischer, Albrecht Kossel, Arrhenius, Ostwald e Marie Curie, entre tantos outros, foram marcantes e decisivas para firmar, em bases positivas, a independência teórica e experimental da ciência química. Nesse processo de afirmação científica, os estreitos vínculos com outros ramos da Ciência, em especial a Biologia e a Física, se reforçariam em mútuo benefício. Nesse sentido, as descobertas do final do século XIX, dos raios-X, em 1895, por Wilhelm Konrad Roentgen, da radioatividade, em 1896, por Henri Becquerel e pelo casal Curie, em 1898, do elétron, por J. J. Thomson, em 1897, do ácido nucleico, em 1869, por Johann Friedrich Miescher, e da fermentação como agente do processo químico intracelular, em 1896, por Eduard Buchner, seriam da maior importância, pela contribuição para o desenvolvimento da Química atual. A Bioquímica, por outro lado, se caracterizaria como o elo da progressiva aproximação entre os campos da Química, da Biologia e da Medicina, e se transformou num dos ramos mais dinâmicos na atualidade. Contribuições importantes da Química podem ser assinaladas nos campos da Geologia, Climatologia, Arqueologia, Paleontologia e Meio Ambiente; a concessão do Prêmio Nobel de Química (PNQ) de 1998 a Paul Crutzen, Mario Molina e Franklin Rowland, por seus trabalhos sobre a camada de ozônio, é um excelente exemplo da expansão e diversificação das áreas de atividade da Química. Uma teoria do âmbito da Física e da Química seria, contudo, a principal responsável pelo desenvolvimento e caráter revolucionário da Química no século XX. A conhecida Teoria quântica, formulada pelo físico alemão Max Planck, em 1900, em seu trabalho Sobre a teoria da lei da distribuição de energia do espectro contínuo, marca o início de um processo evolutivo da Química, como no caso da Física, com características absolutamente distintas daquelas de séculos anteriores. Seu formidável impacto nas futuras pesquisas nos domínios da Física e da Química, particularmente no que se refere ao atomismo, seria crescente e amplo, ao longo do século XX, dando nascimento à Química moderna. 218 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Como Ciência dedicada ao estudo da estrutura, composição, propriedades e transformações da matéria, a aplicação da Teoria quântica à Química resultaria numa nova concepção do átomo, cujos modelos evoluiriam do apresentado por Ernest Rutherford, em 1903 (PNQ de 1908), ao de Niels Bohr, de 1913, e, finalmente, ao da Mecânica quântica (1926/27), representado pelo modelo atômico orbital (Bohr-Born-Schrödinger-Heisenberg-Pauli-Dirac). O desenvolvimento subsequente do conhecimento das partículas atômicas e subatômicas, como o próton, o nêutron e o neutrino; a teoria da antimatéria, de Paul Dirac (1928), confirmada com a descoberta do pósitron (1932); a invenção do acelerador de partículas (cíclotron), por Ernest Orlando Lawrence, em 1931, que permitiria conhecer um grande número de partículas subatômicas (quarks, tau, múon); e a formulação do quadro das partículas fundamentais a partir do trabalho de Murray Gell-Mann, de 1964, atestam, além do estreito vínculo da Física e da Química, atuantes em domínios afins, o formidável avanço no conhecimento do mundo subatômico, pelo impacto da Mecânica, da Cromodinâmica e da Eletrodinâmica quânticas. O progresso nas pesquisas na área do átomo permitiria, em curto prazo de tempo, atingir o estágio do desenvolvimento teórico da fissão nuclear, em 1939, com os trabalhos dos químicos Otto Hahn e Fritz Strassmann, e da física Lise Meitner, e o desenvolvimento da bomba atômica (1945), pelo Projeto Manhattan (Enrico Fermi, Robert Oppenheimer, Leo Szilard). A estrutura atômica, como definida no Modelo quântico, serve como instrumento de apoio da descrição dos processos químicos. A Química quântica se vale, assim, das teorias da Mecânica quântica e da Física das partículas para o estudo das propriedades da molécula, isto é, dos elementos e dos compostos químicos, que são, na realidade, a unidade da atividade química. Se à Física das partículas corresponde o estudo das alterações da estrutura nuclear atômica, à Química cabe, fundamentalmente, a análise dos sistemas clássicos de intercâmbios, nos quais existe uma estrita conservação da massa e da energia em perfeitas condições de isolamento. Dado que o desenvolvimento da Teoria quântica e da Teoria atômica foi uma atividade conjunta e compartilhada por físicos e químicos, por dizer respeito a esses dois ramos científicos, esses temas foram tratados na parte deste trabalho sobre a evolução da Física. Adicionalmente ao progresso no domínio quântico e atômico, ocorreria, igualmente, grande atividade investigativa com o objetivo 219 CARLOS AUGUSTO DE PROENÇA ROSA de melhor compreender a molécula, cujo conceito, oriundo de Amedeo Avogadro, e difundido nos anos de 1860 por Stanislao Cannizzaro, permitiria significativo desenvolvimento na chamada Química molecular, em especial em ligações químicas e estereoquímicas, além dos atuais conceitos de ácidos e bases. Paralelamente aos avanços investigativos quanto à estrutura, composição, propriedade e transformações do átomo e da molécula, prosseguiriam as pesquisas em relação aos elementos e ao preenchimento da Tabela periódica dos elementos, completada com o total de noventa e dois (92) elementos naturais, em ordem segundo seus respectivos pesos atômicos, como proposto por Henry Moseley. Fundamental nesse domínio para o futuro desenvolvimento da Química seria a descoberta, em 1913, do isótopo, denominação dada por Frederick Soddy para indicar átomos de um mesmo elemento, cujo núcleo atômico possui o mesmo número de prótons, mas diferente número de nêutrons. A partir de 1940 seriam sintetizados os chamados elementos transurânicos, até agora num total de vinte (20), incorporados à Tabela periódica, e criados em laboratórios dos EUA, Rússia e Alemanha. No exame da Química atual, merece especial referência o progresso realizado no importante campo da Síntese orgânica, setor novo, surgido na segunda metade do século XIX, que seria extraordinário motor na busca de inúmeros compostos, de interesse para a moderna Sociedade humana, como a preparação, em grande escala, de substâncias para fins terapêuticos; para tanto, seriam inventados diversos tipos de reações químicas, como hidrogenação catalítica, salificação, hidrólise, esterificação e halogenação. Nesse processo, as enzimas, proteínas catalisadoras, se tornaram uma das melhores opções em reações (oxidação, condensação, redução, síntese, hidrólise) para a realização da Síntese orgânica. A Bioquímica, nascida no século XX, se tornou, rapidamente, um dos setores científicos mais ativos e dinâmicos, por sua contribuição para o conhecimento da química dos processos biológicos. Estreitamente vinculada com a Biologia molecular, a Genética, a Química Orgânica e a Físico-Química, a Bioquímica seria fundamental para a expansão e o aprofundamento dos estudos e pesquisas sobre os compostos químicos e as reações químicas e das interações químicas nos organismos vivos. A evolução da Química na atualidade pode ser dividida em duas grandes fases: uma que se iniciou com a formulação da Teoria quântica, e terminaria com a obtenção teórica da fissão nuclear e a explosão da bomba atômica; e uma segunda, que se estenderia desde os anos 50 até os dias atuais. A primeira fase seria nitidamente europeia, com a Alemanha na liderança incontestável dos estudos teóricos e das pesquisas laboratoriais, 220 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO posição já alcançada nas últimas décadas do século anterior, devido à proliferação de institutos de pesquisas em diversas cidades e centros universitários; Walther Hermann Nernst, Johann Baeyer, Alfred Werner, Emil Fischer, Wilhelm Ostwald, Eduard Büchner, Otto Wallach, Fritz Haber, Otto Hahn, Albrecht Kossel, Walther Kossel, Willstatter, Adolf Windaus, Heinrich Wieland, Otto Diels e Kurt Alder são alguns dos mais reputados químicos e bioquímicos dessa fase na Alemanha. Na Inglaterra, o Laboratório Cavendish (Cambridge) alcançaria o mais alto nível no campo da pesquisa química, bem como seriam da maior importância os trabalhos desenvolvidos nos centros de investigação em Londres, Manchester e Oxford; as contribuições de Ernest Rutherford, James Dewar, Lord Rayleigh, William Ramsay, Nevil Sidgwick, Francis Aston, Frederick Soddy, Walter Norman Haworth e Henry Moseley, entre outros, demonstram o papel fundamental dos cientistas britânicos nessa fase do desenvolvimento da Química. As Universidades de Leiden, Amsterdã e Delft foram os mais importantes centros irradiadores das pesquisas na Holanda; de longa tradição científica, e com um grande número de figuras proeminentes na história das Ciências, o país continuaria a prestigiar a cultura e a pesquisa, mantendo o alto nível alcançado no passado. Van’t Hoff, primeiro Prêmio Nobel de Química e Peter Debye (PNQ de 1936) são as maiores expressões da Química holandesa dessa fase. A França, cujo maior centro de pesquisa era Paris, teria em Pierre Berthelot, Marie Curie, Louis Chaudonnet, Henri Le Chatelier, Paul Sabatier, François Grignard, André Louis Debierne, Irène e Frédérick Joliot-Curie importantes pioneiros em diversos setores da Química. A Suécia, com Svante Arrhenius, Jorgen Lehmann, Theodor Svedberg (PNQ de 1926), Hans von Euler-Chelpin (PNQ de 1929), Arne Tiselius e Abraham Langlet; a Áustria, com Fritz Feigl, Otto Perutz, Carl Auer von Welsbach, Richard Zsigmondy (PNQ de 1925), Richard Kühn (PNQ de 1938) e Carl Djerassi; e a Bélgica, com Ernest Solvay e Leo Baekeland contribuiriam, igualmente, para o progresso da pesquisa química. A Dinamarca ocupa lugar especial no desenvolvimento da Química, nessa primeira metade do século XX, graças, em parte, às atividades e trabalhos de Niels Bohr, um dos fundadores da Mecânica quântica, e do primeiro modelo quântico de átomo; fundador e diretor do Instituto de Física Teórica, Bohr transformaria Copenhague num dos mais importantes centros científicos da época. Ejnar Hertzsprung, Johannes Nicolaus Brönsted, Sören Sörensen e Henryk Dam (PNFM de 1943) são alguns dos mais proeminentes químicos dinamarqueses dessa fase. 221 CARLOS AUGUSTO DE PROENÇA ROSA A implantação do regime nazista na Alemanha e a Segunda Guerra Mundial seriam fatores determinantes da destruição de centros europeus de investigação e de fuga de cérebros, em especial para os EUA, o que precipitaria a transferência do centro mundial de estudos e pesquisas científicas para esse país. Importante assinalar, porém, que os EUA já investiam, desde o século anterior, na qualidade do Ensino superior, na criação de institutos de pesquisas, na formação de pessoal qualificado, no recrutamento de professores europeus, na especialização, no exterior, de recém-formados, na ampliação e melhoria dos laboratórios, pelo que não se pode creditar unicamente ao ingresso de pesquisadores europeus na comunidade científica estadunidense o formidável progresso da investigação teórica e laboratorial nesse país. Os EUA passariam a contar com um importante número de centros de investigação disseminados em diversas universidades e vários laboratórios de grandes empresas industriais, muitas vezes com apoio financeiro governamental, por meio de programas de pesquisas e bolsas de estudo. Na vanguarda incontestável da pesquisa química, os EUA são, na atualidade, responsáveis pela maior parte do avanço teórico e aplicado no campo da Química. O Japão, a URSS (Rússia) e os países europeus só viriam a se recuperar a partir da década de 70; na América Latina, Brasil, Argentina e México são os países de maior avanço no estudo e na pesquisa química. A concessão do Prêmio Nobel de Química (PNQ), reputado como a mais importante premiação na área científica, é uma evidência das relevantes contribuições de determinado químico ao desenvolvimento da Ciência, e reflete o avanço das pesquisas no respectivo país. Do total de 43 prêmios concedidos na primeira fase (de 1901 a 1945, inclusive), quarenta foram para nacionais de países europeus, o que ilustra a nítida supremacia europeia e alemã: dezessete alemães, seis franceses e britânicos, três suecos e suíços, dois holandeses e um austríaco, húngaro e finlandês; fora da Europa, apenas três norte-americanos foram laureados. O quadro para a segunda fase (de 1946 a 2006) seria completamente diferente do anterior, em que há uma significativa diversificação de nacionais de países contemplados com a premiação, e, ao mesmo tempo, uma extraordinária maioria de premiados de nacionalidade americana: cinquenta e dois americanos, dezoito britânicos, dez alemães, quatro japoneses e quatro canadenses, três suíços, dois franceses e dois israelitas, e um da URSS, Tchecoslováquia, Itália, Noruega, Austrália, Bélgica, Dinamarca, Suécia, Holanda, Egito, Argentina e México, o que significa ter os EUA recebido, nesta segunda fase, quase o mesmo número (52) de Prêmios Nobel de Química concedidos (55) a todos os demais países (19). A atual supremacia americana neste campo é, assim, evidente. 222 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Igualmente prestigiado é o Prêmio Priestley, concedido desde 1923, pela Sociedade Química Americana (ACS), pelas contribuições relevantes à Química por pesquisadores americanos, tendo sido agraciados, entre outros, William Noyes, Melvin Calvin, Harold Urey, Paul Flory, Glenn Seaborg, Robert Mulliken, Linus Pauling, Carl Djerassi, Elias Corey, George Olah e George Whitesides. O reconhecimento da importância da Química nos meios industriais e universitários de um grande número de países explica a expansão e a diversificação, em âmbito mundial, ocorrida principalmente a partir dos anos 70, de instituições nacionais criadas ou reestruturadas com o objetivo de promover as atividades de pesquisas químicas, de difundir estudos e de facilitar a cooperação e o intercâmbio científico. Nesse sentido, associações, sociedades ou institutos, atualmente existentes em quase todos os países, passariam a ter um papel relevante na promoção da Química em seus países. A título exemplificativo podem ser citadas as Sociedades de Química brasileira, chilena, mexicana, americana, argentina, canadense, dinamarquesa, francesa, sueca, alemã, polaca, portuguesa, britânica, russa (Mendeleiev), italiana, espanhola, chinesa, japonesa, tailandesa, coreana, etíope e os Institutos de Química da Irlanda, da África do Sul, da Nova Zelândia e da Austrália. Além das instituições de âmbito nacional, seriam, igualmente, fundadas entidades não governamentais de âmbito mundial, sendo a International Union of Pure and Applied Chemistry (IUPAC) a mais importante. Com o objetivo de contribuir com a aplicação da Química para servir à Humanidade, a IUPAC, fundada em 1919, e membro do Conselho Internacional para a Ciência (ICSU), tem, atualmente, 49 sociedades nacionais aderentes, inclusive a Sociedade Brasileira de Química, e 19 associadas; é o órgão aceito internacionalmente com a autoridade para estabelecer a nomenclatura dos elementos químicos e de seus compostos, por meio de decisão de sua Comissão Interdivisional de Nomenclatura e Símbolos, e para dirimir dúvidas quanto à ortografia dos nomes das substâncias. As regras para a denominação dos compostos orgânicos e inorgânicos constam de duas publicações, chamadas Livro Azul e Livro Vermelho, respectivamente. A IUPAC publica, ainda, o Livro Verde, com recomendações para o uso de símbolos para quantidades físicas, e o Livro de Ouro, com a definição de um grande número de termos técnicos usados em Química. Exemplo de esforço de cooperação e coordenação internacional para o desenvolvimento da Química é a Academia Internacional das Ciências Moleculares Quânticas, fundada, em 1967, na cidade de Menton, pelos 223 CARLOS AUGUSTO DE PROENÇA ROSA professores Raymond Daudet (França), Per Olov Löwdin (Suécia), Robert G. Parr (EUA), John A. Pople (EUA) e Bernard Pullman (França), sob a inspiração e apoio de Louis de Broglie. A Academia escolhe para membro trinta e cinco químicos com idade inferior a 65 anos, e número ilimitado de cientistas idosos, selecionados dentre os que tenham dado valiosa contribuição na aplicação da Mecânica quântica ao estudo das moléculas e macromoléculas. A Academia organiza congressos em Química quântica a cada três anos, que foram sediados em Menton (1973), Nova Orleans (1976), Kyoto (1979), Uppsala (1982), Montreal (1985), Jerusalém (1988), Menton (1991), Praga (1994), Atlanta (1997), Menton (2000), Bonn (2003) e Kyoto (2006); o 13° Congresso será realizado em 2009, em Helsinque. A Academia premia anualmente, com medalha, jovens pesquisadores que se tenham distinguido por suas importantes contribuições; até 2006 já haviam sido agraciados trinta e sete (37) químicos de várias nacionalidades. Dentre os conclaves internacionais para o amplo e profícuo debate científico no campo da Química e da Física devem ser mencionadas as Conferência Solvay, hoje organizadas pelo Instituto Internacional Solvay de Física e de Química, em Bruxelas, cuja primeira Conferência foi realizada em 1911, convocada pelo industrial e químico belga Ernest Solvay (1838-1922). A 1ª Conferência, presidida por Hendrik Lorentz, teve como tema principal “Radiação e os Quanta”; a mais famosa é a 5ª (elétrons e fótons), de 1927; e a mais recente (23ª) foi realizada em Bruxelas, em dezembro de 2005, sobre “A estrutura quântica do Espaço e do Tempo”. Diversas publicações especializadas divulgam semanal, quinzenal ou mensalmente, artigos de elevado nível científico sobre desenvolvimento da pesquisa nos diversos campos da Química. Essa ampla rede de jornais e revistas técnicas tem contribuído para a divulgação dos avanços nas pesquisas dos fenômenos químicos e favorecido a disseminação do conhecimento científico. Do grande número de publicações editadas atualmente nos diversos países, mas com circulação internacional, caberia citar, a título de exemplo, a Chemical Abstracts, a Chemical Reviews e o Journal, publicados pela ACS; a Chemical Science e a New Journal of Chemistry pela RSC do Reino Unido; a Journal of Chemical Research, com o apoio das Sociedades Químicas alemã, francesa e inglesa; a Angewandte Chemie e Chemkon, alemãs; a italiana Annalli di Chimica; a European Journal of Organic Chemistry e a European Journal of Inorganic Chemistry; a suíça Helvetica Chimica Acta; a Canadian Journal of Chemistry; a austríaca Monatshefte für Chemie/Chemical Monthly; a Comptes Rendus de Chimie, da coleção Comptes Rendus, da Academia de Ciências da França; a Annales de 224 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Chimie – Science des Matériaux, o Journal of Chemical Physics, publicado pelo Instituto Americano de Física, e o Journal of Biology Chemical, da Sociedade Americana de Bioquímica e Biologia Molecular; desde 1978, a Sociedade Brasileira de Química publica, numa base bimestral, a revista Química Nova. Na área específica da Bioquímica, podem ser mencionadas duas publicações especializadas de grande renome no meio científico: a centenária Biochemical Journal e o Journal of Biology Chemistry, com artigos de elevado nível científico. A Sociedade Brasileira de Bioquímica e Biologia Molecular (SBBq), que realizou, em maio de 2007, sua 36ª Conferência Anual em Salvador, Bahia, (a anterior foi em Lindoia em julho de 2006), publica a Revista Brasileira de Ensino de Bioquímica e Biologia Molecular, dedicada à publicação de contribuições originais e significativas para o avanço no conhecimento da pesquisa. Apesar do amplo campo de atividade da Química, sua evolução no período será tratada, a seguir, de acordo com as cinco grandes disciplinas (ou ramos) mais características de sua ação na atualidade: Química analítica, Físico-Química, Química inorgânica, Química Orgânica e Bioquímica. 7.5.1 Química Analítica No início do século XX, ainda prevaleciam os procedimentos gravimétricos e volumétricos, os métodos clássicos de pesquisa dos cationtes e aniontes e as técnicas da acidimetria e da alcalimetria desenvolvidos no período anterior para a análise qualitativa e quantitativa de grande número de substâncias minerais; eram empregadas, desde então, com sucesso, técnicas para análise de carbono, hidrogênio, nitrogênio, halogênios e enxofre nos compostos orgânicos96. Os procedimentos analíticos, desenvolvidos empiricamente, e os instrumentais utilizados se mostravam, contudo, inadequados para contribuir com o avanço das pesquisas químicas, como requerido pelos estudos e pela demanda industrial. Tratava-se, na realidade de análise química, correspondente a um conjunto de técnicas com o objetivo de conhecer a composição química de uma substância ou de uma mistura de substâncias. A introdução de técnicas instrumentais com o emprego da eletricidade (potenciometria, polarografia, voltametria, condutometria, coulometria) desde o começo do século XX, contribuiria de maneira decisiva para o extraordinário progresso 96 TATON, René. La Science Contemporaine. 225 CARLOS AUGUSTO DE PROENÇA ROSA na Química analítica; graças, ainda, à Eletroquímica, se desenvolveriam técnicas de microanálise, a cromatografia e a espectografia de massa. A Química analítica, ramo científico, pode ser considerada como surgida na atualidade, com o objetivo de estudar os meios para determinar a composição de uma substância. Inicialmente, deve ser lembrada a pioneira contribuição do químico alemão Karl Remegius Fresenius (1818-1897), autor do manual Anleitung zur qualitativen chemischen Analyse (1841) e do Anleitung zur quantitativen chemischen Analyse (1846), cujo laboratório, fundado em 1848, se converteria, igualmente, em local de ensino e pesquisa para seus estudantes97. Com a publicação, em 1912, de As Bases Científicas da Química Analítica, de autoria de Wilhelm Ostwald, o novo conceito de definição de pH (índice da acidez, neutralidade ou alcalinidade de uma solução; pH é a abreviatura de pondus hidrogenii ou hidrogênio potencial), criado em 1906, pelo bioquímico dinamarquês Sören Sörensen (18681939), e a titulação ácido-base, por Joel Henry Hildebrand (1881-1983), especializado em soluções não eletrolíticas, ainda na primeira década do século, correspondem a marcos importantes e iniciais na evolução da Química analítica. Ganharia relevância e popularidade o método de microanálise quantitativa, com o aperfeiçoamento e disseminação de equipamentos de análise de proporções reduzidas, a partir dos trabalhos do austríaco Friedrich Emich (1860-1940). No campo da microanálise, devem ser ressaltados os trabalhos do austríaco Fritz Feigl (1891-1971), descobridor da “prova de toque” (spot test), residente no Brasil desde 1940, onde viria a falecer, e autor de Spot Tests in Inorganic Analysis, Spot Tests in Organic Analysis e Chemistry of Specific, Selective and Sensitive Reactions (1939), e as pesquisas do esloveno Fritz Pregl (1869-1930), que ganharia o PNQ de 1923 por sua contribuição à microanálise quantitativa orgânica, inclusive pelo aperfeiçoamento da técnica da combustão para a determinação da composição dos compostos químicos. O Prêmio Fritz Pregl seria instituído em 1931, pela Academia de Ciências da Áustria, para ser concedido, anualmente, a cientistas austríacos que se tenham distinguido no campo da Química. Em pouco tempo, estariam difundidos os métodos de microanálise para substâncias orgânicas, devido às vantagens para certas análises de natureza biológica. Os estudos de fenômenos radioativos tornariam indispensável a introdução de métodos analíticos novos, ultramicro, o que redundaria na fabricação de novos instrumentos apropriados. 97 IHDE, Aaron J. The Development of Modern Chemistry. 226 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A Espectrofotometria se desenvolveria a partir dos anos 30, com o abandono dos métodos colorimétricos tradicionais, de natureza empírica, e a difusão do espectrofotômetro; o emprego de células fotoelétricas permitiria medir a intensidade da luz transmitida com uma precisão muito superior àquela do mero exame visual. Pequenos instrumentos permitiriam, igualmente, a utilização de procedimentos além do espectro visual, especialmente o ultravioleta e o infravermelho. O espectroscópio infravermelho seria de especial utilidade para a Química Orgânica e para o estudo dos compostos minerais. A difração dos raios-X seria também um método útil para o estudo das estruturas dos cristais. O físico alemão Max von Laue (1879-1960) estudou nas Universidades de Estrasburgo, Göttingen e Munique, obteve seu doutorado, em 1903, pela Universidade de Berlim, onde ensinou Física teórica de 1919 até 1943, quando se transferiu para Göttingen para assumir a direção do Instituto Max Planck. Estudioso da Teoria da relatividade, seu mais importante trabalho, contudo, foi a descoberta, em 1912, da difração dos raios-X, comprovando sua natureza eletromagnética, o que lhe valeria o PNF de 1914. A nova técnica teria imediata aceitação nos meios científicos, e seria empregada na análise de complexas moléculas orgânicas, uma vez que moléculas grandes apresentavam uma regularidade interna suficiente para difratar os raios-X. Em 1915, William Henry Bragg (1862-1942) construiria o primeiro espectrômetro de raios-X, dando início, com seu filho William Lawrence Bragg (1890-1971), à pesquisa em cristalografia, que lhes valeria o PNF de 1915, ano em que os Bragg introduziriam na análise dos cristais a Análise de Fourier. Novo procedimento com a utilização de pó seria desenvolvido em 1916 e 1917, por Peter Debye e Paul Scherer, em Göttingen, o que permitiria o uso de cristais de mínimas dimensões para difratar os raios-X. Importante contribuição para as pesquisas em macromoléculas, confirmando os trabalhos de Staudinger, seria a invenção e a utilização da ultracentrifugação, em 1924, pelo físico-químico sueco Theodor Svedberg (1884-1971), como nova técnica na investigação do peso molecular de proteínas em solução, bem como a estrutura molecular dos coloides. Recebeu, em 1926, o PNQ por “seus trabalhos em sistemas dispersos”. A bioquímica inglesa, nascida no Cairo, Dorothy Crowfoot Hodgkin (1910-1994), com doutorado pela Universidade de Cambridge, em 1937, sobre a difração dos raios X, ao passar por cristais da enzima digestiva chamada pepsina, se dedicaria em investigar com esta técnica as estruturas orgânicas complexas. Em 1949, publicaria o resultado de suas 227 CARLOS AUGUSTO DE PROENÇA ROSA pesquisas sobre estrutura tridimensional da penicilina, em 1956 esclareceu a estrutura da vitamina B12, e, em 1960, a da insulina. Por seu trabalho pela determinação da estrutura de compostos necessários ao combate de anemia perniciosa, utilizando técnica com os raios-X, Dorothy Hodgkin ganharia o PNQ de 1964. A Espectrometria de massa, que permitia a fotografia dos íons de mesma massa em linha, seria desenvolvida (1919) pelo físico e químico inglês Francis William Aston (1877-1945), com a qual estabeleceria a existência dos dois isótopos do neônio na Natureza, descoberta que lhe valeria o PNQ de 1922, e que seria de grande importância nas pesquisas da Física atômica. Com seu novo espectógrafo, Aston daria valiosa contribuição no campo do peso atômico, ao esclarecer que os isótopos não estariam restritos aos elementos radioativos, mas seriam encontrados em outros elementos da Tabela periódica. O método seria usado nos laboratórios para a identificação de pequenas moléculas, até os trabalhos dos químicos John Fenn (1917) e Koichi Tanaka (1959), que receberiam metade do PNQ de 2002 pelo desenvolvimento do método de espectrografia de massa para macromoléculas, como as proteínas98. A outra metade do PNQ de 2002 seria concedida ao químico suíço Kurt Wuthrich (1938) que desenvolveu o método da ressonância magnética nuclear (NMR) para sua aplicação em macromoléculas. A primeira observação do efeito da ressonância magnética nuclear se deu em 1939 durante os trabalhos de Isidor Isaac Rabi (1898-1988), que receberia o PNF de 1944 pelo “método de registro de propriedades de ressonância magnética de núcleos atômicos”. As investigações seriam retomadas depois da Guerra em alguns centros dos EUA. Por suas pesquisas pioneiras em 1945 e 1946, Félix Bloch (1905-1983), da Universidade de Stanford, e Edward Mills Purcell (1912-1997), da Universidade de Harvard, receberiam o PNF de 1952 “pela medição precisa do magnetismo nuclear e descobertas afins”. Os espectrômetros de NMR surgiriam no mercado a partir de 1953, com elevada resolução e grande sensibilidade. Essa técnica é usada em Medicina e Biologia como meio para formar imagens internas de corpos humanos e animais. O químico suíço Richard Ernst (1933) receberia o PNQ de 1991 por suas contribuições para o desenvolvimento na espectroscopia, em especial da metodologia de resolução da NMR. O tcheco Jaroslav Heyrovsky (1890-1967), professor de Física da Universidade Carlos de Praga, de 1919 a 1954, receberia o Prêmio Nobel de Química de 1959 pela descoberta e desenvolvimento de métodos de 98 Comunicado de Imprensa - Prêmio Nobel de Química de 2002. 228 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO análise polarográficos, que descrevera em 1922. Essa técnica de análise é considerada como uma das mais versáteis e de ampla utilização no meio científico99. No grande avanço de técnicas espectroscópicas ampliadas depois da Segunda Guerra Mundial deve ser registrado o estudo desenvolvido por Gerhard Herzberg (1904-1999), físico e químico-físico, alemão de nascimento que emigrou em 1935 para o Canadá, que lhe permitiria pesquisar a estrutura eletrônica e a geometria das moléculas; por suas contribuições, Herzberg receberia o PNQ de 1971. Herbert Aaron Hauptman (1917), físico-matemático, e Jerome Karle (1918), com doutorado em Química pela Universidade de Michigan, dividiriam o Prêmio Nobel de Química de 1985 pelo “desenvolvimento de excelente método para a determinação direta da estrutura molecular dos cristais”. Os dois trabalharam na elaboração de equações matemáticas para descrever o posicionamento dos numerosos pontos que apareciam nas fotografias devido à refração dos raios X no cristal. Apesar de representar avanço significativo no uso da espectrografia de raios X para estruturas complexas, o método (1949) só viria a ser amplamente utilizado anos depois, com o emprego de computadores para os complexos cálculos matemáticos, e seria de extrema utilidade na determinação da estrutura tridimensional de pequenas moléculas biológicas, inclusive de hormônios, vitaminas e antibióticos. Na década de 80 seria desenvolvida por Ahmed Zewail (PNQ de 1999) a Femtoquímica, técnica de espectroscopia com o laser de rápidos pulsos para exame de ultrarrápidas reações químicas (10-15 de segundo), tema estudado em outro capítulo (Química Orgânica – reações químicas). Essa técnica, que permite estudar as reações químicas em todos os seus detalhes, só pode ser desenvolvida com os lasers de pulsos ultracurtos, de invenção recente. Por seu trabalho pioneiro nessa área, o egípcio naturalizado americano Ahmed Zewail (1946), atualmente no Instituto de Tecnologia da Califórnia e autor de Estudo das fases transitórias e as reações químicas mediante espectroscopia ultrarrápida, ganharia o Prêmio Nobel de Química de 1999. “Por seus estudos sobre os estados de transição das reações químicas com ajuda da espectroscopia de femtossegundos” demonstrou Zewail ser possível mostrar com a técnica de laser rápido o processo dinâmico da reação química. Na espectroscopia de femtossegundo as substâncias originais são misturadas numa câmara de vácuo, incidindo-se, inicialmente, um pulso de laser de maior intensidade, que excita a molécula e a faz atingir um estado maior de energia, e depois outro pulso de laser, menos intenso que 99 IHDE, Aaron J. The Development of Modern Chemistry. 229 CARLOS AUGUSTO DE PROENÇA ROSA o anterior, para detectar a molécula original ou uma forma alterada dela; variando o intervalo de tempo entre os dois pulsos, é possível observar como os átomos de uma molécula se movem durante uma reação química e a rapidez com que a molécula original é transformada. Por essa razão, a Real Academia de Ciência da Suécia descreveu a técnica como “a câmera fotográfica mais rápida do mundo”100. Caberia citar, finalmente, o novo método de análise espectrométrica de massa para macromoléculas biológicas, como a proteína, desenvolvido por Koichi Tanaka (1959) que permite a molécula ser ionizada e vaporizada por irradiação de laser sem infligir qualquer tipo de dano; por essa contribuição, Tanaka dividiria metade do PNQ de 2002 com John Fenn (1917), que desenvolveu processo de investigação e análise estrutural de macromoléculas biológicas; a outra metade do PNQ de 2002 foi concedida a Kurt Wuethrich (1938) pela utilização da ressonância magnética nuclear para melhor detectar a mobilidade das moléculas. A Cromatografia é uma técnica da Química analítica utilizada para a separação de substâncias e misturas; é um método físico-químico de separação. Esta técnica se baseia no princípio da adsorção (tipo de adesão) seletiva e foi descoberta, em 1906, pelo botânico russo Mikhail Tswet (1872-1919), através da separação de pigmentos das plantas (clorofila), adição de extrato de folhas verdes em éter de petróleo, carbonato de cálcio em pó num tubo de vidro vertical; os diversos pigmentos se moviam em taxas de velocidades diferentes pela coluna em função de suas diferentes propriedades adsortivas, deixando marcas coloridas de diferentes tonalidades (cromatogramas). Tswet chegou a encontrar oito diferentes pigmentos, quando até então se pensava existir apenas dois pigmentos de clorofila. Cabe mencionar ter Tswet, em 1901, inventado o papel cromatográfico para a separação dos pigmentos101. Richard Willstatter (1872-1942), químico alemão estudioso da pigmentação das plantas, e, em especial, da clorofila, a partir de 1905, é considerado um pioneiro da Cromatografia; utilizando a técnica desenvolvida por Tswet, constataria Willstatter que a clorofila continha apenas um átomo de magnésio em sua molécula, descoberta que permitiria a Robert Burns Woodward (1917-1979), PNQ de 1965, sintetizar a clorofila (1960). Por seu trabalho sobre a pigmentação de plantas, Willstatter receberia o PNQ de 1915. O bioquímico sueco Arne Tiselius (1902-1971), professor da Universidade de Uppsala, receberia o PNQ de 1948 por suas pesquisas 100 101 Comunicado de Imprensa - PNQ de 1999. IHDE, Aaron J. The Development of Modern Chemistry. 230 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO em Cromatografia de adsorção na separação de proteínas e outras substâncias; a invenção, em 1930, da eletroforese permitiria a separação de partículas em suspensão num campo elétrico102, permitindo grande avanço no estudo dos coloides. Os bioquímicos ingleses Archer Martin (1910-2002) e Richard Synge (1914-1994), em suas pesquisas para a separação de aminoácidos, desenvolveriam, em trabalho conjunto realizado em Leeds, técnica cromatográfica de partição que se tornaria essencial para as pesquisas sobre a estrutura das proteínas; por essa importante contribuição, os dois receberiam o PNQ de 1952103. Estima-se que 60% das análises envolvam a cromatografia, utilizada para a identificação e purificação dos compostos e para a separação dos componentes de uma mistura. Há vários tipos de cromatografia: a gasosa – normalmente com um gás inerte, como hélio, hidrogênio ou azoto, a líquida – com o emprego de líquido de baixa viscosidade, e a supercrítica, normalmente com dióxido de carbono. 7.5.2 Físico-Química A estreita vinculação da Física e da Química, aliada às pesquisas teóricas e experimentais na segunda metade do século XIX em áreas de mútuo interesse como as do calor, energia, eletricidade e mecânica, explicam os progressos atuais ocorridos no setor chamado de Físico-Química. O desenvolvimento da Mecânica quântica a partir dos anos de 1920 e de 1930 na Física viria a contribuir, de maneira decisiva, para o formidável progresso e reorientação das pesquisas dos fenômenos químicos já que seria utilizada em diversas áreas da Química, como estrutura e ligações químicas. Embora seja muito ampla a interface dessas duas Ciências, o desenvolvimento da Físico-Química será examinado nos seguintes tópicos específicos: Termoquímica, Cinética química, Eletroquímica, Ácidos e Bases. Um dos grandes cientistas do final do século XIX e início do século XX foi o químico alemão Friedrich Wilhelm Ostwald (1853-1932), nascido em Riga, na Letônia, tendo exercido os cargos de diretor do Instituto de Físico-Química de Leipzig (1877) e de professor do Instituto Politécnico de Riga (1881-1887) e de Física da Universidade de Leipzig (1887-1906), cujo laboratório se transformou num grande centro de pesquisa para o qual 102 103 IHDE, Aaron J. The Development of Modern Chemistry. Comunicado de Imprensa - PNQ de 1952. 231 CARLOS AUGUSTO DE PROENÇA ROSA convergiam estudantes e muitos qualificados químicos. A partir dessa data (1906), Ostwald se dedicaria exclusivamente a pesquisas químicas e a trabalhos filosóficos. Além de ter criado a primeira publicação especializada (1887) em Físico-Química, intitulada Zeitschrift für physikalische Chemie, Ostwald escreveu, em 1885-87, um manual, em dois volumes, sobre Química geral com o título de Lehrbuch der Allgemeinen Chemie e traduziu para o alemão, em 1892, as obras do matemático e físico americano Josiah Willard Gibbs (1839-1903). Defendeu ardorosamente a “teoria da dissociação eletrolítica” de Svante Arrhenius, contribuindo com estudos sobre as constantes de afinidades de ácidos e bases e sobre a velocidade das reações. Pesquisou a eletrólise e aprofundou as investigações quanto à catálise, processo de aceleração da reação química induzido por substância que não se altera. Por esse trabalho pioneiro sobre catálise, velocidade de reações e equilíbrios químicos, Ostwald seria laureado com o Prêmio Nobel de Química (PNQ) de 1909. Inventou o viscosímetro, ainda utilizado para medir a viscosidade das soluções, e desenvolveu o “processo Ostwald”, patenteado em 1902, de oxidação da amônia para a obtenção do ácido nítrico por meio de catalisador de platina. Por suas inúmeras e importantes contribuições pioneiras em métodos e princípios teóricos na área da Físico-Química, Ostwald é reconhecido como o fundador deste ramo da ciência química. 7.5.2.1 Termoquímica Dada a importância da Termodinâmica para a análise das reações químicas, vários cientistas, já no início do XX, dedicariam estudos sobre a matéria, como Fritz Haber, Van’t Hoff, Richard Abegg, Arnold Eucken, Kammerlingh Onnes, Owen Richardson e Otto Sackur. Para muitos autores, a Termoquímica nasceu a partir dos estudos do físico-químico alemão Walther Hermann Nernst (1864-1941), que estudou nas Universidades de Zurique, Berlim e Graz, e obteve o doutorado em Würzburg, no ano de 1887. Após trabalhar por três anos como assistente de Wilhelm Ostwald em Leipzig (onde conheceu Van’t Hoff e Arrhenius), foi professor de Física e de Química da Universidade de Göttingen de 1891 a 1905, onde fundou o Instituto de Física, Química e Eletroquímica, da Universidade de Berlim e diretor do Instituto de Física-Química desta Universidade (1905/1925). Nernst pesquisou em diversos campos, como a Acústica, Astrofísica, Eletroquímica, Termodinâmica, Termoquímica, Química do estado sólido e Fotoquímica, desenvolveu uma teoria 232 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO osmótica para explicar e determinar o potencial dos eletrólitos de uma pilha de concentração; desenvolveu a Equação Nernst para determinar o equilíbrio da redução de uma meia-célula numa célula eletroquímica; formulou a lei da distribuição de uma matéria entre duas fases; inventou a lâmpada de Nernst, cujo filamento poderia resistir até 1000°C; e escreveu, entre outras obras, em 1893, Theorische Chemie, que durante anos seria um livro de referência, e, em 1918, O Novo Teorema do Calor. Nernst está sepultado próximo a Planck, em Göttingen. Embora tenha Nernst contribuído em diversos campos da Física e da Química, sua fama decorre, principalmente, por seu trabalho em Termoquímica. Em suas pesquisas para prever o curso das reações químicas, Nernst procederia a medições de calores específicos e de calores da reação, em particular de calores específicos de sólidos a muito baixas temperaturas e de densidades de vapor a altas temperaturas, aplicando a Teoria quântica, uma vez que a Mecânica estatística clássica não conseguia explicar os desvios observados entre a teoria e a experiência. Em 1906, publicaria artigo no qual “afirmaria que os calores específicos dos sólidos e líquidos tendem para o valor aproximado de 1.5 cal/mol grau, no Zero absoluto, isto é T = 0 K”104 e enunciaria seu famoso Teorema do calor: a entropia de um sistema no Zero absoluto é uma constante universal. O teorema, com uma redação ligeiramente modificada, é conhecido como a Terceira lei da Termodinâmica, e pela descoberta receberia Nernst, em 1920, o PNQ. O crescente interesse pela Termoquímica se refletiria no êxito das publicações A Termodinâmica das Reações Gasosas (1908), de Fritz Haber (1868-1934, PNQ de 1918 pela descoberta da síntese do amoníaco), o A Afinidade Química (1908) e o Manual de Termoquímica e Termodinâmica (1912) do químico alemão Otto Sackur (1880-1914), obra que serviria de referência até o aparecimento do livro de Gilbert N. Lewis e Merle Randall sobre Termodinâmica e a Energia Livre de Substâncias Químicas, de 1923. Ao mesmo tempo, prosseguiam as investigações laboratoriais sobre o comportamento das moléculas dos sólidos, líquidos e gases submetidas a influências externas, como temperatura e pressão. No particular, merecem especial referência os trabalhos do sueco Heike Kammerlingh Onnes (1853-1923, PNF de 1913) pela descoberta, em 1911, de o mercúrio (Hg) se tornar supercondutor no ponto de liquefação do hélio (4,2 K); as experiências do físico e químico alemão Arnold Thomas Eucken (1884-1950), que demonstravam variação da condutividade térmica inversa de vários sais, entre 83 K e 373 K; e os diversos estudos 104 BASSALO, José Maria Filardo. Nascimento da Física. 233 CARLOS AUGUSTO DE PROENÇA ROSA do holandês Petrus Joseph Wilhelm Debye (1884-1966, PNQ de 1936) sobre calor em corpo sólido. A descoberta da 3ª Lei da Termodinâmica por Nernst geraria um extraordinário interesse no meio científico, o que redundaria em valiosas contribuições de vários químicos e físicos, como Lewis, Randall, Guggenheim, Latimer, Onsager, Giauque e Prigogine. Baseando-se nos trabalhos do físico e químico americano Josiah Willard Gibbs sobre a tendência das reações químicas ao equilíbrio pela ação de energia livre (afinidade) das substâncias envolvidas, Gilbert N. Lewis e Merle Randall (1888-1950), após vários anos medindo cálculos de energia livre (quantidade de trabalho “útil” que pode ser obtido de um sistema) de compostos, publicariam, em 1923, a já referida obra Termodinâmica e a Energia Livre das Substâncias Químicas, na qual apresentaram os resultados de suas investigações e que serviria como texto de referência em Termoquímica105. Sobre o assunto, Randal já escrevera, em 1912, um primeiro trabalho intitulado Estudos em Energia Livre. William Francis Giauque (1895-1982) receberia o Prêmio Nobel de Química de 1949 por seus estudos nos anos 20 sobre o comportamento das substâncias a temperaturas extremamente baixas, próximas ao Zero absoluto. Em sua preparação para o doutorado, interessou-se Giauque pela 3ª Lei da Termodinâmica. Com o objetivo de demonstrar tratar-se de uma lei natural básica, procederia, com a ajuda de seus alunos, a numerosos e variados testes. Em seu trabalho, Giauque se ocupou, principalmente, com a medição experimental de entropias a baixas temperaturas e se utilizou da Mecânica estatística para calcular entropias absolutas. Proporia para tanto um método conhecido como desmagnetização adiabática para alcançar temperaturas extremamente baixas, tendo desenvolvido um aparelho de refrigeração magnética. Em 1929, Giauque ultrapassaria o nível mais baixo de temperatura obtido por Kamerlingh Onnes (0,8K), atingindo o nível 0,1K. O físico-químico norueguês Lars Onsager (1903-1976), que, em 1928, emigrou para os EUA e se naturalizou cidadão americano, receberia o Prêmio Nobel de Química de 1968 por suas contribuições fundamentais, com a ajuda da Mecânica estatística, no desenvolvimento de uma teoria geral sobre os processos químicos irreversíveis. Após a elaboração de um conjunto de equações em 1929, Onsager, em 1931, anunciou a generalização da “lei das relações recíprocas” dos processos irreversíveis, nos quais há diferenças de pressão, temperatura ou outros fatores. A importância do trabalho só seria reconhecida a partir dos anos 50, o que explica a tardia 105 IHDE, Aaron J. The Development of Modern Chemistry. 234 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO concessão do PNQ. Outra importante contribuição de Onsager no campo da Físico-Química seria sua proposta de modificações na Equação de Debye e Huckel, de 1923, sobre o comportamento da maioria dos íons em soluções, levando em consideração o movimento browniano, a fim de incluir todos os íons em solução. Tal sugestão, inicialmente rejeitada por Debye, viria a ser pouco depois aceita. Wendell M. Latimer (1893-1955) publicaria, em 1938, The Oxidation States of the Elements and Their Potentials in Aqueous Solution, obra reputada como pioneira sobre Termodinâmica de eletrodos, especialmente de entropias de íons em soluções aquosas. Ilya Prigogine (1917-2003) foi laureado com o PNQ de 1977 por seus estudos em Termodinâmica de processos irreversíveis com a formulação da teoria das estruturas dissipativas. Russo de nascimento, emigrou, com a família, aos 12 anos de idade para a Bélgica, vindo a obter, em 1949, a cidadania belga. Estudou na Universidade Livre de Bruxelas, onde lecionaria como professor de Química de 1947 a 1987. Em 1967, ajudou a fundar em Austin (Texas), The Center for Complex Quantum Systems e foi diretor do Centro de Mecânica estatística e Termodinâmica na Bélgica. Em 1955, Prigogine publicaria sua importante e revolucionária obra Termodinâmica dos Processos Irreversíveis, na qual apontou a séria limitação da Termodinâmica clássica de ser restrita a processos reversíveis e a estados de equilíbrio. Seu principal argumento era que o verdadeiro estado de equilíbrio não era o normal ou era raramente alcançado, sendo mais comum o estado obtido no interior da célula, tema já abordado por Onsager, mas de forma mais restrita, pois se referia a estados muito próximos do equilíbrio. Para estados distanciados do equilíbrio, Prigogine desenvolveria o que chamou de estruturas dissipativas. Químico e filósofo da Ciência, Prigogine é autor, entre outras obras, de As Leis do Caos (1977), O Fim das Certezas e A Nova Aliança. 7.5.2.2 Cinética Química O estudo da velocidade das reações químicas e dos fatores que a influenciam seria objeto de extensa pesquisa experimental e estudos teóricos, a partir dos trabalhos de Van’t Hoff, Svante Arrhenius e Jean Perrin na virada do século XIX para o XX. Dado que no exame do progresso nas pesquisas sobre as reações químicas (ver capítulo da Química Orgânica) é indispensável tratar do tema em conjunção com a Cinética química, será suficiente, no momento, mencionar o reconhecimento às contribuições de 235 CARLOS AUGUSTO DE PROENÇA ROSA William Cudmore McLewis (1885-1956), Frederick Alexander Lindemann (1886-1957), Francis Owen Rice (1890-?), Eric Keightey Rideal (1890-?), Hugh Stott Taylor (1890-1974), Michael Polanyi (1891-1976) e Christopher Ingold (1893-1970) ao desenvolvimento da Cinética química, particularmente nas primeiras décadas do século passado. Mais recentemente, a entrega de três Prêmios Nobel de Química a oito pesquisadores demonstra a importância deste campo para o progresso nas pesquisas sobre o processo das reações químicas. Os químicos premiados foram: Cyril Hinshelwood e Nikolay Semenov (PNQ de 1956) por suas pesquisas sobre a cinética das reações químicas; Ronald Norrish, George Porter e Manfred Eigen (PNQ de 1967) por pesquisas em reações químicas de alta velocidade, por meio de pulsos muito curtos de energia; e Yuan Tse Lee, Dudley Robert Herschbach e John Charles Polanyi (PNQ de 1986) por suas contribuições relativas à dinâmica de processos químicos elementares. A partir dos anos 80, quando os químicos passaram a investigar os estágios intermediários entre os reagentes e os produtos da reação química, surgiu o que se convencionou chamar de Femtoquímica, relacionada aos fenômenos que ocorrem a femtossegundos, isto é, em intervalos de tempo extremamente curtos (10-15 de segundo), técnica desenvolvida com os laseres de pulsos ultracurtos, de invenção recente (ver os capítulos Química Analítica e Química Orgânica. Reações Químicas). 7.5.2.3 Eletroquímica. Ligações Químicas O químico alemão Richard Wilhelm Heinrich Abegg (1869-1910), com doutorado pela Universidade de Berlim, assistente de Walther Nernst em Göttingen e professor de Química na Universidade de Breslau, seria pioneiro no campo da valência química com seu conceito eletrônico (1902-04) do átomo para explicar os elos de valência visualizados por Kekulé (1829-1896) e Archibald Couper (1831-1892). De acordo com Abegg, a estabilidade dos gases inertes seria devida à configuração dos elétrons de seu átomo (dois no mais externo nível de elétrons do hélio e oito no de outros). É a chamada “regra Abegg”. Gases raros, como o neônio, o argônio, o xenônio e o criptônio, são pouco reativos, ou seja, são estáveis e possuem uma camada externa de oito elétrons, pelo que seus átomos não se ligam. Os elementos halogênios, como flúor, cloro, bromo e iodo, têm sete elétrons em suas camadas externas, enquanto os metais alcalinos, como o lítio, sódio e potássio, possuem um elétron a mais que os gases raros. Dessa forma, um elemento como o cloro, que possui sete elétrons, tenderia a aceitar um, 236 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO enquanto um elemento como o sódio, que possui um a mais, tenderia a liberá-lo. Assim, um átomo de sódio podia transferir um elétron para um átomo de cloro, formando um íon de sódio carregado positivamente e um íon de cloro carregado negativamente, sendo que ambos podiam unir-se mediante a atração eletrostática. A reação química tornava-se, portanto, uma transferência de elétrons106. Suas pesquisas seriam interrompidas bruscamente, devido à sua morte prematura aos 41 anos num acidente de balão a gás. Os conceitos de Abegg seriam retomados e desenvolvidos, de forma independente, pelo físico alemão Walther Kossel (1888-1956) e pelo químico americano Gilbert Newton Lewis que publicaram, em 1916, respectivamente, no Annalen der Physik n° 49 e no Journal n° 38 da American Chemical Society, artigos nos quais sustentavam que a valência química, isto é, a capacidade de combinação dos elementos químicos se devia a um par de elétrons que era compartilhado pelos átomos desses elementos. Os modelos então estabelecidos foram baseados na estabilidade excepcional da configuração eletrônica. Gilbert Newton Lewis (1875-1946), um dos mais prestigiosos químicos americanos da primeira metade do século XX, nasceu em Massachusetts, estudou em escola pública, aos 14 anos ingressou na Universidade de Nebraska, transferiu-se três anos depois para a Universidade de Harvard, onde se formou em 1896 e concluiu o doutorado em Química em 1899. Após ensinar em Harvard e MIT, transferiu-se (1912) para a Universidade de Berkeley, na Califórnia, que se transformaria num dos principais centros de ensino e pesquisa da Química no país. Lewis concentraria suas atividades no campo da Termodinâmica química, na Teoria de ácidos e bases e na Teoria da valência em reações químicas, cujas contribuições seriam decisivas para o avanço no conhecimento da Química molecular e das ligações químicas. Escreveu diversos artigos sobre a Teoria da relatividade. Em 1923 escreveu Valence and the Structure of the Atoms and Molecules, e, com Merle Randall, Thermodynamics and the Free Energy of the Chemical Substances, e, em 1926, cunhou o termo fóton para a menor unidade de energia radiada. Baseando-se no modelo de átomo de Rutherford, introduziria Lewis o modelo do físico neozelandês na Teoria da estrutura química das moléculas, com um átomo estático e elétrons imóveis nos oito vértices de um cubo. Ampliando a explicação de Abegg, procuraria Lewis relacionar os elétrons do átomo aos elos não eletrolíticos presentes nos compostos orgânicos, propondo que o elo entre dois elementos poderia ser, além 106 ASIMOV, Isaac. Gênios da Humanidade. 237 CARLOS AUGUSTO DE PROENÇA ROSA da transferência de elétrons, pela partilha dos elétrons. A ligação seria formada por um par de elétrons, em que cada átomo, participando da ligação, pode fornecer um elétron. Esse par de elétrons pertenceria, portanto, aos dois átomos e essa ligação seria chamada de “covalente”, o que serviria para explicar a valência quatro do carbono. Irving Langmuir (1881-1957) teria um papel saliente nessa fase inicial de pesquisas sobre as ligações químicas. Formado em Engenharia metalúrgica pela Escola de Minas da Universidade de Colúmbia em 1903, e doutorado, em 1906, pela Universidade de Göttingen, sob a orientação de Walther Nernst, foi professor no Departamento de Química do Instituto de Tecnologia Stevens em Hoboken, Nova Jersey, e transferiu-se três anos depois (1932) para o laboratório da GE no qual se dedicaria exclusivamente à pesquisa até sua aposentadoria em 1950. Introduziria importantes inovações nas lâmpadas incandescentes, como o preenchimento de tais lâmpadas com gases, a descoberta da formação de hidrogênio atômico no bulbo da lâmpada, o desenvolvimento de tecnologia para a melhoria dos bulbos e a fabricação de tungstênio em pasta para a produção de novos filamentos. Desenvolveu trabalhos sobre descarga elétrica em gases que resultaria na noção de plasma como o quarto estado da matéria, e, em 1950, usaria iodeto de prata como agente de nucleação de nuvens para estimular chuva artificial, o que lhe valeria o apelido de “fazedor de chuva”. Langmuir receberia o PNQ de 1932 por seus trabalhos em películas monomoleculares e em química de superfície. Começaria a estudar a questão das ligações químicas, publicando, em 1921, dois trabalhos no Physical Review 17, nos quais afirmava que essa ligação poderia ocorrer de dois modos diferentes: eletrovalência pelo compartilhamento de pares de elétrons entre átomos combinados ou por covalência, isto é, por intermédio da atração eletrostática entre íons. Langmuir escreveria, a partir de 1919, 12 artigos sobre a questão. O modelo criado por ele seria mais bem aceito pelos físicos e químicos que o formulado por Lewis e chamado como “regra da oitava”. Ainda nos anos 20 e 30, o químico inglês Nevil Vincent Sidgwick (1873-1952) desenvolveu importantes pesquisas no campo do conceito eletrônico da valência, vindo a provar que o conceito de Lewis relativo à partilha dos elétrons se aplicava além dos domínios da Química Orgânica e que o par de elétrons divididos poderia provir do mesmo átomo para formar um elo coordenado. É autor de Química Orgânica do Nitrogênio (1910), Teoria Eletrônica da Valência (1927) e Os Elementos Químicos e seus Compostos (1950). Ocupa especial posição no círculo científico do século XX o químico e biólogo americano Pauling, cujas significativas contribuições seriam 238 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO decisivas para o avanço em diversos setores da Ciência, em particular da Química, da Biologia e da Medicina, e cujas desassombradas atitudes em prol da paz e do entendimento entre os povos seriam alvo de controvérsia e perseguição. Ganhador de dois Prêmios Nobel (Química e da Paz), Pauling se notabilizaria por seu espírito científico e dedicação às causas humanitárias. Linus Carl Pauling (1901-1994) nasceu em Portland, Oregon, obteve seu doutorado em Química, em 1925, no Instituto Tecnológico da Califórnia. Passou os anos de 1926 e 1927 na Europa estudando e pesquisando com Niels Bohr, Arnold Sommerfeld, Werner Heisenberg, Max Born e Erwin Schrödinger, entre outros. De volta aos EUA, com excelente conhecimento da Mecânica quântica, em plena formulação na Europa, se fixaria na Caltech, onde assumiria a cátedra em 1931. Em suas pesquisas, Pauling se utilizaria da nova técnica experimental da “cristalografia dos raios-X”, que permitia estudar o tamanho e a configuração dos átomos das moléculas e dos cristais. Seus primeiros trabalhos em Química seriam nos campos da estrutura molecular e ligações químicas, guiados por três conceitos centrais: a Mecânica quântica poderia ser utilizada para descrever e prever as ligações atômicas; as estruturas de substâncias simples poderiam ser usadas para prever estruturas mais complexas; e a estrutura química poderia ser utilizada para determinar o comportamento químico. Adepto da Teoria ondulatória das partículas (dualidade onda/partícula) de Louis de Broglie, Pauling abandonaria o Modelo de átomo de Bohr e Lewis e sustentaria o elétron como onda sem posição determinada no seu movimento orbital em torno do núcleo atômico. Aplicaria métodos físicos, como os da difração dos raios-X e do elétron e do efeito magnético para determinar a estrutura da molécula, e Mecânica quântica para o fenômeno das ligações de compostos químicos. Mostraria como as propriedades de vários átomos se relacionavam com seus elétrons na aplicação da mecânica de ondas e desenvolveria uma série de regras (formação de pares, giro dos elétrons e posição nas orbitais do átomo) que mostravam, de forma sistemática, a formação das ligações químicas. Em 1931, Pauling escreveria o primeiro de uma série de artigos, publicados no Journal da American Chemical Society, sob o título A Natureza das Ligações Químicas. Em Teoria da Ligação Covalente e da Ressonância, também de 1931, explicitaria seu conceito de ressonância, já avançado por Heisenberg, o qual serviria para explicar as propriedades do benzeno107. Em 1935, escreveu, com E. Bright Wilson, Introdução à 107 COTARDIÈRE, Philippe de la. Histoire des Sciences. 239 CARLOS AUGUSTO DE PROENÇA ROSA Mecânica Quântica e sua Aplicação na Química. Em 1939 apareceria seu livro A Natureza das Ligações Químicas e a Estrutura das Moléculas e dos Cristais, e, em 1947, a obra Química Geral. Em 1954, Pauling receberia o PNQ por seus trabalhos sobre a estrutura molecular e por suas pesquisas sobre a natureza das ligações químicas e suas aplicações para a elucidação da estrutura de substâncias complexas. Pauling utilizaria, igualmente, seus conhecimentos no estudo das complexas moléculas dos tecidos vivos. Nesse sentido, foi dos primeiros a sustentar que as moléculas das proteínas seriam arrumadas em hélice, estrutura que seria proposta (1953) por James Watson (1928) e Francis Crick (1916-2004) para os ácidos nucleicos. Em 1963, deixou a Caltech e, de 1969 a 1974, ocupou a cátedra de Química da Universidade de Stanford. Em 1973, foi cofundador de um instituto de pesquisa na Califórnia sobre o efeito da vitamina C e outros nutrientes na saúde humana, tendo escrito diversos artigos sobre o tema, e, de 1973 a 1994, dedicou-se ao estudo da medicina ortomolecular, contribuindo para a fundação, em 1973, do Instituto de Medicina Ortomolecular (hoje Instituto Linus Pauling para a Ciência e Medicina). A partir de 1945, Pauling seria um ativista em prol do desarmamento nuclear e um crítico da Guerra Fria, participando de comitês, comícios e passeatas e escrevendo artigos contra a Guerra. Esteve sob investigação do FBI, o apoio financeiro para suas pesquisas foi suspenso e, acusado de ser comunista, foi duramente criticado pela imprensa. Assinou manifestos contra os testes nucleares, e, em 1960, intimado a comparecer perante a Subcomissão de Segurança Interna do Senado, prestou depoimento em duas oportunidades, nas quais recusou dar os nomes daqueles que o ajudaram a circular a petição (com a assinatura de 11 mil cientistas) contrária aos testes nucleares. Agraciado com o Prêmio Nobel da Paz de 1962, Pauling viria a recebê-lo no ano seguinte, tendo obtido seu passaporte somente nas vésperas da viagem à Suécia. O método de cálculo da estrutura eletrônica das moléculas, desenvolvido por Walther Heitler (1904-1981) e Fritz London (1900-1954), em 1927, tem um valor especial por ter sido a primeira vez que a Mecânica quântica foi usada para cálculo de ligação de uma molécula, no caso a do hidrogênio (H2). John Clark Slater (1900-1976) e Linus Pauling ampliariam o âmbito do método, pelo qual as ligações em qualquer molécula poderiam ser descritas de modo similar ao da ligação do H2. Esse método, por corresponder à noção de ligações localizadas entre pares de átomos, seria chamado de Valência-Ligação, mas também seria conhecido como HLSP (Heitler-London-Slater-Pauling). 240 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Nessa mesma época, porém, o físico e químico americano Robert S. Mulliken (1896-1986), que estagiara em 1925-27 na Europa com ilustres cientistas como Heisenberg, Dirac, Schrödinger, de Broglie, Born e Bothe, trabalharia com Friedrich Hund (1897-1997), conhecido físico alemão por seus trabalhos sobre átomos e moléculas, na interpretação quântica do espectro de moléculas diatômicas. Ainda em 1927, ambos desenvolveriam a “teoria orbital molecular” de ligações químicas, baseada na ideia de que os elétrons se movem na molécula no campo produzido pelo núcleo; as orbitais atômicas de átomos isolados se tornam orbitais moleculares; e as energias relativas dessas orbitais poderiam ser obtidas dos espectros da molécula. Para encontrar orbitais moleculares, Mulliken combinaria orbitais atômicas e mostraria que a energia das ligações poderia ser obtida pela quantidade de superposição de orbitais atômicas. Existiriam, assim, tantas orbitais moleculares quantas possam existir orbitais atômicas108. “Por sua contribuição fundamental sobre ligações químicas e estrutura eletrônica das moléculas pelo método orbital molecular”, Mulliken receberia o Prêmio Nobel de Química de 1966. O matemático inglês John Anthony Pople (1928-2004, PNQ de 1998), da Universidade Northewestern, se tornou conhecido no meio químico por seu método (1953) de cálculo de orbital molecular do tipo de ligação covalente, que seria conhecido como método PPP, por ter sido, desenvolvido igualmente, de forma independente, naquele mesmo ano, por Rudolph Pariser (1923) e Robert Parr (1921). Com o grande avanço da indústria de computadores a partir dos anos 60, sua utilização para soluções matemáticas ao entendimento de fenômenos no campo científico viria a permitir extraordinário progresso na Química, tendência que deverá ser confirmada em futuras investigações. Pople se notabilizaria como pioneiro no desenvolvimento (1970) de um programa computacional, chamado Gaussiano, que tornou possível o estudo teórico das moléculas, suas propriedades e como elas agem em reações químicas. Em 1998, dividiria o PNQ pela relevante contribuição “no desenvolvimento de métodos computacionais em Química quântica”, por meio dos quais se abriu o campo da Química computacional109, definida pela IUPAC como aspectos da pesquisa molecular que são tornados práticos pelo uso do computador. Ainda neste mesmo campo, o físico Walter Kohn (1923), da Universidade da Califórnia, dividiria com Pople o PNQ de 1998 por sua contribuição ao desenvolvimento da Teoria do funcional de densidade (TFD), surgida como alternativa aos métodos semiempíricos no estudo de propriedades 108 109 COTARDIÈRE, Philippe de la. Histoire des Sciences. Comunicado de Imprensa – PNQ de 1998 241 CARLOS AUGUSTO DE PROENÇA ROSA do estado fundamental de sistemas moleculares. A TFD aplica a Mecânica quântica e é utilizada em Física e Química para investigar a estrutura eletrônica, em especial, a de moléculas. 7.5.2.4 Ácidos e Bases O químico sueco Svante Arrhenius (1859-1927) em sua tese de doutorado na Universidade de Uppsala apresentou, em 1884, sua revolucionária tese da dissociação eletrolítica, pela qual os compostos químicos dissolvidos se dissociam em íons, sendo que o grau de dissociação aumenta com o grau de diluição da solução. Na tese, Arrhenius formulou o conceito de ácido como o de “toda a substância que em solução aquosa liberta exclusivamente como cátion o íon hidroxônio H2O+” e o de base como o de “toda substância que, em solução aquosa, liberta o íon oxidrila OH- como único tipo de ânion”. Apesar de seu caráter limitativo ao meio aquoso, a teoria de Arrhenius, inicialmente rejeitada, viria a ganhar aceitação na comunidade científica, inclusive o PNQ de 1903 “em reconhecimento dos extraordinários serviços prestados ao avanço da Química por meio de sua teoria da dissociação eletrolítica”. O trabalho de Arrhenius sobre dissociação iônica (incompleta) em solução seria ampliado pelo físico-químico holandês Peter Joseph Wilhelm Debye (1884-1966) que sustentaria, em sua teoria de 1923, estar cada íon positivo cercado por uma nuvem de íons predominantemente negativos, enquanto cada íon negativo estava rodeado de uma nuvem de íons positivos, o que fazia a solução parecer não estar completamente ionizada. Debye seria laureado com o PNQ de 1936 por suas relevantes contribuições para o conhecimento da estrutura das moléculas. Ainda no ano de 1923, os físico-químicos Johannes Nicolaus Brönsted (1879-1947), dinamarquês, professor da Universidade de Copenhague, e Thomas Marton Lowry (1874-1936), inglês, professor da Universidade de Cambridge, de forma independente, generalizariam a definição de Arrhenius com os novos conceitos de ácido como emissor de íon H+, ou seja, substâncias capazes de ceder prótons, e de base como receptora desses íons H+110, isto é, substâncias capazes de receber prótons. Com essas generalizações, inúmeras substâncias passaram a ser incluídas na categoria de ácidos e bases111. 110 111 VIDAL, Bernard. Histoire de la Chimie. IHDE, Aaron J. The Development of Modern Chemistry. 242 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Pouco depois, os conceitos de base e ácido seriam ainda mais generalizados por Gilbert Newton Lewis (1875-1946). De acordo com o químico americano, o ácido deveria ser entendido como possuindo uma camada eletrônica externa incompleta, estando, assim, em condições de aceitar um par de elétrons proveniente de outra molécula e a base como a substância capaz de ceder um par de elétrons a um ácido. Deve ser entendido que as teorias de Brönsted e Lewis coexistem sem conflito, cada uma com capacidade de resolver questões diferentes, conforme comenta o já mencionado Cotardière. 7.5.3 Química Inorgânica Sob a denominação genérica de Química inorgânica são examinadas, neste capítulo, a ampliação ocorrida no século XX do conhecimento do vasto campo dos 92 elementos naturais, a descoberta dos isótopos, a produção dos chamados elementos transurânicos e a nova configuração da Tabela periódica dos elementos. 7.5.3.1 Os Elementos e a Tabela Periódica O interesse da comunidade química na ampliação do conhecimento a respeito dos elementos naturais levou a descobertas importantes no final do século XIX, as quais seriam devidamente valorizadas ainda no início do século seguinte. Em 1894, os químicos britânicos William Ramsay (1852-1916) e Johan William Strutt Rayleigh ao estudarem a composição do ar atmosférico conseguiram identificar, por meio de métodos espectroscópicos, um novo gás, que se chamaria argônio. Pouco depois, a partir da destilação fracionada da porção do ar atmosférico liquefeito, Ramsay conseguiria isolar o neônio, o criptônio e o xenônio. Ramsay já havia caracterizado a presença do hélio em minerais terrestres, em 1890, ao repetir uma experiência realizada por William Francis Hillebrand (18531925), químico especializado em análise mineralógica. Por suas pesquisas na descoberta dos gases nobres e por suas posições na Tabela periódica, Ramsay ganharia o PNQ de 1904. Marie Curie (1867-1934), que dividira o PNF de 1903 com seu marido Pierre Curie e Antoine Henri Becquerel pela descoberta da radioatividade, receberia o PNQ de 1911 pela descoberta dos elementos rádio e polônio, o isolamento do rádio e a natureza dos seus compostos. 243 CARLOS AUGUSTO DE PROENÇA ROSA Prosseguiria, nos primeiros anos do século XX, o interesse dos químicos em descobrir aqueles elementos indicados como existentes na Natureza na Tabela periódica de Mendeleiev, ao mesmo tempo em que se buscava uma solução para os problemas de inserção criados com os chamados “gases nobres” e “terras raras”. De acordo com a Tabela, faltaria ainda a descoberta de nove elementos naturais (números 43, 61, 63, 71, 72, 75, 85, 87 e 91), que, à exceção dos números 63, 71 e 91, todos os demais só seriam descobertos a partir da década de 20. O primeiro elemento químico natural a ser identificado no século XX foi o descoberto pelo químico francês Eugène Demarçay (1852-1904) em 1901. Com o nome de europium (Eu), tem o número atômico 63, massa atômica de 152 e está incluído no grupo das “terras raras”; encontra-se em estado sólido e é o mais reativo de seu grupo. Em 1907, Georges Urbain (1872-1938) descobriria o elemento lutetium (Lu), de número 71, e de massa 174,99, igualmente do grupo das terras raras; encontra-se em estado sólido e é o último da série dos lantanídeos. Obtido do urânio, o elemento protactinium (Pa), de número 91 e massa atômica 91, foi descoberto em 1917 por Otto Hahn (1879-1968) e Lise Meitner (1878-1968); o Pa não existe na Natureza, mas, produto da fissão do urânio, plutônio e tório, é altamente radioativo e tóxico; seu nome em grego significa “primeiro raio”112. Baseando-se na Teoria quântica e contestando a suposição de que se trataria de um elemento do grupo das terras raras, Niels Bohr (1885-1962), diretor do Instituto de Física Teórica de Copenhague, proporia a George von Hevesy (1885-1966) e Dirk Coster, pesquisadores do Instituto, procurar as raias espectrais do elemento n° 72 no zircônio. O êxito foi alcançado, em 1923, com o isolamento de hafnium (Hf), de massa atômica 178,6, nome que homenageia a capital dinamarquesa, cuja designação latina era Hafnia. Em 1925, os químicos alemães Walther Noddack (1893-1960) e sua esposa Ida Tacke Noddack (1896-1979) e Otto Berg descobririam o elemento n° 75, massa atômica 183,61; previsto por Mendeleiev, sua denominação rhenium (Re) é devida ao rio Reno. O technetium (Tc), de número 43 e massa atômica 98, foi o primeiro elemento descoberto via artificial (technetos em grego significa artificial), e já fora previsto por Mendeleiev com o nome de “ekamanganês”. O Tc foi sintetizado em 1937 por Emilio Segré (1905-1989) e Carlo Perrier. Ainda no ano de 1937, a química francesa Marguerite Perey (1909-1975), do Laboratório Curie, descobriria o elemento n° 87, de massa atômica 223. O francium (Fr), assim denominado para homenagear a França, fora previsto por Mendeleiev como “eka-cesio”, e é o mais ativo dos metais. 112 TATON, René. La Science Contemporaine. 244 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O elemento astatine (At), da palavra grega astate para “instável”, de número atômico 85 e massa atômica 210, previsto por Mendeleiev como “eka-iodo”, foi obtido pela primeira vez em 1940, bombardeando o bismuto com partículas alfa, mas apenas confirmada sua existência em 1947. As pesquisas foram efetuadas na Universidade da Califórnia por D. C. Corson, K. R Mackenzie e Emilio Segré. As pesquisas (1914) de Henry Moseley indicavam dever existir entre os elementos neodímio (Nd), de massa atômica 144,24, e samário (Sm), de massa atômica 150,35, um outro elemento, cuja descoberta fora anunciada várias vezes, mas não confirmada. Somente em 1947, por via química, foi extraído dos fragmentos da fissão do urânio o elemento em forma de isótopo, com massa atômica 145. O novo elemento seria chamado de prometheum (Pm), nome de Titã da mitologia grega, se encontra em estado sólido e faz parte do grupo das terras raras e da série dos lantanídeos. Com essa descoberta, estaria concluída a relação, num total de 92, dos elementos químicos naturais, constantes da Tabela periódica dos elementos, da qual quatro elementos – Tc (43), At (85), Fr (87) e Pm (61) – foram sintetizados. 7.5.3.2 Isótopos Isótopos são átomos de um elemento cujos núcleos têm o mesmo número atômico (Z), mas diferentes massas atômicas. Os estudos das transformações dos elementos radioativos realizados por Ernest Rutherford e Frederick Soddy, nos primeiros anos do século XX, pareciam indicar a existência de alguns elementos que possuíam propriedades químicas idênticas, mas cujos átomos apresentavam pesos diferentes. Em 1902, Otto Hahn, que estagiara com Ernest Rutherford na Universidade McGill, no Canadá, seria capaz de isolar do elemento rádio um material altamente radioativo de tório a que chamou de “radiotório”113. Em 1913, J. J. Thomson observou que gases quimicamente puros apresentavam valores distintos para a relação carga/massa e que para um mesmo gás essa relação é constante. Deduziu da pesquisa que o neônio, gás quimicamente puro, seria constituído por gases de mesma carga, porém de massa diferente. Frederick Soddy (1877-1956) e George von Hevesy (1885-1966) na Inglaterra, e o polonês Kasimir Fajans (1887-1975) na Alemanha, de forma independente, comprovariam pelo estudo das 113 IHDE, Aaron J. The Development of Modern Chemistry. 245 CARLOS AUGUSTO DE PROENÇA ROSA séries radioativas a existência de isótopos, nome dado por Soddy, cujo significado em grego é “mesmo lugar” (iso- mesmo, topo- lugar). Pouco depois, o químico Francis William Aston (1877-1945), em 1919, com um espectrógrafo que inventara, demonstraria a existência de átomos de um mesmo elemento com massas diferentes, como o neônio, e que o conceito de isótopo se aplicava a todos os elementos, e não apenas aos radioativos. Aston, tendo já suspeitado da existência de dois isótopos de neônio em 1914, ganharia o Prêmio Nobel de Química de 1922 pela descoberta e determinação da massa de 212 isótopos naturais em 1919 e pela criação da regra dos números inteiros. A composição isotópica de alguns elementos estáveis somente veio a ser encontrada no Pós-Guerra (década dos anos 50), mas a maior parte dos isótopos estáveis já havia sido descoberta nos anos 20114. O químico americano William Giauque (1895-1982), interessado na Terceira Lei da Termodinâmica, e que receberia o PNQ de 1949 por seus trabalhos sobre as propriedades da matéria a temperaturas próximas do Zero absoluto, descobriria, em 1929, os isótopos 17 e 18 do oxigênio na atmosfera da Terra. No particular, teve especial significado o trabalho desenvolvido pelo químico americano Harold Clayton Urey (1893-1981), que concluiu doutorado na Universidade da Califórnia em 1923, estudou Física atômica com Niels Bohr na Universidade de Copenhague (1923/24) e exerceu o magistério em diversas Universidades (Montana, Johns Hopkins, Colúmbia, Chicago e Oxford), e, em colaboração com o físico Arthur Ruark, escreveu o livro Átomos, Quanta e Moléculas, em que defendeu a aplicação da Mecânica quântica à Química. Pelo isolamento em 1932 do deutério, isótopo do hidrogênio, Urey seria laureado com o PNQ de 1934. A ideia, defendida, entre outros, por Soddy, Rutherford e Aston, era a de que os isótopos, como átomos de massas diferentes, mas com as mesmas propriedades químicas, deveriam ser entendidos como pertencente ao correspondente elemento, pois o que passaria a determinar o elemento seria seu número atômico. Nesse caso, o elemento e seus isótopos deveriam ocupar a mesma posição na Tabela115. Essa proposta seria objeto de acirrada polêmica no meio químico nos anos 20, mas passaria a ser aceitável à comunidade científica na medida em que a descoberta de novos isótopos tornava inviável a elaboração de qualquer Tabela periódica. Nesse sentido, a obtenção pelo casal Frederick (1900-1958) e Irene Joliot-Curie (1897-1956) da síntese artificial de isótopos radioativos, o que lhes valeria o Prêmio Nobel de 114 115 TATON, René. La Science Contemporaine. PARTINGTON, J. R. A Short History of Chemistry. 246 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Química de 1935, seria importante marco nessa evolução. Os procedimentos de transmutação artificial dos elementos químicos resultariam na obtenção de isótopos artificiais e radioativos na maioria dos elementos conhecidos e na obtenção de elementos químicos desconhecidos na Natureza116. Vale esclarecer que, para transformar um elemento num outro, é preciso alterar a estrutura do núcleo, retirando ou acrescentando prótons ou nêutrons, o que não ocorre numa reação química, na qual é alterada apenas a constituição superficial do átomo. Dessa forma, o sonho da transmutação dos elementos perseguida pelos alquimistas via reação química era inalcançável. Finalmente, deve ser registrado que, em 1940, seria descoberto o isótopo radioativo carbono-14 por Martin David Kamen (1913-2002), após anos de pesquisas no Laboratório de Radiação, em Berkeley, dirigido por Edward Lawrence. Utilizando o cíclotron para isolar um isótopo de carbono radioativo para estudar o processo da fotossíntese, Kamen conseguiria, em fevereiro de 1940, descobrir o carbono-14, radioisótopo, cuja meia-vida é de 5.730 anos. Devido a suas ideias políticas, Kamen seria declarado, em 1944, “risco de segurança”, e seria demitido do Laboratório, compareceria perante a Comissão de Atividades Antiamericanas da Câmara e teria seu passaporte apreendido. Por essa descoberta, receberia, somente em 1995, o Prêmio Enrico Fermi. Willard Frank Libby (1908-1980), professor da Universidade de Chicago (1945/54) e da Universidade da Califórnia (1960), autor de Radiocarbon Dating, de 1952, se tornaria conhecido por ter aplicado (1947) o carbono-14 como técnica para a determinação da antiguidade de objetos e materiais até 45 mil anos de idade ao descobrir que a quantidade desse isótopo nos tecidos orgânicos diminuía a um ritmo constante com o passar do tempo. Por seu trabalho, da maior importância para as pesquisas em Geologia, Arqueologia, Paleontologia, Geofísica e Ciências afins, receberia o PNQ de 1960. 7.5.3.3 Elementos Transurânicos Os elementos transurânicos são aqueles elementos com peso atômico superior a 92, que corresponde ao urânio (U). Até a presente data, já são conhecidos 20 desses elementos, os quais estão incorporados à atual Tabela periódica. Todos esses elementos foram produzidos artificialmente, bombardeando átomos pesados com nêutrons produzidos 116 IHDE, Aaron J. The Development of Modern Chemistry. 247 CARLOS AUGUSTO DE PROENÇA ROSA em reatores nucleares ou com partículas aceleradas, de grande energia, em cíclotrons ou aceleradores lineares. Os 16 primeiros elementos transurânicos, conhecidos pelos nomes de netúnio, plutônio, amerício, cúrio, berquélio, califórnio, einsteinio, férmio, mendelévio, nobélio, laurêncio e rutherfórdio, mais o actínio, o tório, o protactínio e o urânio, constituem a série dos actinídeos, quimicamente análogos aos lantanídeos. O elemento metálico radioativo, de número atômico 93, foi sintetizado, em 1940, pelos físicos americanos Edwin M. MacMillan (1907-1991) e Philip H. Abelson (1913-2004). Existente em quantidades mínimas na Natureza, o elemento 93 está associado ao urânio. O netúnio (Np), que se encontra em estado sólido, tem massa atômica 237,0482 e são conhecidos 12 isótopos. MacMillan receberia por seu trabalho o Prêmio Nobel de Química de 1951. O plutônio (Pu), de número atômico 94 e massa 244, foi descoberto em 1940 por Glenn T. Seaborg (1912-1999) e sua equipe de investigadores da Universidade da Califórnia em Berkeley. Utilizado e produzido em reatores nucleares, o Pu, do qual se conhecem 15 diferentes isótopos, tem vida média de 23 mil anos e é o elemento transurânico de maior importância econômica. Seaborg, por sua grande contribuição ao desenvolvimento da pesquisa sobre os elementos transurânicos dividiria, com MacMillan, o PNQ de 1951. O elemento amerício (Am), criado artificialmente, em 1945, por Glenn Seaborg e sua equipe de investigadores da Universidade de Chicago, pelo bombardeamento do urânio por partículas alfa, é de número 95 e massa 243; são conhecidos apenas 5 isótopos. O cúrio (Cm), de número 96 e massa atômica 245, não existe na Natureza, e foi sintetizado por Glenn Seaborg, Albert Ghiorso (1915) e Ralph A. James em 1944, tendo recebido o nome em homenagem ao casal Curie; foi obtido bombardeando plutônio artificial com partículas aceleradas. São conhecidos na atualidade 8 isótopos, sendo que a vida média do isótopo mais estável é superior a 500 anos. Criado artificialmente em 1949 por Seaborg, Ghiorso e Stanley G. Thompson nos laboratórios da Universidade da Califórnia, em Berkeley, o elemento berquélio (Bk) é de número 97 e massa 247; seu isótopo mais estável tem vida média de 1.400 anos, enquanto seu isótopo 243 tem vida média de apenas 4,6 horas. Nos laboratórios de Berkeley, na Universidade da Califórnia, em 1950, Seaborg, Ghiorso, Thompson e Kenneth Street Jr criaram o elemento 98 de massa 252, que receberia o nome de califórnio (Cf); sua vida média é de 35 horas. O elemento transurânico radioativo, criado artificialmente pelo bombardeamento de urânio-238 com nitrogênio-14, de número 99 e massa 254, recebeu o nome einstêinio (Es), em honra ao físico alemão 248 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Albert Einstein. Foi descoberto, em 1952, nos restos de uma explosão termonuclear. O elemento 100, de massa 257, que recebeu o nome de férmio (Fm) em homenagem a Enrico Fermi, foi detectado nos restos de uma explosão de bomba de hidrogênio no Pacífico; o Fm seria criado artificialmente, em 1953, num reator nuclear bombardeando plutônio com nêutrons, sendo que o Fm-257, com uma vida de 16 horas, foi detectado por três equipes em Berkeley, Chicago e Los Alamos117. O elemento mendelévio (Md), de número 101 e massa 256, foi criado artificialmente em 1955, em Berkeley, Universidade da Califórnia, por Glenn Seaborg e sua equipe; obtido pelo bombardeio de einstêinio 253 com partículas alfa aceleradas num cíclotron; seu isótopo mais estável tem vida média de 54 dias, e pertence à série dos actinídeos. O nobélio (No), de número 102 e massa 259, é um elemento metálico radioativo, produzido artificialmente em laboratório. Obtido pelo bombardeamento de isótopos de cúrio (Cm) com íons de carbono por equipes da Suécia, Grã-Bretanha e EUA, o No foi anunciado em 1957; já foram identificados 13 radioisótopos, e seu isótopo mais estável, No-259, tem vida média de 58 minutos. O elemento lawrêncio (Lr), de número 103 e massa 262, provavelmente metálico sólido, é o último da série dos actinídeos. Designado em honra do físico americano Ernest Orlando Lawrence, inventor do cíclotron, foi o Lr criado em 1961, no Laboratório Lawrence de Radiação da Universidade da Califórnia, pelo químico Albert Ghiorso e sua equipe. O Lr foi obtido pelo bombardeio de isótopos de califórnio (Cf) por íons de boro; seu isótopo mais estável tem vida média de três minutos. Entre 1964 e 1977, EUA e a União Soviética anunciaram a produção artificial de quatro elementos transurânicos. O primeiro deles, denominado rutherfórdio (Rf) em 1997, de número atômico 104 e massa 261, foi obtido, em 1964, por Georgii Flerov (1913-1990), num cíclotron de íon pesado, em Dubna, perto de Moscou, pelo Instituto Conjunto de Pesquisa Nuclear, e, em 1968, por uma equipe do Laboratório Lawrence Berkeley, chefiada por Albert Ghiorso; o Rf é presumivelmente um sólido e pertence ao grupo 4 da Tabela periódica118. Em 1968, a equipe de Dubna obteve o elemento 105 e massa atômica 262, que recebeu o nome de dúbnio (Db); metálico presumivelmente sólido, não é encontrado na crosta terrestre e não tem aplicação conhecida; seu isótopo mais estável é o Db-268. O elemento de peso atômico 106 e massa 263, de nome seabórgio (Sg), foi sintetizado em 1974 pela equipe americana utilizando califórnio e oxigênio e a equipe 117 118 JAFFE, Bernard. Crucibles: The Story of Chemistry. JAFFE, Bernard. Crucibles: The Story of Chemistry. 249 CARLOS AUGUSTO DE PROENÇA ROSA soviética de Dubna bombardeando isótopos de chumbo em cromo; provavelmente metálico sólido, são conhecidos 11 isótopos. O elemento 107 de massa 264, obtido em 1977 pela equipe de investigação de Dubna, chefiada por Yuri Oganessian (1933), recebeu, em 1997, o nome de bóhrio (Bh); pertence ao grupo 7 da Tabela periódica, e é provavelmente sólido metálico. Os cinco seguintes elementos – de número atômico 108 a 112 – foram criados por pesquisadores alemães no laboratório do Instituto de Pesquisa de Íons Pesados na cidade de Darmstadt (Alemanha), reputado centro científico de referência mundial. O elemento 108 de massa 265 foi sintetizado em 1984 por grupo de investigadores alemães utilizando o acelerador Unilac, em Darmstadt, Alemanha, e recebeu, em 1997, o atual nome de hássio (Hs), derivado de Hessen, região da Alemanha onde está localizado o Laboratório GSI do Instituto de Pesquisa de Íons Pesados; do grupo 8 da Tabela periódica, seu estado da matéria é provavelmente sólido119. A mesma equipe de Darmstadt produziria, em 1982 o elemento 109, de massa 268, que receberia o nome de meitnério (Mt), em homenagem a Lise Meitner, física e química austríaca, uma das descobridoras, em 1939, da fissão nuclear, juntamente com Otto Hahn e Fritz Strassmann. Esse elemento não existe na crosta terrestre e seu estado é provavelmente sólido120. O elemento transurânico darmstádio (Ds) de número atômico 110 (110 prótons e 110 elétrons) foi criado em 1994 no “Gesellschaft für Schwerionenforschung” (GSI), em Darmstadt, pelos pesquisadores Sigurd Hofmann, Victor Ninov, F. P. Hessberger, Peter Armbuster e H. Folger; o Ds tem massa atômica 272 e é conhecido apenas um isótopo, de vida de 15 milissegundos. Provavelmente um sólido metálico, pertence ao grupo 10, período 7, da Tabela periódica. Foi conhecido anteriormente pelo nome de ununílio (Uun). O roentgênio (Rg), presumivelmente sólido, foi igualmente sintetizado no Instituto em Darmstadt, em 1994, pela mesma equipe que criara o elemento Uun; de número 111 (111 prótons e 111 elétrons) tem massa atômica de 272; pertence ao grupo 11, da Tabela periódica. Esse elemento era conhecido como ununúnio (Uuu), nome dado pela IUPAC (International Union of Pure and Applied Chemistry), mas, em 2004, foi decidido, por unanimidade em reunião desta organização internacional, homenagear o físico alemão Wilhelm Conrad Roentgen, nome agora oficial. 119 120 IHDE, Aaron J. The Development of Modern Chemistry. PARTINGTON, James R. A Short History of Chemistry. 250 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Em 1994 surgiria grave controvérsia entre os três grandes centros (EUA, Rússia e Alemanha) de pesquisas sobre a denominação desses novos elementos, de vida curtíssima, criados artificialmente. Após longos debates, o Conselho da IUPAC decidiu, em agosto de 1997, estabelecer os seguintes nomes para os seguintes elementos transurânicos: 101 - mendelévio, 102 - nobélio, 103 – lawrêncio, 104 - rutherfórdio, 105 dúbnio, 106 - seabórgio, 107 - bóhrio, 108 - hássio e 109 - meitnério. A mesma equipe de Darmstadt sintetizaria, em 1996, o elemento número 112 que recebeu a designação de unúmbio (Uub); de massa atômica 277 e apenas 2 isótopos conhecidos, é provavelmente um elemento metálico líquido, pertencente ao grupo 12 da Tabela periódica. O ununtrio (Uut), elemento sintético de número atômico 113 e de massa atômica 284, foi descoberto em 2004 por pesquisadores russos de Dubna e americanos do Lawrence Livermore National Laboratory, exemplo da retomada da cooperação de institutos de pesquisas de ambos os países. Pertencente o Uut ao grupo 13, período 7 da Tabela periódica, sua designação estabelecida pela IUPAC ainda é provisória. O elemento de número 114 é o ununquádio (Uuq) sintetizado em 1998 por pesquisadores do Instituto de Pesquisas Nucleares de Dubna, na Rússia; de massa atômica 289, pertence ao grupo 14, período 7, da Tabela periódica, o Uuq é um elemento transurânico metálico sólido, cujo nome é ainda provisório. O elemento unumpêntio (Uup), sintético de número atômico 115 com massa atômica de 288, pertence ao grupo 15 da Tabela periódica. Descoberto por investigadores russos e americanos em 2004, o Uup ainda aguarda confirmação para obter um nome definitivo. O unuhéxio (Uuh), elemento de número 116, foi descoberto em 1999 por Albert Ghiorso e colaboradores, no Laboratório Lawrence Berkeley na Califórnia e pelos russos do Instituto em Dubna em 2001, mas a confirmação dos resultados permanece pendente; com massa atômica 292, o Uuh pertence ao grupo 16 da Tabela periódica. A pesquisa conjunta EUA-Rússia na criação desse elemento é outro exemplo da atual cooperação bilateral científica entre os dois países. Ununséptio (Uus), elemento ainda não descoberto, deverá ter o número atômico 117 (117 prótons e 117 elétrons) e massa atômica prevista de 291; pertencente ao grupo 17 da Tabela periódica, o uus será presumivelmente sólido. O ununóctio (Uuo) foi sintetizado, em 1999, no Laboratório Lawrence Berkeley pela mesma equipe de Ghiorso; de número 118, o Uuo, provavelmente gasoso e de massa atômica 293, ainda aguarda confirmação de sua descoberta, quando então receberá um nome definitivo. 251 CARLOS AUGUSTO DE PROENÇA ROSA 7.5.3.4 A Tabela Periódica dos Elementos A configuração atual da Tabela periódica dos elementos é devida em boa parte à obra pioneira de Moseley ao demonstrar que deveria ser o número atômico, e não a massa, o critério para a definição de elemento121. O químico inglês Henry Gwyn Jeffreys Moseley (1887-1915), nascido em Weymouth, na costa sudoeste da Inglaterra, morreu em agosto de 1915 em combate nos Dardanelos, durante a Primeira Guerra Mundial. Após os estudos iniciais em Eton College, cursou, a partir de 1906, o Trinity College da Universidade de Oxford, graduando-se em 1910. Em seguida, foi para a Universidade de Manchester, onde trabalharia com Ernest Rutherford, dedicando-se integralmente à pesquisa. De seus trabalhos sobre o comprimento de onda da radiação do espectro dos raios-X dos vários elementos, Moseley verificou que o comprimento da onda diminuía com o aumento do peso atômico dos elementos que o emitiam. Estabeleceria, então, uma relação sistemática entre o comprimento da onda e o número atômico, hoje chamada de lei de Moseley, segundo a qual as propriedades dos elementos são funções periódicas de seus números atômicos. Até então o número atômico (Z) era totalmente arbitrário, pelo que sua ordem na Tabela periódica podia ser alterada, dado que era baseada na sequência da massa atômica. O grande mérito da obra de Moseley seria demonstrar ter o peso atômico (Z) uma base mensurável cientificamente comprovável, correspondente ao número de cargas positivas (prótons) do núcleo de cada átomo122. Um elemento químico é um conjunto de átomos com o mesmo número atômico, pelo que o que difere um elemento do outro é o número de prótons. Contudo, o número de prótons no núcleo de um determinado átomo era sempre o mesmo. Em seu trabalho Moseley provaria que a medição das frequências de linhas espectrais de raios-X de 38 elementos contra a carga do núcleo relacionava o número atômico Z de um elemento a seu espectro, sendo o número atômico de um elemento (Z) igual ao número de prótons que o núcleo do átomo desse elemento contém. Como o número atômico tinha que ser inteiro, não poderia haver, por exemplo, um elemento entre o ferro de número 26 e o cobalto de número 27, Moseley deduziria que só poderia haver 92 elementos naturais – do hidrogênio ao urânio. Moseley identificaria ainda algumas inversões na ordem correta e lacunas a serem preenchidas (elementos 43, 61, 72 e 75) na Tabela periódica. Os elementos do grupo das terras raras, difíceis de serem 121 122 PARTINGTON, James R. A Short History of Chemistry. JAFFE, Bernard. Crucibles: The Story of Chemistry. 252 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO separados e identificados, teriam seus números atômicos – de Z 57 a Z 71 – estabelecidos, e, consequentemente, teriam suas respectivas colocações na Tabela periódica123. Em 1914, retornaria Moseley à Universidade de Oxford, mas com o início da conflagração mundial, se alistaria no Exército, seria mandado ao front na Turquia e aí morreria. O físico-químico americano Theodore William Richards (1868-1928), com doutorado em Harvard, onde lecionou a partir de 1901, além de pesquisar nos campos da Termoquímica, Eletroquímica e Calorimetria, receberia o Prêmio Nobel de Química de 1914 por seus trabalhos para a determinação do peso atômico, com quatro cifras decimais, de mais de 25 elementos. O sistema de numeração dos grupos nas colunas verticais da Tabela periódica é recomendado pela União Internacional de Química Pura e Aplicada (IUPAC). Em algarismos arábicos de 1 a 18, a numeração vai da esquerda para a direita, sendo o grupo 1 o dos metais alcalinos, o 2 dos alcalino-terrosos, os 3 a 13 dos metais de transição, o 14 (formado pelo carbono, silício, germânio, estanho e chumbo), o 15 (o nitrogênio e o fósforo são não metais), o 16 (oxigênio e enxofre são os mais importantes), o 17 são não metais (como flúor e cloro) e o 18 o dos gases nobres; os elementos são colocados em ordem crescente de número atômico. A Tabela seria, igualmente, reconfigurada, com a série dos actinídeos – do número atômico 89 actínio (Ac) até o número 103 laurêncio (La) – abaixo da série dos lantanídeos, isto é, do número atômico 57 lantânio (La), até o número 71 lutécio (Lu). 7.5.4 Química Orgânica O extenso campo da Química Orgânica teria um extraordinário desenvolvimento nos tempos atuais, apesar de se tratar de uma área científica criada apenas em meados do século XIX. Em pouco tempo, a atenção dos químicos se voltaria para esta nova atividade prioritária de pesquisa, cujas implicações e vínculos com outros ramos da Ciência, como a Biologia e a Medicina, e setores industriais, como o farmacêutico e o petroquímico, seriam decisivos para a melhoria das condições de vida do Homem e da Sociedade. Pela grande abundância de compostos orgânicos, por seu papel fundamental na química da vida e por sua diversidade estrutural, a Química Orgânica se transformaria, em consequência, atualmente, na especialização mais atraente e na mais ampla área de pesquisa da Química. 123 IHDE, Aaron J. The Development of Modern Chemistry. 253 CARLOS AUGUSTO DE PROENÇA ROSA É de particular importância no exame da evolução da Química Orgânica registrar a descoberta, em 1985, do fulereno, nova forma alotrópica do carbono. Até então, só eram conhecidas as formas cristalinas do diamante (transparente e duro) e do grafite (opaco e quebradiço), e o sólido amorfo carvão. Os fulerenos são compostos de carbono obtidos com a condensação do vapor de carbono em altíssimas temperaturas. Em escassa quantidade na Natureza, são encontrados na atmosfera, formados por descarga elétrica dos relâmpagos. Com diferentes quantidades de átomos de carbono (20, 60, 70, 100, 180, 240 e até 540 átomos), o fulereno, por exemplo, C60 (forma de bola de futebol) é formado por 12 pentágonos e 20 hexágonos; o C20 tem 12 pentágonos, mas não possui hexágono, e o fulereno C70 (forma de bola de rugby). Em 1985, os americanos Robert Curl Jr. (1933) e Richard E. Smalley (1943), ambos da Rice University (Houston, Texas), e o inglês Harold W. Kroto (1939), da Universidade de Sussex, Brighton, na Inglaterra, receberiam o Prêmio Nobel de Química de 1996 “pela descoberta da estrutura dos fulerenos, grandes moléculas de carbono de enorme importância para a indústria química e eletrônica”. Em 1990, Wolfgang Kratschmer e Nonal Hoffman isolaram e sintetizaram o C60. A partir das pesquisas em fulerenos, foi obtido, em 1991, um novo composto de carbono, denominado nanotubo, descoberto pelo físico japonês Sumio Iijima (1939), pesquisador da NEC e professor da Universidade Meijo. Campo bastante novo, prosseguirão, no futuro, as pesquisas em fulerenos e nanotubos com o objetivo de disseminar sua utilização pela indústria. 7.5.4.1 Estereoquímica Como ramo da Química relativo ao estudo do arranjo ou disposição espacial dos átomos nas moléculas, a Estereoquímica trata dos isômeros compostos com a mesma fórmula molecular, mas estruturas diferentes. O fenômeno da isomeria se refere à existência de duas ou mais estruturas para uma mesma fórmula molecular, ou seja, a possibilidade da existência de mais de um composto com a mesma fórmula molecular. A área de abrangência da Estereoquímica é enorme, incluindo setores da Química inorgânica e orgânica, e sua importância é crescente, conforme demonstram as pesquisas, particularmente na atualidade. Pioneiro nesta área foi o químico Louis Pasteur (1822-1895), com seus trabalhos, em 1848, sobre os isômeros, no caso o ácido tartárico e o ácido 254 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO racêmico, nos quais descobriu que alguns compostos químicos eram capazes de se dividir num componente “direito” e “esquerdo”, sendo um o espelho do outro. Esse fenômeno molecular, chamado de quiralidade (do grego kheiros, mão), ocorre quando as imagens opostas não são sobreponíveis, isto é, quando um objeto não é sobreposto à sua imagem no espelho. As pesquisas em Estereoquímica prosseguiriam com Jacobus Henricus Van’t Hoff (1852-1911), primeiro ganhador do Prêmio Nobel de Química, e Achille Le Bel (1847-1930), em 1874, com a explicação de arranjo espacial em forma de tetraedro das ligações do carbono, em A Suggestion Looking to the Extension into Space of the Structural Formulas at Present Used in Chemistry. Ainda no final do século, deve ser consignada a contribuição de Emil Fischer (1852-1919), inventando um método de representar carbonos tetraédricos no papel. Alfred Werner (1866-1919), Prêmio Nobel de Química de 1913, químico francês, de origem alemã, residente e cidadão suíço, doutor pela Universidade de Zurique, pós-graduação em Paris (1890), com Marcellin Berthelot, autor, entre outras obras, de Uma Nova Concepção da Química Inorgânica e Lehrbuch der Stereochemie, é considerado por muitos como o fundador da Estereoquímica. Em sua tese de doutorado, tratou da questão da disposição espacial de átomos em torno de um átomo central de nitrogênio e estendeu as ideias de Van’t Hoff a átomos além do carbono, obtendo compostos opticamente ativos de cobalto, cromo e ródio. Em 1893, Werner elaboraria sua Teoria da coordenação ou das valências secundárias da estrutura molecular, pela qual os átomos ou grupo de átomos estariam distribuídos em torno de um átomo central, de acordo com princípios geométricos fixos, independente do conceito de ligações de valência simples para moléculas inorgânicas e covalentes para orgânicas124. Pela mesma época das investigações de Werner, os químicos Frederick Stanley Kipping (1863-1949) e seu assistente William Jackson Pope (1870-1959), na Inglaterra, contribuiriam com suas pesquisas, particularmente, para o desenvolvimento da estereoquímica dos compostos opticamente ativos (nitrogênio e silício). Durante a Primeira Guerra Mundial, Pope desenvolveria métodos para a fabricação de gás de mostarda. A concessão do Prêmio Nobel de Química, em diversas oportunidades, na segunda metade do século XX (sem esquecer Van’t Hoff, o primeiro a recebê-lo), a pesquisadores com importantes contribuições no desenvolvimento da Estereoquímica, demonstra a importância e o crescente interesse por uma pesquisa de inestimável valor para a indústria farmacêutica. 124 PARTINGTON, James Riddick. A Short History of Chemistry. 255 CARLOS AUGUSTO DE PROENÇA ROSA Derek Harold Richard Barton (1918-1988), químico inglês, PNQ de 1969 “por suas contribuições à Química Orgânica, especialmente sobre as propriedades das moléculas orgânicas e disposição tridimensional de seus átomos”, se especializaria na Análise conformacional (1950) de grande importância no estudo da estrutura e reações dos esteroides, alcaloides e glucídios. O norueguês Odd Hassel (1897-1997), com doutorado pela Universidade de Berlim, exerceria diversas funções na Universidade de Oslo de 1925 a 1964 e dividiria com Derek Barton o PNQ de 1969 por suas “contribuições em Química Orgânica, especialmente sobre as propriedades das moléculas orgânicas e disposição tridimensional dos seus átomos”. Vladimir Prelog (1906-1998), nascido em Sarajevo, na Bósnia e Herzegovina, receberia o Prêmio Nobel de Química de 1975, “por seus trabalhos em estereoquímica das moléculas e reações orgânicas”, tendo estudado, inclusive, a estereoquímica das reações das enzimas. O químico australiano-britânico John Warcup Cornforth (1917) dividiria o PNQ com Prelog por suas contribuições nessas mesmas áreas de pesquisa125. As chamadas regras de Prelog, que definem as relações conformacionais entre reagentes e produtos, contribuiriam para a compreensão das estruturas de alcaloides (como quinino, estricnina), e, num trabalho conjunto com Robert Sidney Cahn (1899-1981) e o inglês Christopher Kelk Ingold (1893-1970), que lançara a ideia de mesomerismo em 1926, criaria o chamado sistema CIP (iniciais dos três autores), utilizado para distinguir a estereoquímica das moléculas. William S. Knowles (1917), da Universidade de Colúmbia, Ryoji Noyori (1938), da Universidade de Kyoto, e K. Barry Sharpless (1941), da Universidade de Stanford, receberiam o Prêmio Nobel de Química de 2001 por seus trabalhos ao “produzirem catalisadores para a síntese assimétrica de moléculas quirais”. O desenvolvimento da síntese catalítica assimétrica é de grande valor e de ampla aplicação na área dos fármacos e outras substâncias ativas com pureza enantiomérica, contribuindo decisivamente para o avanço na indústria farmacêutica por meio da síntese de muitos medicamentos, como antibióticos, anti-inflamatórios, etc126. O químico francês Henri Kagan (1930), professor da Universidade de Paris, é, igualmente, pioneiro nas pesquisas da catálise assimétrica. 125 126 Comunicado de Imprensa – PNQ de 1975. Comunicado de Imprensa – PNQ de 2001. 256 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.5.4.2 Reações Químicas Como transformação da matéria com mudanças qualitativas na composição química de uma ou mais substâncias reagentes, resultando em um ou mais produtos, ou seja, quando certas substâncias se transformam em outras, as pesquisas em reações químicas têm sido uma das mais importantes atividades dos investigadores na busca de novos processos e técnicas que permitam avanços nessa área fundamental do processo químico. As pesquisas ocorridas ao longo do desenvolvimento milenar da Química se intensificariam no século XIX, beneficiadas com o progresso na área da Termoquímica (Germain Hess, Julius Thomsen) e da Cinética química. Adolphe Würtz (1817-1884), Rudolph Fittig (1835-1910), August Wilhelm von Hofmann (1818-1892), William Henry Perkin (1860-1929) e Paul Walden (1863-1957), entre outros, dariam importantes contribuições, ao final do século, ao desenvolvimento de novos reagentes e de novos processos de compostos orgânicos. O tema seria prioritário nos estudos teóricos e nas investigações experimentais desde o final do século XIX e início do século XX, devendo ser registrada a contribuição de Henri Louis Le Chatelier (1850-1936), professor no Colégio de França e na Sorbonne, com seu princípio do equilíbrio, pelo qual uma mudança na temperatura, concentração ou pressão num sistema em equilíbrio determinará uma mudança no equilíbrio de forma a minimizar seus efeitos. Le Chatelier contribuiu, igualmente, para o desenvolvimento da Química inorgânica e da Química analítica, tendo pesquisado extensamente no campo da metalurgia. Dois químicos franceses ocupam posição de relevo no estudo das reações químicas: Victor Grignard (1871-1935), professor nas Universidades de Nancy e Lyon, iniciou, em 1935, a publicação do Tratado de Química Orgânica, terminado após sua morte; com a descoberta (1901) dos compostos organomagnesianos (reativos Grignard), surgiria, na Química Orgânica, um novo método de síntese, conhecida como reação Grignard; sobre o assunto escreveu sua famosa tese Sobre as combinações organomagnesianas mistas, em 1901; e Paul Sabatier (1854-1941), professor da Universidade de Toulouse (1884-1930), pesquisador de ações catalíticas, tendo descoberto a catálise seletiva (autor de A Catálise na Química Orgânica, 1912), método de hidrogenação de compostos orgânicos na presença de metais finamente divididos, o que viria a permitir a fabricação de sabões mais baratos a partir do uso de gordura de pescado como matéria-prima, em substituição a gorduras de outras origens. A utilização do níquel, metal mais barato que os até então usados (platina, paládio), como catalisador, tornaria 257 CARLOS AUGUSTO DE PROENÇA ROSA possível a formação de gorduras comestíveis (margarina e manteigas de plantas oleaginosas não comestíveis) em grandes quantidades, e com vantagem econômica e comercial127. As contribuições dos químicos franceses Grignard e Sabatier permitiriam grande progresso na Química Orgânica, e seriam laureados em 1912 com o Prêmio Nobel de Química. O alemão Otto Paul Hermann Diels (1876-1954), formado pela Universidade de Berlim, onde exerceu a cátedra de Química, de 1906 a 1916, e depois, na Universidade de Kiel, até sua aposentadoria, em 1948, descobriria, em 1906, por acidente, um novo óxido de carbono, o peróxido de carbono (C3O2), e um método de remover hidrogênio de esteroides por meio de selênio, utilizando tal método em pesquisa de colesterol. Em 1928, com seu assistente Kurt Alder (1902-1958), com doutorado pela Universidade de Kiel, professor na Universidade de Colônia, pesquisador em síntese de compostos orgânicos e em borracha sintética, descobriria a reação sintética (conhecida como reação Diels-Alder) na qual dois dienos (compostos com duas ligações duplas) são combinados, com o objetivo de formarem um anel de átomos. Essa reação é utilizada na produção de polímeros128. Por seus trabalhos, receberiam o PNQ de 1950. A reação Diels-Alder é considerada uma das mais poderosas em Síntese orgânica. O bioquímico alemão Hans Adolf Krebs (1900-1981), formado em Medicina pela Universidade de Hamburgo, e assistente de Otto Warburg, de 1926 a 1939, emigrou para a Inglaterra em 1933, com a ascensão de Hitler, assumindo a cátedra de Bioquímica da Universidade de Sheffield (1935/54), e, no ano de 1954, em Oxford, onde permaneceria até sua aposentadoria, em 1967. Ainda na Alemanha, identificou, em 1932, o conjunto de reações químicas conhecidas como ciclo da ureia, no fígado. Prosseguiria as pesquisas de Carl e Gerty Cori sobre a hidrólise do glicogênio e sua consequente geração de ácido láctico. Usando músculo peitoral de pombos, integrou os elementos conhecidos do processo num único esquema coerente, conhecido como ciclo do ácido cítrico ou ciclo de Krebs. A molécula de dois carbonos (coenzima A) resultante da primeira fase do ciclo do ácido cítrico (três carbonos), desconhecida de Krebs, seria estudada por Fritz Lippmann com quem dividiria o PNFM de 1953. O inglês Christopher Kelk Ingold (1893-1970), professor de Química Orgânica na Universidade de Leeds (1924-30), e depois da Universidade de Londres (1930-61), autor de cerca de 400 trabalhos científicos e do livro Estrutura e Mecanismo em Química Orgânica (1953), dedicou-se à pesquisa do mecanismo da reação orgânica, particularmente da cinética 127 128 TATON, René. La Science Contemporaine. WOJTKOWIAK, Bruno. Histoire de la Chimie. 258 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO das reações de substituição e eliminação. Em 1926, apresentou a ideia do mesomerismo no livro Princípios da Teoria Eletrônica das Reações Orgânicas (1934), equivalente à teoria da ressonância, de Linus Pauling. O inglês Cyril Norman Hinshelwood (1897-1967), professor da Universidade de Oxford (1937-1964), e depois pesquisador do Imperial College, de Londres, é autor, em 1926, de A Cinética da Mudança Química em Sistemas Gasosos, em 1934, de A Reação entre Hidrogênio e Oxigênio, em 1951, de A Estrutura da Químico-Física, em 1954, de A Cinética Química da Célula da Bactéria, e, em 1966, de Crescimento, Função e Regulação em Células de Bactérias. Tais obras seriam importantes para as futuras pesquisas em antibióticos e agentes terapêuticos. O russo Nikolay Nikolaevich Semenov (1896-1986) estudou na Universidade de São Petersburgo, onde trabalhou até se transferir, em 1944, para a Universidade de Moscou, como chefe do Departamento de Cinética Química. Contribuiu com pesquisas na área de reação em cadeia, nos anos 20, demonstrando que tais reações podem levar à combustão e explosões violentas. Escreveu, em 1934, Cinética Química e Reações em cadeia. Semenov e Hinselwood dividiriam o PNQ de 1956 por suas contribuições para o entendimento do mecanismo das reações químicas, e, especificamente, pelo avanço da Cinética química e das reações em cadeia. As pesquisas do químico alemão Karl Ziegler (1898-1973), doutor, em 1920, pela Universidade de Marburg, professor em Frankfurt, e depois, em Heidelberg, nos anos 40 e 50, se concentraram nos compostos orgânicos metálicos, buscando aperfeiçoar as substâncias obtidas por Grignard. O avanço na fabricação de plásticos esbarrava no caráter aleatório dos resultados obtidos pelos métodos utilizados, que resultavam em ramificações na longa cadeia das moléculas, o que enfraquecia o produto final. Era o caso, por exemplo, do polietileno. Em 1953, Ziegler foi capaz de usar, como catalisador, resina enriquecida com íons de metais (alumínio, titânio) para produzir polietileno sem ramificações na cadeia, o que significava uma resina com alto grau de dureza. Trabalho na mesma linha seria levado a cabo pelo italiano Giulio Natta (19031979), doutor em Engenharia Química pelo Instituto Politécnico de Milão, encarregado, pelo governo, de dirigir as pesquisas sobre borracha sintética. Tendo conhecimento das investigações de Ziegler sobre compostos organometálicos, Natta trabalharia com propileno, descobrindo que, no polímero formado, todos os grupamentos metil estavam voltados para o mesmo lado, e não distribuídos ao acaso. A importância dessas pesquisas no aperfeiçoamento da polimerização foi reconhecida com a outorga do PNQ de 1963. 259 CARLOS AUGUSTO DE PROENÇA ROSA Ronald George Wreyford Norrish (1897-1978), químico inglês, estudou na Universidade de Cambridge, sua cidade natal, pesquisou na área de Fotoquímica e Cinética química, e, com antigo aluno, George Porter, desenvolveu a espectroscopia cinética e a técnica de clarões de luz ultracurta para a investigação em reação muito rápida com resposta a curtos pulsos de energia. George Porter (1920-2002), professor de Química da Universidade de Sheffield (1966-85), e do Imperial College de Londres a partir de 1987, se dedicaria ao desenvolvimento de técnica de clarões de luz. Dessa maneira, puderam ser estudadas reações químicas que ocorrem em tempo não superior a um bilionésimo de segundo. O físico-químico alemão Manfred Eigen (1927) estudou e se formou (1951) na Universidade de Göttingen e ingressou, em 1953, no Instituto Max Planck de Físico-Química. Introduziu, em 1954, a técnica de relaxamento para o estudo das reações extremamente rápidas, sendo a formação da molécula da água a primeira reação investigada, provando que não era causada pela colisão dos íons H+ e OH-, mas que o íons reativos eram os H9O4+ e H7O4-. Eigen dividiria com Porter e Norrish o PNQ de 1967. Herbert Charles Brown (1912-2004), professor da Universidade de Purdue (1947-1978), desenvolveu novos reagentes contendo boro, pesquisou os compostos de boro, tendo descoberto o reagente, hidreto de boro, muito usado em Química Orgânica para redução, e criou uma classe de organoboros, também bastante utilizados em Química Orgânica. E Georg Wittig (1897-1987) descobriria uma classe de reativos de compostos de fósforo (reação Wittig) e dividiria com Brown o PNQ de 1979. Os trabalhos de Brown e Wittig seriam da maior importância para o desenvolvimento da Síntese orgânica129. O químico canadense John Charles Polanyi (1929) formou-se em 1952 pela Universidade de Princeton, transferiu-se pouco depois para a Universidade de Toronto, onde assumiria a cátedra de Química, em 1962. Desenvolveria método pelo qual “as moléculas formadas por reações químicas trabalham sinalizando para nós seu estado de excitação... através da emissão infravermelha”. O americano Dudley Robert Herschbach (1932) estudou em Stanford e Harvard, onde concluiu seu doutorado em 1958, ensinou por quatro anos em Berkeley, e, em 1963, retornou a Harvard como professor de Química. Investigou extensamente reações químicas, em especial as moléculas reativas dos feixes luminosos, pelo que dividiria o PNQ de 1986 com Polanyi e o sino-americano, nascido em Formosa, Yuan Tseh Lee (1936). Formado pela Universidade de Tsing Hua, doutorado pela Universidade da Califórnia (Berkeley) em 1965, 129 Comunicado de Imprensa – PNQ de 1979. 260 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Lee começaria a pesquisar, em 1967, na Universidade de Harvard, com Herschbach, reações entre átomos de hidrogênio e moléculas de álcalis, e a construção de equipamento para estudo de moléculas de feixes luminosos. Em 1974, retornou a Berkeley como professor de Química e principal pesquisador da Lawrence Berkeley National Laboratory. O Prêmio Nobel de Química lhes foi outorgado por suas contribuições relativas à dinâmica dos processos químicos elementares130. A partir dos anos 80, quando os químicos passaram a investigar os estágios intermediários entre os reagentes e os produtos da reação química, surgiu o que se convencionou chamar de femtoquímica, relacionada aos fenômenos que ocorrem a femtossegundos, isto é, em intervalos de tempo extremamente curtos (10-15 de segundo). O francês Yves Chauvin (1930) e os norte-americanos Robert H. Grubbs (1942) e Richard R. Schrock (1945) dividiriam o PNQ de 2005 pelo desenvolvimento de uma reação química que revolucionou a síntese dos compostos orgânicos, e que foi primordial para aprimorar procedimentos para a produção em laboratórios de novos medicamentos e outros compostos de grande interesse industrial. A reação química desenvolvida por Chauvin, em 1971, já conhecida empiricamente desde os anos 50, é chamada de metátase (do grego para “mudança de posição”), que permite, em escala molecular, a “troca de lugar” de átomos ou grupos de átomos, de maneira a gerar novos compostos. A metátase das olefinas, moléculas orgânicas, permitiria a síntese simples e direta de um grande número de moléculas que são dificilmente obtidas por outros métodos. Grubbs desenvolveu catalisador à base de rutênio que permite um melhor controle da reação e serve para sintetizar moléculas mais complexas, e Schrock criou um composto de molibdênio capaz de acelerar a reação131. 7.5.4.3 Síntese Orgânica No exame da evolução da Química Orgânica, ocupa lugar de especial importância e projeção a atividade relacionada com a Síntese orgânica, ou seja, a da construção de moléculas orgânicas por meio de processos químicos. Numa primeira fase, a Síntese orgânica, área de pesquisa abrangente em vista da diversidade estrutural dos compostos químicos, esteve naturalmente restrita à síntese dos produtos naturais. 130 131 Comunicado de Imprensa – PNQ de 1986. Comunicado de Imprensa – PNQ de 2005. 261 CARLOS AUGUSTO DE PROENÇA ROSA Poucas substâncias orgânicas haviam sido obtidas em forma relativamente pura e a determinação de suas estruturas seria um grande desafio a vencer entre meados do século XIX e início do século XX. Poucas substâncias (alcaloides isolados de poções medicamentosas, ácidos carboxílicos e produtos voláteis de natureza terpênica) isoladas de plantas eram as únicas fontes de substâncias orgânicas da época. A fonte principal de compostos orgânicos era, inicialmente, o carvão, sendo a química dos compostos aromáticos a área mais desenvolvida. Com o advento dos motores a explosão, o petróleo se tornaria a mais importante fonte de produtos químicos, e, associado ao gás natural e aos produtos de fermentação, levaria ao desenvolvimento da química dos compostos alifáticos. A petroquímica e a carboquímica no início do século forneceriam, então, novas matérias-primas e assegurariam o progresso espetacular da indústria química, sendo as indústrias de tintas e corantes dois exemplos. Menção especial, pelas contribuições pioneiras ao desenvolvimento da Química, em geral, e da Síntese orgânica, em particular, no final do século XIX, e início do XX, deve ser feita a três químicos alemães: Victor Meyer (1848-1897), professor de Química na Universidade de Heidelberg, sintetizou uma série de novas classes de substâncias orgânicas, descobriu, em 1882, o composto tiofeno e denominou de Estereoquímica o estudo das formas moleculares; Johann Friedrich Wilhelm Adolf von Baeyer (1835-1917), professor nas Universidades de Estrasburgo e Munique, descobriu o ácido barbitúrico, obteve o índigo artificial, elaborou a Teoria dos anéis de carbono, realizou a primeira Síntese, em 1888, de um terpeno, recebeu o PNQ de 1905, por seus trabalhos em índigo e corantes aromáticos; Emil Hermann Fischer (1852-1919), professor nas Universidades de Erlangen, Würzburg e Berlim, descobriu, em 1874, o reagente fenil-hidrazina, usou os compostos de hidrazina para isolar açúcares em forma pura, lançou os fundamentos da Estereoquímica (estudo tridimensional das estruturas químicas), pesquisou as proteínas, investigou as propriedades de compostos de purina, que participam da formação dos ácidos nucleicos, em seu laboratório foi sintetizada a cafeína, a glicose, a frutose e a manose, em 1907, sintetizou uma molécula proteica (polipeptídeo) composta por 18 aminoácidos e obteve a primeira síntese, em 1914, de um nucleotídeo. Fischer recebeu, em 1902, o PNQ por seus trabalhos em açúcares e outras substâncias orgânicas, como as purinas. A baquelita é uma resina (um polímero sintético) estável e resistente ao calor, resultante da combinação, por polimerização, do fenol com o fenoldeído, e desenvolvida, em 1909, pelo químico belgo-americano Leo Hendrik Baekeland (1863-1944), formado pela Universidade de Gand, 262 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO inventor de um papel fotográfico que vendeu, em 1898, à firma Eastman Kodak, por 750 mil dólares, soma que financiaria suas futuras pesquisas. À nova resina, deu seu próprio sobrenome. Apesar de não ter sido o primeiro plástico (a celulide foi descoberta em 1869, por John Wesley Hyatt (1837-1920)), a baquelita representou o início da era dos plásticos, pois, resistente ao calor, uma vez endurecido não amolecia mais com o aumento da temperatura. Por suas qualidades, seria amplamente usada para rádios, telefones, diversos artigos elétricos, eletrônicos e de cozinha e brinquedos. Richard Willstatter (1872-1942), químico alemão, estudioso dos pigmentos vegetais e animais, pesquisou a clorofila e a fotossíntese, investigou os alcaloides (cocaína, atropina), contribuiu para o desenvolvimento da técnica da cromatografia, sintetizou o ciclo octatetraeno, em 1915, ano em que recebeu o PNQ por sua contribuição pioneira no estudo dos pigmentos das plantas, inclusive a clorofila. O Prêmio Nobel de Química de 1918 seria atribuído a Fritz Haber (1868-1934), por ter sintetizado a amônia pelo processo HaberBosch, descoberta da maior importância industrial, pois acabaria com o monopólio chileno do nitrato de sódio, matéria-prima essencial para a fabricação de explosivos e fertilizantes, da qual dependiam os países europeus e os EUA. A imagem negativa de Haber decorre de sua atuação no desenvolvimento e utilização de gases venenosos na Primeira Guerra Mundial. O desenvolvimento dos polímeros artificiais, a partir da década dos anos de 1930, é devido, em boa parte, às contribuições do químico Wallace Hume Carothers (1896-1937), nascido em Iowa, EUA, e com doutorado, em 1924, na Universidade de Illinois. Dedicado à pesquisa, em particular dos polímeros, foi escolhido pela companhia Du Pont, em 1928, para chefiar o departamento que iniciaria programa de pesquisa básica em materiais artificiais ou sintéticos. Investigou, com Julius Nieuwland (1878-1936), pesquisador do hidrocarboneto acetileno, as borrachas sintéticas, tendo verificado que a adição de um átomo de cloro à molécula com quatro átomos de carbono produzia um polímero bastante parecido com a borracha. A síntese obtida seria chamada neoprene, uma das primeiras borrachas sintéticas. O novo produto seria amplamente utilizado para substituir a borracha natural, cujo suprimento, proveniente do sudeste da Ásia, fora cortado pelo Japão. Imediatamente após o desenvolvimento do neoprene, Carothers passaria a pesquisar fibras artificiais com o intuito de encontrar um substituto para a seda, fibra de relativa escassez no mercado estadunidense, pelo difícil acesso e elevado preço, por 263 CARLOS AUGUSTO DE PROENÇA ROSA problemas comerciais com o Japão. Em 1934, seriam obtidos os primeiros poliésteres e poliamidas (nylon). Fibra considerada de valor estratégico, a produção do nylon durante a Segunda Guerra Mundial foi praticamente destinada para fins militares, o que retardaria seu uso generalizado e sua popularidade entre o público civil. Carothers, que sofria de profunda depressão, cometeria suicídio, sem ter podido constatar o sucesso de suas descobertas. O químico inglês Robert Robinson (1886-1975), professor das Universidades de Liverpool (1915-20), St Andrews (1921-22), Manchester (1922-28), Londres (1928-30) e Oxford (1930-55), especializou-se na pesquisa dos alcaloides, tendo estabelecido a estrutura molecular da nicotina, da morfina, em 1925, e da estricnina, em 1946, interessou-se por corantes naturais extraídos de plantas, obtendo a síntese das antocianinas e das flavonas. Em 1917, conseguiu a síntese total da tropinona. Em 1947, foi laureado com o Prêmio Nobel de Química por suas investigações em produtos vegetais de importância biológica, em especial os alcaloides, e, em 1953, recebeu a Medalha Priestley, da Sociedade Química Americana. A busca pela cura do beribéri (a vitamina cuja ausência causava a doença era uma amina) levaria à descoberta de que alguns alimentos (arroz polido, carne, amendoim, gérmen de trigo, ervilha, gema de ovo) teriam a capacidade de reduzir os efeitos da doença. Nesse sentido, seria pioneira a pesquisa do médico holandês Christian Eijkman (1858-1939), pela qual receberia o PNQ de 1929. Em 1933, o químico americano Robert Runnels Williams (1881-1961) conseguiu isolar uma substância que, por conter uma molécula de enxofre do grupo “tio” e amina, seria chamada de “tiamina”, nome químico da vitamina B1. A síntese da vitamina seria obtida por Williams em 1937. É interessante registrar que, devido às evidências de que certas doenças, como o beribéri, o escorbuto e o raquitismo, ocorriam devido à ausência de aminas na dieta alimentar dos doentes, o médico polonês, naturalizado americano, Casimir Funk (1884-1967), sugeriu o nome de vitamina (aminas da vida) para as substâncias que continham o grupo das aminas nas moléculas. O químico inglês Walter Norman Haworth (1883-1950) dedicou-se ao estudo da estrutura dos açúcares, completando a obra de Emil Fischer, inclusive representando suas moléculas em forma de anel (em vez de colocar os átomos de carbono em linha reta). Essa representação é conhecida hoje como fórmula de Haworth. Em 1929, publicaria A Constituição dos Açúcares132. Em 1934, sintetizou a vitamina C (ácido 132 IHDE, Aaron J. The Development of Modern Chemistry. 264 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO ascórbico), vindo a receber, em 1937, o PNQ “por suas pesquisas em carboidratos e vitamina C”. Nessa mesma época, o bioquímico suíço Tadeus Reichstein (1897-1996, PNFM de 1950) sintetizaria a vitamina C. Importantes contribuições daria o químico suíço Paul Karrer (1889-1971) à Química Orgânica com suas pesquisas em carotenoides, flavinas e vitaminas. Em 1931, esclareceu a estrutura do pigmento vegetal, particularmente do carotenoide amarelo, o que levaria ao beta-caroteno, principal precursor da vitamina A, cuja síntese obteve na mesma época do químico alemão Richard Kuhn (1900-1967, PNQ 1938) e seu grupo. Karrer sintetizaria, em 1935, as vitaminas B2 (riboflavina) e E (tocoferol). Karrer pesquisou, igualmente, as flavinas, uma das quais, a lactoflavina, parte do complexo originalmente chamado de vitamina B2. Escreveu mais de mil artigos sobre as vitaminas A, B2, C, E e K, e publicou o Manual da Química Orgânica, em 1930. A cortisona foi isolada, pela primeira vez, em 1936, pelo polonês Tadeusz Reichstein (1897-1996), o que lhe valeria o Prêmio Nobel de Fisiologia e Medicina de 1950. Os biofísicos Henrik Dam (1895-1976) pela descoberta da vitamina K, e Edward Adelbert Doisy (1893-1986), pesquisador na área dos hormônios sexuais (tendo isolado estrona, estriol e estradiol, os três mais importantes estrógenos produzidos no corpo humano), pela descoberta da sua natureza química, dividiriam o PNFM de 1943. A vitamina K fora isolada e sintetizada em 1939, por Dam133. O químico croata Leopold Ruzicka (1887-1976), assistente de Staudinger em Karlsruhe, acompanhou-o a Zurique, onde daria conferências e cursos no Instituto Federal de Tecnologia. Em 1926, seria nomeado professor de Química Orgânica na Universidade de Utrecht, e, após três anos, retornaria a Zurique para assumir a cátedra de Química do Instituto. Interessado pelos trabalhos pioneiros de Otto Wallach (1847-1931) sobre terpenos, hidrocarbonetos encontrados em óleos essenciais de várias plantas (conífera), Ruzicka pesquisaria a química dos terpenos, de grande interesse para a indústria de perfumes, o que o colocaria em contato com grandes empresas do setor (Haarmann & Reimer, da Alemanha, Ciba, da Suíça). Ainda de grande utilidade industrial seriam suas investigações sobre as substâncias almíscar e algália, tendo demonstrado que o anel de átomos de uma continha 16 átomos de carbono e a outra, 17 átomos, o que até então era considerado impossível, porquanto tornaria o anel demasiado instável134. Ruzicka receberia o PNQ de 1939 por seus trabalhos sobre polimetilenos e terpenos superiores. 133 134 IHDE, Aaron J. The Development of Modern Chemistry. ASIMOV, Isaac. Gênios da Humanidade. 265 CARLOS AUGUSTO DE PROENÇA ROSA Em 1939, equipe de químicos da Merck, Sharp & Dohme sintetizaria a vitamina B6 (piridoxina). Uma etapa importante na evolução da Síntese orgânica está relacionada com os trabalhos de Robert Woodward. Em 1820, os químicos franceses Joseph Pelletier (1788-1842) e Joseph Caventou (1795-1877) isolaram a quinina da casca da chinchona (planta originária do Peru) e a classificaram como um alcaloide, o que permitiu que a substância fosse concentrada para a produção de medicamento. Cortado o suprimento de quinina pela ocupação de Java e das Filipinas, pelos japoneses, e confiscado o estoque da substância na Europa, ocupada pela Alemanha, durante a Segunda Guerra Mundial, os governos dos países aliados se confrontaram com uma situação difícil, na qual centenas de milhares de soldados no front da África, do Sudeste asiático e do Pacífico Sul foram vítimas da malária. Sem substituto adequado para a quinina no combate à doença, tornou-se prioridade a busca da cura da malária. O anúncio, em 1944, da produção em laboratório, de forma sintética, de quinina, pelo químico americano Robert Burns Woodward (1917-1979), foi saudado como uma das grandes conquistas da Ciência contra as enfermidades. Com doutorado no MIT, Woodward é reputado como um dos mais importantes pesquisadores na área da Síntese orgânica, tendo seu trabalho representado verdadeiro marco no processo de evolução do tema. Além de quinina, Woodward sintetizou o colesterol (1951), cortisona (1951), estricnina (1954), ácido lisérgico (1954), reserpina (1958), clorofila (1960), tetraciclina (1962), colchicina (1963) e o antibiótico cefalosporina (1965). Em 1965, receberia o PNQ, “por sua extraordinária contribuição no campo da Síntese Orgânica” e “pela síntese de esteróis, clorofila e outras substâncias que se supunham produzidas apenas por seres vivos”. Desenvolveu, nos anos de 1940, técnicas espectroscópicas, de forma a determinar a estrutura de diversos produtos naturais complexos, como a penicilina (1945), a estricnina (1947), a patulina (1948), a oxitetraciclina (1952), a cevina (1954), a carbomicina (1956), a gliotoxina (1958) e a elipticina (1959). Nos anos 60 e 70, Woodward faria uso da técnica da espectroscopia de infravermelho e da espectroscopia nuclear de ressonância magnética. Uma de suas contribuições mais famosas e importantes, com a colaboração do químico suíço Albert Eschenmoser (1925), foi a síntese total da vitamina B12, em 1973, considerada marco na história da Química Orgânica, tendo, no mesmo ano, com Roald Hoffmann, estabelecido as chamadas “regras Woodward-Hoffmann” sobre a estereoquímica de produtos de reações químicas. Woodward, por suas pesquisas nos anos 50 sobre a estrutura do ferroceno, com o químico inglês Geoffrey Wilkinson (1921-1996), é pioneiro no campo da química dos compostos organometálicos. 266 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Em 1952, a morfina, fármaco narcótico do grupo dos opioides, isolada, em 1804, pelo alemão Friedrich Wilhelm Sertuner, seria sintetizada pelo químico americano Marshall Gates (1915-2003), professor da Universidade de Rochester. A penicilina, descoberta em 1928 pelo bacteriologista escocês Alexander Fleming, ao pesquisar os estafilococos, não despertaria imediato interesse, vindo a ser produzida para fins terapêuticos somente após as pesquisas do australiano Howard Florey (1898-1968) e do alemão Ernst Chain (1906-1979) no início dos anos 40, inaugurando a era dos antibióticos. A penicilina seria sintetizada, em 1957, por John C. Sheehan, professor do MIT. A síntese do hidrocarboneto cubano, molécula em forma de cubo, seria obtida, em 1964, pelo professor Philip Eaton (1936), da Universidade de Chicago, e a síntese total do dodecaedrano seria realizada em 1983, por Leo A. Paquette (1934) e sua equipe. O controvertido Paquette, do Departamento de Química da Universidade Estadual de Ohio, é editor da Enciclopédia de Reagentes para a Síntese Orgânica, volumosa publicação sobre as diversas reações químicas. O químico americano Edward Calvin Kendall (1886-1972, PNFM de 1950) determinaria a estrutura química e obteria a síntese da cortisona, em 1948. Especial menção deve ser dada aos trabalhos de Elias James Corey (1928), considerado como um dos mais brilhantes químicos do final do século XX, por suas significativas contribuições ao desenvolvimento da Síntese orgânica no campo da metodologia, reagentes e síntese total. Nascido em Massachusetts, formou-se, em 1948, e doutorou-se, em 1951, no MIT. Trabalhou na Universidade de Illinois, e, em 1959, transferiu-se para Harvard como professor de Química Orgânica. Em 1990, foi laureado com o Prêmio Nobel de Química pelo “desenvolvimento de teorias e metodologias de sínteses orgânicas”, por meio de um processo inverso, que se inicia pela estrutura da molécula alvo, examinando-se as ligações a serem cortadas, uma a uma, simplificando, assim, sua estrutura, passo a passo. Conhecidas a estrutura e a síntese de alguns desses fragmentos, se inicia o processo de volta ao ponto inicial. A síntese da molécula é, agora, possível135. No livro A Lógica da Síntese Orgânica (1989), Corey explicaria seu método de análise retrossintética. Em 2004 recebeu a Medalha Priestley. Corey desenvolveu vários reagentes sintéticos (como o PCC e o PDC), participou do desenvolvimento de diversas reações, como a Corey-Fuchs, a Corey-Winter, a Corey-House-Posner-Whitesides, a Johnson-Corey-Chaykosky, a redução Corey-Bakshi-Shibata e a oxidação 135 Comunicado de Imprensa – PNQ de 1990. 267 CARLOS AUGUSTO DE PROENÇA ROSA Corey-Kim, e realizou mais de uma centena de sínteses orgânicas, como a da prostaglandina (1969), longifolene, lactacistina e miroestrol. A reação conhecida como metátase, desenvolvida por Chauvin, Grubbs e Schrock, nos anos 70, e que lhes valeria o PNQ de 2005, já foi comentada na parte relativa às reações químicas. Em 1982, Kyriacos Costa Nicolaou (1946), químico cipriota naturalizado americano, obteria a síntese do taxol, substância de molécula complexa, de uso no tratamento do câncer. A síntese total foi conseguida em 1994, por Robert A. Holton, professor da Universidade da Flórida. 7.5.4.4 Macromoléculas O estudo das macromoléculas, longas cadeias de átomos com radicais diversos e múltiplas ramificações espaciais, que podem ser criadas continuamente com a adição de novos ingredientes por métodos de síntese orgânica, adquiriu grande importância na segunda metade do século XX. Seu campo de aplicação, a indústria de plásticos e de resinas sintéticas, ampliou-se para áreas da Biologia e da Medicina, estreitamente vinculadas à determinação da origem elementar da vida. Seu estudo se aproximou do estudo dos aminoácidos, alguns dos quais compõem as substâncias presentes nos elementos mais simples dos seres vivos, que incorporam, também, o código genético da transmissão hereditária. Além das macromoléculas biológicas (peptídeos, proteínas e moléculas de ossos), as macromoléculas de síntese resultam da polimerização de monômeros ou da policondensação de moléculas plurifuncionais136. A pesquisa desse campo, de crescente interesse e importância, deverá continuar como alta prioridade da comunidade química no futuro previsível. A primeira hipótese da existência de macromoléculas foi desenvolvida em 1877 por Kekulé, que sugeriu poder haver substâncias orgânicas naturais constituídas de moléculas de cadeias muito longas com propriedades especiais. Pela originalidade e por contrariar conceitos firmemente estabelecidos, a ideia não foi aceita pela comunidade científica. Em 1893, Emil Fischer sugeriria que a estrutura da celulose natural seria formada por cadeias constituídas por unidades de glicose e que os polipeptídeos (proteínas) seriam longas cadeias de poliaminoácidos unidas. O desenvolvimento da pesquisa na área dos plásticos conduziria à descoberta das macromoléculas. Em 1907, Leo Baekeland desenvolveria a resina baquelita. O químico alemão Hermann Staudinger (1881-1965), 136 COTARDIÈRE, Philippe de la. Histoire des Sciences. 268 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO que estudou nas Universidades de Darmstadt, Munique e Halle, onde se formou em 1903, e lecionou em Estrasburgo, Karlsruhe e Zurique, transferindo-se para a Universidade de Freiburg, em 1926, onde ensinaria até sua aposentadoria, em 1951, sustentaria, em 1924, que os poliésteres e a borracha natural possuíam estruturas químicas lineares, e criou o termo “macromolécula”. Staudinger sustentaria que muitos produtos naturais e todos os plásticos seriam constituídos por macromoléculas. Por seus estudos pioneiros em macromoléculas, particularmente sobre os mecanismos de polimerização de moléculas orgânicas, Staudinger receberia, em 1953, o PNQ. Ainda nos anos 20 e 30, Wallace Carothers (1896-1937) desenvolveria estudos sobre os poliésteres, o neoprene (1931) e as poliamidas (1935). Prosseguiriam, nas décadas seguintes, grandes avanços na pesquisa da química dos polímeros, sendo que em 1953 seria descoberta a polimerização pela reação estereoespecífica, por Karl Ziegler e Giulio Natta, e o resultante PNQ de 1963. O químico americano Paul John Flory (1910-1985), que iniciou sua carreira de pesquisador como assistente de Wallace Carothers na Du Pont, autor, em 1953, do conceituado Princípios da Química dos Polímeros, proporia a teoria da policondensação, recebendo o PNQ de 1974 “pelas conquistas fundamentais, teóricas e experimentais, na química das macromoléculas”. Em prosseguimento aos trabalhos de Emil Fischer, Donald Cram (1919-2001), professor da Universidade da Califórnia, Charles Pedersen (1904-1989), da Du Pont, e Jean Marie Lehn (1939), da Universidade Louis Pasteur, em Estrasburgo, laureados com o Prêmio Nobel de Química de 1987 “pelo desenvolvimento do uso de moléculas com interações estruturais específicas de alta seletividade”, criariam modelos, em 1952, de indução assimétrica, relativa à formação numa reação química de um enantiômero, fundamental para a síntese assimétrica. Isto é, criariam estruturas orgânicas capazes de interagir com cátions metálicos, mimetizando o comportamento de enzimas e proteínas137. O químico John Warcup Cornforth (PNQ de 1975 em estereoquímica das moléculas e reações químicas) criaria, igualmente, modelos sobre indução assimétrica. A este novo campo de pesquisa, Lehn chamou de química da supramolécula. Nos anos 80 e 90, foram descobertas as macromoléculas de carbono, denominadas fulerenos e nanotubos, que serão objeto de intensa pesquisa no futuro. Comentários sobre o assunto constam da parte introdutória da Química Orgânica. 137 Comunicado de Imprensa – PNQ de 1987. 269 CARLOS AUGUSTO DE PROENÇA ROSA 7.5.5 Bioquímica A Bioquímica, área de interface entre a Química e a Biologia, é considerada uma Ciência do século XX, uma vez que seu desenvolvimento dependia diretamente da Química analítica, da Química Orgânica e da Biologia, cujos avanços teóricos e laboratoriais específicos só seriam obtidos a partir da segunda metade do século XIX. O grande interesse despertado pelo assunto na comunidade científica explica seu extraordinário progresso, alcançado num período relativamente curto, e de profundo impacto na sociedade atual. O conhecimento da composição química da célula (carboidrato, lipídio, proteína e ácido nucleico) e o entendimento do processo vital em termos moleculares pelo estudo do dinâmico processo químico (ação, reação, transformação) no interior das células e de suas inter-relações complexas, seriam conseguidos ao longo do século XX e do atual, por meio de intrincadas e intensas investigações, em prosseguimento aos estudos pioneiros iniciados no período anterior. Assim, importantes descobertas do século XIX poderiam ser citadas como antecedentes da Bioquímica. Dessas significativas pesquisas de químicos e biólogos, caberia mencionar, a título exemplificativo, a síntese da ureia, em 1828, por Friedrich Wöhler; do ácido acético, em 1843/44 por Adolph Kolbe; dos corpos graxos, álcool etílico, ácido fórmico e metano, nos anos 50, e acetileno, etileno e benzeno, nos anos 60, por Marcellin Berthelot; os estudos de Michel Chevreul, que demonstrariam serem as gorduras constituídas de ácidos graxos e glicerol; os trabalhos de Emil Fischer, no final do século, sobre a estrutura dos açúcares, aminoácidos e gorduras; as pesquisas de Justus von Liebig sobre a aplicação da Química na Agricultura e sobre os valores calóricos dos alimentos; a descoberta do ácido proteico, em 1868, por Johann Friedrich Miescher; a descoberta de Theodor Schwann, da origem biológica do processo de fermentação, cuja origem microbiana seria demonstrada (1856/62) por Louis Pasteur; a descoberta da “zimase”, por Eduard Büchner (PNQ de 1907 por seu trabalho em fermentação não celular), como prova de a fermentação ser causada por enzimas, sem necessidade de células vivas; e o uso de métodos químicos por Claude Bernard para a solução de certos problemas biológicos. Já no final do período, a teoria do vitalismo não tinha apoio na comunidade científica, estando assentado que as leis químicas aplicáveis às substâncias inorgânicas são igualmente válidas para a célula viva138. A constituição do ramo da Bioquímica se deu ao longo do século XX, por meio de uma série de formulações teóricas e de descobertas 138 PARTINGTON, James R. A Short History of Chemistry. 270 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO fundamentais para o entendimento do processo químico no organismo vivo. O apoio recebido de instituições governamentais, de empresas privadas, de centros de pesquisa e de acadêmicos, da comunidade científica e do grande público, explica a condição privilegiada, no período, das atividades de investigação da Bioquímica. A cooperação entre químicos e biólogos na busca das respostas adequadas aos diversos questionamentos seria, igualmente, fundamental para o avanço acelerado do setor. O prestígio das atividades de pesquisa se refletiria na concessão de prêmios de alto conceito, como os Prêmios Nobel de Química, de Medicina e de Fisiologia, e a Medalha Priestley, confirmando o crescente interesse e reconhecimento da Sociedade pelos benefícios advindos dos trabalhos dos bioquímicos. A evolução das pesquisas da Bioquímica será apresentada a seguir, segundo as principais áreas de estudos e investigação, observando-se o critério cronológico. A evolução das pesquisas sobre o DNA e o RNA será tratada especificamente, tanto neste capítulo da Bioquímica, quanto no capítulo da Biologia molecular, uma vez que é um marco fundamental na evolução do conhecimento de ambas as Ciências. 7.5.5.1 Proteínas e Enzimas A imensa contribuição do químico alemão Emil Hermann Fischer (1852-1919) ao desenvolvimento da Química Orgânica se estendeu ao campo das enzimas, proteínas que agem como catalisadoras em reações bioquímicas. Suas investigações começaram na década de 1890 com vistas a esclarecer a relação entre os aminoácidos produzidos pelas proteínas quando decompostas por ácidos ou por certas enzimas e as proteínas. Em 1907, ao sintetizar uma unidade de 18 aminoácidos, que chamara de polipeptídio em razão de seu tamanho, estimou que as moléculas de proteínas fossem muito grandes, com um limite superior de 5 mil para seu peso atômico, e formadas por aminoácidos139. Em 1917, o químico dinamarquês Sören Sörensen (1868-1939) calculou o peso molecular de 35 mil para a molécula de proteína da clara de ovo. A principal atividade do químico sueco Theodor Svedberg (1884-1971), professor da Universidade de Uppsala, esteve relacionada com a química dos coloides e compostos macromoleculares, tendo, para tanto, desenvolvido, em 1923, uma ultracentrifugadora. As macromoléculas da proteína, embora entrando em solução, permaneceriam coloidais no que se refere às suas 139 RONAN, Colin. História Ilustrada da Ciência. 271 CARLOS AUGUSTO DE PROENÇA ROSA propriedades, sedimentariam sem mistura na ultracentrifugadora, o que permitiria obter, pela primeira vez, o exato peso molecular das proteínas e conhecer sua estrutura. Para a hemoglobina, o peso molecular é da ordem de 68 mil. Por seus trabalhos em coloides e proteínas, Svedberg seria laureado em 1926 com o Prêmio Nobel de Química. Os químicos norte-americanos James Batcheller Sumner (1887-1955) e Wendell Meredith Stanley (1904-1971) “pela descoberta de que as enzimas podem ser cristalizadas”, e John Howard Northrop (1891-1987), “pela preparação de enzimas e proteínas de vírus em forma pura”, dividiriam o PNQ de 1946. Wendell Meredith Stanley cristalizou o vírus mosaico do tabaco em 1935, e o da poliomielite, em 1954. James Sumner, em 1926, obteria a cristalização da enzima urease (capaz de transformar a ureia em gás carbônico e amoníaco), constatando ser a enzima uma proteína, o que seria confirmado por Northrop, no início dos anos 30, quando isolaria várias enzimas, como pepsina, tripsina, quimotripsina e ribonuclease. Outro químico sueco, Arne Wilhelm Tiselius (1902-1971), professor na Universidade de Uppsala, e, por muitos anos, assistente de Svedberg, pesquisou o fenômeno da eletroforese (movimento de partículas em solução ou suspensão sob ação de um campo elétrico) nas proteínas, em 1937, com um tubo especial em forma de U, que desenhara, no qual as moléculas de proteínas podiam mover-se e separar-se. Com lentes cilíndricas apropriadas, pôde Tiselius observar o processo de separação, inclusive as variações no desvio da luz que passava pela suspensão. Essas mudanças eram fotografadas, permitindo calcular a quantidade de cada proteína na mistura. Quando não ocorria separação por eletroforese, significava pureza da amostra da proteína. Por seu trabalho sobre eletroforese e análise de adsorção, e, especialmente, pelas descobertas relativas à natureza complexa das proteínas de soro, Tiselius receberia o PNQ de 1948. O bioquímico alemão, naturalizado americano, Fritz Albert Lipmann (1899-1986), após abandonar a Alemanha, com a ascensão de Hitler, trabalhou em Copenhague, na Fundação Carlsberg, e depois se transferiu para os EUA, onde trabalhou em Cornell, em Harvard e no Hospital Geral de Massachusetts, indo lecionar Bioquímica, no ano de 1958, no Instituto Rockefeller, onde se aposentaria em 1970. Lipmann dividiria o Prêmio Nobel de Medicina de 1953 com Hans Krebs, pela descoberta, em 1947, da coenzima A e de sua importância para o metabolismo, pois, como substância catalítica, envolve a conversão celular do alimento em energia. 272 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Linus Pauling, já reconhecido na comunidade científica por seus estudos pioneiros na área de ligações químicas, se dedicaria, igualmente, ao exame das moléculas dos tecidos vivos, adiantando ser a estrutura das moléculas de proteínas fibrosas em forma de hélice, semelhante à estrutura dos ácidos nucleicos que viria a ser proposta por Watson e Crick. Pauling estudaria também a estrutura das hemoglobinas anormais, introduzindo a noção de distúrbios moleculares causados pela estrutura anormal de uma molécula de proteína. Em 1954, receberia Pauling o PNQ por seu trabalho em ligações químicas e sua aplicação para a elucidação da estrutura de substâncias complexas140. O bioquímico inglês Frederick Sanger (1918) é um dos quatro cientistas a ter recebido dois Prêmios Nobel, sendo os outros Marie Curie (Física, 1903, e Química, 1911), Linus Pauling (Química, 1954, e Paz, 1962), e John Bardeen (Física, em 1956 e 1972). Formado e com doutorado pela Universidade de Cambridge, Sanger demonstraria interesse por uma linha de pesquisa para a determinação da estrutura da cadeia de aminoácidos das moléculas das proteínas. A técnica da cromatografia do papel já estava descoberta (1944) por Richard Synge e Archer John Martin, o que permitia obter a separação dos aminoácidos e verificar sua quantidade na molécula da proteína. O problema a ser resolvido era, agora, determinar a posição exata de cada aminoácido na cadeia molecular. Tendo descoberto, em 1945, um composto, conhecido como reagente de Sanger, que se ligava a uma das extremidades de uma cadeia de aminoácidos, mas não à outra, seria possível identificar qual aminoácido estivera na extremidade vulnerável, separando-o pela cromatografia do papel e qual aminoácido tinha o reagente ligado a ele. Sanger investigaria, então, a molécula da proteína bovina insulina, isolada pelos fisiologistas canadenses Frederick Banting (1891-1941) e Charles Herbert Best (1899-1978), em 1922. Constituídas de cerca de 50 aminoácidos, distribuídos em duas cadeias interligadas, Sanger identificaria as pequenas cadeias obtidas, estabelecendo a ordem dos aminoácidos nas cadeias pequenas com o auxílio de seu reagente. Sua conclusão seria a de que as cadeias maiores só podiam originar aquelas cadeias mais curtas que ele havia descoberto. Após cerca de oito anos de trabalho, construiu uma estrutura de longa cadeia, estabelecendo a ordem exata dos aminoácidos em toda a molécula de insulina. Em 1958, receberia Sanger seu primeiro PNQ “pela determinação da estrutura molecular de proteínas, especialmente da insulina”. O trabalho de Sanger teria um grande e imediato impacto na química das proteínas, tendo sido decisivo para as investigações dos 140 Comunicado de Imprensa – PNQ de 1954. 273 CARLOS AUGUSTO DE PROENÇA ROSA bioquímicos Max Ferdinand Perutz (1914-2002) e John Cowdery Kendrew (1917), que dividiriam o PNQ de 1962 por seus estudos sobre as proteínas globulares, as chamadas hemoproteínas. O austríaco Perutz, formado pela Universidade de Viena, abandonaria seu país natal para fugir da ameaça nazista e se fixaria na Grã-Bretanha, onde, com a ajuda de William Bragg, trabalhou na Universidade de Cambridge, pesquisando a difração dos raios-X nas proteínas. Obteve seu doutorado em 1940, mas permaneceria preso durante toda a Segunda Guerra Mundial. Após o conflito, organizou o Laboratório de Biologia Molecular da Universidade de Cambridge e se dedicou ao trabalho de elucidação da estrutura detalhada da hemoglobina. Depois da descoberta de Sanger, o passo seguinte seria estabelecer como a cadeia de aminoácidos se ordenava exatamente dentro da molécula da proteína e a posição exata de cada átomo. Em 1953, descobriria que ao adicionar a cada molécula de proteína um átomo de um metal pesado (ouro, mercúrio), alterava bastante o aspecto geral da difração. Dispunha, agora, dos dados para deduzir, a partir da difração, a posição dos átomos (a molécula da hemoglobina contém cerca de 12 mil átomos dos quais metade são átomos de hidrogênio). Enquanto estudava a hemoglobina, Perutz encarregou Kendrew, que com ele trabalhava em Cambridge desde 1949, de pesquisar a molécula menor de mioglobina, com cerca de 1.200 átomos. Seria mostrado, em 1960, que as proteínas globulares, apesar de não formarem fibras, tinham, igualmente, moléculas com estrutura básica em forma de hélice. O bioquímico americano Robert Bruce Merrifield (1921-2006), formado pela UCLA, se especializaria em peptídios, escreveria sua autobiografia, The Golden Age of Peptide Chemistry (1993), escreveu famoso artigo, em 1963, sobre método de síntese dos peptídios, e obteve, em 1969, a síntese da enzima ribonuclease A, o que provava a natureza química das enzimas. Merrifield seria laureado com o PNQ de 1984 “pelo desenvolvimento de um método para a síntese química de proteínas complexas, numa matriz sólida”141. Os bioquímicos alemães Johann Deisenhoffer (1943), Hartmut Michel (1948) e Robert Huber (1937) dividiram o PNQ de 1988 por seus trabalhos com cristalografia de raios-X sobre a estrutura tridimensional de certas proteínas essenciais para a fotossíntese. A pesquisa revelaria, também, certas similaridades dos processos de fotossíntese das plantas e das bactérias. Os bioquímicos Paul D. Boyer (1918), professor da Universidade da Califórnia, e John E. Walker (1941), do Laboratório de Pesquisa de 141 Comunicado de Imprensa – PNQ de 1984. 274 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Biologia Molecular, em Cambridge, dividiriam o Prêmio Nobel de Química de 1997 “pela descoberta de um mecanismo enzimático que viabiliza a síntese de trifosfato de adenosina (ATP)”, com o dinamarquês Jens C. Skou (1918), da Universidade de Aarhus, “pela descoberta pioneira de uma enzima transportadora de íons ATP sintase ativada por K+ e NA+”. Os estudos de Boyer e Walker tratam de como a enzima ATP sintase catalisa a formação de ATP, a fonte mais importante de energia química para todos os organismos vivos, de bactérias e fungos a seres humanos. O ATP é produzido durante a respiração, processo pelo qual as células produzem ATP a partir da energia armazenada em moléculas provenientes de alimentos. Boyer propôs um mecanismo para a formação de ATP a partir de ADP (difosfato de adenosina) e de fosfato inorgânico, e Walker estabeleceu a estrutura da enzima e verificou o mecanismo proposto por Boyer. Skou descobriu a enzima trifosfato de adenosina estimulada por sódio e potássio, responsável pelo balanço de íons, sódio e potássio nas células vivas142. O americano Irwin Rose (1926), da Universidade da Califórnia, e os israelitas Avram Hershko (1937) e Aron Ciechanover (1947), ambos do Instituto de Tecnologia de Haifa, dividiram o Prêmio Nobel de Química de 2004 pela contribuição para o estudo da degradação das proteínas, por terem desvendado, em pesquisas realizadas nos anos 80, sobre como ocorre o processo de degradação celular de proteína mediado por ubiquitina. As proteínas, quando terminam seu “ciclo de vida”, precisam ser eliminadas, a fim de evitar erros na multiplicação das células. A molécula encarregada dessa eliminação é a ubiquitina, que se fixa a elas e as conduz aos proteossomos, que as destroem. Esse verdadeiro processo de controle de qualidade no organismo humano assegura seu bom funcionamento. Quando falha, podem aparecer doenças, como a leucemia e a fibrose cística. As células estão separadas entre si e do meio extracelular por uma membrana composta de uma camada dupla de lipídios, normalmente impermeáveis à água (o mais abundante componente de todos os organismos vivos), íons e outras moléculas polares. Em muitas ocasiões, porém, tais entidades devem ser transportadas através da membrana, em resposta a um sinal intra ou extracelular. O transporte da água se faz por canais, encontrados em todos os organismos, da bactéria à espécie humana. Nas plantas, por exemplo, são essenciais para a absorção de água nas raízes. E no corpo humano, os canais são fundamentais quando moléculas de água necessitam ser recuperadas de um fluido corporal, como no caso de 142 Comunicado de Imprensa – Prêmio Nobel de Química de 1997. 275 CARLOS AUGUSTO DE PROENÇA ROSA concentração de urina nos rins. Estudos do século XIX e primeira metade do século XX indicavam transporte de água em vários organismos e tecidos, mas, até 1988, o próprio conceito de canal de água era controverso, e não fora possível identificar uma proteína canal de água. Nesse ano de 1988, Peter Agre (1949), bacharel em Química e doutor em Medicina, professor de Química biológica na Universidade John Hopkins (esteve no Brasil duas vezes para participar de congressos, em 2000 e 2003) e sua equipe isolaram uma proteína, encontrada no rim, de função desconhecida. Após a determinação da sequência de DNA, a conclusão foi a de que a proteína em questão era um canal de água. A comparação de células com a proteína com as que não a continham, colocadas numa solução aquosa, mostraria que as células com a proteína em suas membranas absorviam a água por osmose, o que não ocorria com as outras células. A partir dessa data, muitas proteínas canais de água, conhecidas como aquaporinas (poros de água) foram encontradas. Pesquisas de 2001 e 2002 mostram que somente moléculas de água passam em fila indiana pelas membranas. Por outro lado, desde 1925, era aceita e proposta a existência de estreitos canais de íons, que transportariam sinais elétricos em tecidos vivos, através da membrana celular. Nos anos de 1950, Alan Hodgkin (19141998) e Andrew Huxley (1917) sugeririam um modelo em forma de bastão para a transmissão de impulsos elétricos ao longo de tecidos nervosos. Pelo trabalho, receberiam o PNM de 1963. Estudos posteriores avançaram no conhecimento de canais de íons, mas a determinação da estrutura da proteína via método da cristalografia de raios-X se mostrava grande desafio. Roderick MacKinnon (1956), formado em Química e Medicina, professor em Harvard (1989) e depois na Universidade Rockefeller (1996), pesquisador, desde 1997, do Instituto Médico Howard Hughes, começaria a estudar o assunto nos anos 90, anunciando, em abril de 1998, como um canal de íons que funcionava em escala atômica. Tais canais só difundem seletivamente, através de seus poros, certos íons, como de potássio, sódio, cálcio e cloreto. Tal seletividade no nível celular, resultante de um segmento de aminoácidos e detectada pela cristalografia de raios-X, é responsável pela existência de sinais elétricos, importante, assim, para controle do ritmo cardíaco e da secreção de hormônios na corrente sanguínea e na geração de impulsos elétricos no sistema nervoso143. Em 2003, Agre e MacKinnon dividiriam o Prêmio Nobel de Química pela descoberta de canais em membranas celulares, o primeiro pelos canais para água em células humanas, e o segundo, pelos estudos da estrutura e mecanismos dos canais para íons. 143 Comunicado de Imprensa – PNQ de 2003. 276 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.5.5.2 Ácido Nucleico – DNA e RNA O bioquímico alemão Albrecht Kossel (1853-1927) ocupa um lugar proeminente na etapa inicial do desenvolvimento da Bioquímica, assunto a que se dedicara desde 1877, como assistente de Ernst Félix Hoppe-Seyler (1825-1895), e depois, do fisiologista Emil Du Bois-Reymond (1818-1896). Em 1879, começou a investigar a substância nucleína, depois conhecida como ácido nucleico, isolada, em 1869, pelo bioquímico suíço Johann Friedrich Miescher (18441895), que fora, igualmente, assistente de Hoppe-Seyler. Em suas pesquisas, Kossel verificaria que a nucleína continha uma porção de proteína e outra sem proteína pelo que poderia ser considerada uma nucleoproteína, sendo sua porção sem proteína constituída pelo ácido nucleico. Quando fragmentados os ácidos nucleicos, constataria Kossel a presença de purinas e pirimidinas, compostos que continham nitrogênio. Kossel isolaria duas purinas, a adenina e a guanina, e três pirimidinas: a timina, a citosina e o uracil. Kossel pesquisaria, ainda, proteína em espermatozoide, e seria o primeiro a isolar a histidina, aminoácido codificado pelo código genético, e, portanto, um componente das proteínas dos seres vivos. Por seus trabalhos de grande significado para a compreensão da estrutura das proteínas e do ácido nucleico, Kossel receberia, em 1910, o Prêmio Nobel de Fisiologia e Medicina. O bioquímico Phoebus Aaron Theodor Levene (1869-1940) emigrou, com sua família, da Rússia para os EUA, em 1891, mas regressaria a seu país natal para concluir o curso de Medicina. De volta aos EUA, se formaria em Química pela Universidade de Colúmbia, quando, então, abandonou a carreira de médico para se dedicar totalmente à Química. Por influência do bioquímico alemão Albrecht Kossel, passou Levene a se interessar pelos ácidos nucleicos, área na qual daria importantes contribuições, como ao isolar e identificar a fração carboidrato da sua molécula. Em 1909, demonstrou que o açúcar ribose se encontrava em alguns ácidos nucleicos e provaria, em 1929, que um açúcar, então desconhecido, a desoxirribose (ribose com menos um átomo de oxigênio), poderia ser encontrada em outros. Mais nenhum outro açúcar foi encontrado no ácido nucleico. Com base nesses estudos, Levene sugeriria uma estrutura tetranucleotídeo, sob as abreviaturas dos dois grupos, ARN (em inglês RNA – ácido ribonucleico) e ADN (em inglês DNA – ácido desoxirribonucleico), com os quatro compostos de nitrogênio (adenina, guanina, citosina 277 CARLOS AUGUSTO DE PROENÇA ROSA e timina) mais carboidrato (açúcar) e fósforo. Com Levene ficaria estabelecido, igualmente, que o ácido nucleico é uma genuína molécula, independente da proteína144. Alexander Todd (1907-1997), professor em Cambridge, sintetizaria e descobriria a estrutura de todas as bases purina e pirimidina do ácido nucleico, trabalho importante para confirmar a sugestão de Levene sobre a base da estrutura tetranucleotídeo. Em 1957, Todd receberia o PNQ. O bacteriologista Oswald Theodore Avery (1877-1955), em suas pesquisas sobre as bactérias, descobriria, em 1944, que a substância transformadora era o DNA, e não a proteína, antecedente importante para a descoberta de Crick e Watson, nove anos depois, sobre a base química da hereditariedade. O bioquímico austríaco-americano Erwin Chargaff (1905-2002), com doutorado pela Universidade de Viena (1928) e pesquisas no Instituto Pasteur, em Paris, se dedicaria, após o anúncio de Avery sobre o papel do DNA na hereditariedade, ao estudo de sua molécula, na suposição de que deveria haver vários tipos de DNA. Utilizando a técnica da espectroscopia ultravioleta e da cromatografia em papel, descobriria que o DNA era constante numa espécie, mas que variava de uma para outra espécie. Em 1950, Chargaff anunciaria que, ao examinar as bases nitrogenadas nas moléculas de ácido nucleico, constatara que a quantidade de unidades adenina era equivalente ao de unidades timina, e que o número de unidades guanina correspondia ao de unidades citosina. Esse trabalho de Chargaff seria da maior utilidade à descoberta da estrutura do DNA por Crick e Watson. O ano de 1953 pode ser considerado marco significativo no processo evolutivo da Bioquímica pelo esclarecimento da estrutura do DNA por Francis Crick e James Watson, descoberta que lançaria as bases de uma nova ciência, a Biologia molecular, misto de Química, Biologia e Física. Os artigos de 25 de abril e de 30 de maio de 1953, na revista Nature, com a explicação da estrutura em dupla hélice do DNA, devem ser entendidos como um dos mais importantes acontecimentos científicos do século XX, tanto pela culminação de conhecimento acumulado ao longo do caminho percorrido, desde a descoberta do ácido nucleico por Miescher, em 1869, com as contribuições decisivas de outros notáveis pesquisadores, como Levene, Todd, Avery, Chargaff, Pauling, Perutz, Kendrew, Wilkins, Sanger e Rosalind Franklin, quanto pelo tremendo e imediato impacto no futuro desenvolvimento científico, em especial da Química e da Biologia. 144 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História. 278 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O americano James Dewey Watson e os ingleses Francis Crick e Maurice Wilkins dividiriam o Prêmio Nobel de Fisiologia e Medicina de 1962 “pelas descobertas relativas à estrutura molecular do ácido desoxirribonucleico, o DNA”145. Pouco depois, o espanhol naturalizado americano, Severo Ochoa (1905-1993), da Universidade de Nova York, descobriria, em 1955, a enzima catalisadora da formação do RNA, o que lhe permitiu criar um RNA sintético a partir de um só nucleotídeo, e Arthur Kornberg (1918), diretor do Departamento de Bioquímica da Universidade de Stanford, que criou moléculas sintéticas de DNA, em 1956, pela ação de uma enzima que catalisa a formação de polinucleotídeos, dividiriam o PNFM de 1959. Ainda nos anos 40, o bioquímico de origem alemã, naturalizado americano, Heinz Fraenkel-Conrat (1910-1999), com doutorado, em 1936, pela Universidade de Edimburgo, se notabilizaria pela pesquisa em vírus que atacam e danificam a célula viva. Sua investigação sobre o vírus mosaico do tabaco (TMV) é a mais conhecida. Fraenkel-Conrat demonstraria que os vírus possuíam ácido nucleico e proteínas, e que soluções de ácido nucleico podiam modificar certos aspectos físicos de linhagens bacterianas, o que tornava os RNA, como o DNA, transportadores das informações genéticas146. Em 1955, desenvolveu técnica para separar, e depois unir, o ácido nucleico das proteínas virais, sem afetar suas duas partes constitutivas, o que permitiu provar ser o ácido nucleico o verdadeiro agente de infecção da célula. No interior da célula infestada, o ácido nucleico determina o aparecimento de novas moléculas de ácido nucleico semelhante e provoca o aparecimento de envoltórios proteicos com as mesmas características das proteínas sintetizadas pela célula infestada. Em 1960, com Wendell Stanley, anunciou a sequência completa de 158 aminoácidos no vírus mosaico. Christian B. Anfinsen (1916-1995), do Instituto Nacional de Saúde, Bethesda, Maryland (EUA), seria laureado com metade do PNQ de 1972 por “seu trabalho em ribonuclease, referente à conexão entre a sequência do aminoácido e a conformação biologicamente ativa”, e Stanford Moore (1913-1982) e William Stein (1911-1980), ambos da Universidade Rockefeller, em Nova York (EUA), dividiriam a outra metade do Prêmio “por suas contribuições ao entendimento da conexão entre a estrutura química e a atividade catalítica do centro ativo da molécula ribonuclease”147. Anfinsen pesquisaria, desde os anos de 1950, o problema da relação entre Comunicado de Imprensa – PNQ de 1962. ASIMOV, Isaac. Gênios da Humanidade. 147 Comunicado de Imprensa – PNQ de 1972. 145 146 279 CARLOS AUGUSTO DE PROENÇA ROSA função e estrutura nas enzimas. Em 1955, Sanger descobriu a sequência de aminoácidos de proteína, feito que inspiraria os pesquisadores da Universidade Rockefeller a investigar uma molécula maior, a da enzima RNA. No final dos anos de 1960, Moore e Stein determinaram a sequência de 124 aminoácidos na molécula de RNA, a primeira enzima a ser analisada. Conhecidos a estrutura do DNA e o mecanismo de produção de proteínas, o grande desafio da Bioquímica passaria a ser a descoberta do código genético. Cada combinação de três nucleotídeos ao longo da cadeia de DNA equivalia a um aminoácido específico que nela se inseria por intermédio do RNA-mensageiro. Em 1961, Marshall Warren Nirenberg (1927), bioquímico americano do Instituto Nacional de Saúde, utilizando um RNA sintético formou uma proteína que continha apenas o aminoácido fenilalamina, o que significava o início da decifração do código genético. Novas correlações seriam logo estabelecidas entre os 64 tripletos de DNA e RNA e os 20 (vinte) aminoácidos (fenilalamina, treonina, leucina, serina, prolina, isoleucina, metionina, valina, alanina, cisteína, triptofano, tirosina, arginina, histidina, glutamina, asparagina, lisina, glicina, ácido aspártico e ácido glutâmico)148, e, na década dos anos de 1980, já estava conhecido todo o código genético. O químico indiano-americano Har Gobind Khorana (1922-1993) sintetizaria os 64 tripletos de nucleotídeos e o bioquímico Robert William Holley (1922-1993) anunciaria, em 1965, ter estabelecido a sequência completa de 77 nucleotídeos de RNA transportadores. Por essas contribuições ao desenvolvimento de pesquisas sobre os mecanismos celulares para a herança genética, os três pesquisadores receberiam o PNM de 1968. Os avanços na Bioquímica até a descoberta de Crick e Watson, em 1953, se limitaram ao campo do funcionamento do DNA em nível molecular. Vinte anos depois, pesquisas levariam ao desenvolvimento do “DNA recombinante”, isto é, uma molécula de DNA modificada criada pela combinação do DNA de dois organismos não relacionados. O feito foi realizado em 1972 pela equipe de Paul Berg, ao combinar o DNA bacteriano e humano. A data é considerada, normalmente, como a do início da Biotecnologia. A nova tecnologia e os organismos geneticamente modificados teriam imediato impacto nos meios científicos e leigos, suscitando, inclusive, muitos receios e preocupações em diversos setores da opinião pública. Para debater o assunto, realizou-se a Conferência de Asilomar, em 1975, na cidade de Pacific Grove, na Califórnia, assistida por cientistas, advogados e personalidades interessadas no tema. A moratória 148 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História. 280 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO proposta levaria à adoção de mecanismos de controle dessa tecnologia. Em 1980, receberia metade do PNQ por desenvolver métodos para mapear a estrutura e função do DNA, isto é, “por seus estudos fundamentais da bioquímica dos ácidos nucleicos, em particular sobre o DNA recombinante”149. A outra metade do PNQ de 1980 seria dividida entre William Gilbert (1932) e Frederick Sanger (1918) “por suas contribuições relativas à determinação de sequências básicas em ácidos nucleicos”. Nas décadas seguintes proliferariam, entretanto, os medicamentos (insulina, reposição de glóbulos brancos, tratamento de hemofilia, combate à rejeição ao transplante de rim) e os produtos alimentícios (arroz, tomate, leite, soja, milho) geneticamente modificados, além da clonagem de animais e mapeamento do genoma humano. A recombinação genética seria uma tecnologia cada vez mais desenvolvida e aplicada, apesar de persistirem os argumentos contrários à sua utilização. As pesquisas sobre a regulação da síntese de enzimas em bactérias mutantes levariam pesquisadores do Instituto Pasteur à formulação da teoria sobre a movimentação, quando necessária, dos genes, descobrindo o RNA-mensageiro, uma molécula intermediária na síntese da proteína, que faz a intermediação entre o DNA e as proteínas. Nesse processo, seria estudado o metabolismo das proteínas. Jacques Lucien Monod (1910-1976), André Lwof (1902-1994) e François Jacob (1920) receberiam o PNM de 1965 “por pesquisas e descobertas relativas às atividades regulatórias das células”. O americano Kary Banks Mullis (1944), com doutorado pela Universidade da Califórnia, Berkeley, e pesquisador, então, da empresa de Biotecnologia Cetus Corp, por inventar, em 1983, a PCR (Polymerase Chain Reaction), uma técnica desenvolvida que permite copiar, em bilhões de vezes, em poucas horas, a sequência do DNA para propósitos experimentais. Essa técnica é, hoje em dia, por exemplo, a mais utilizada para investigação de paternidade. O canadense Sidney Altman (1939), professor da Universidade de Yale, e o americano Thomas Robert Cech (1947), professor de Bioquímica da Universidade do Colorado, descobririam, em trabalhos independentes (1963), propriedades catalisadoras no RNA, e dividiriam o PNQ de 1989. A descoberta se refere a que o RNA consegue catalisar reações em sistemas vivos, capacidade que era atribuída, anteriormente, apenas às proteínas e enzimas. Por ter descoberto, por meio de imagens de raios-X, como a enzima RNA-polimerase funciona, ou, em outras palavras, por ter decodificado o 149 Comunicado de Imprensa – PNQ de 1980. 281 CARLOS AUGUSTO DE PROENÇA ROSA processo de transcrição da informação genética do grupo de organismos chamados eucarióticos, o bioquímico Roger David Kornberg (1947), professor da Escola de Medicina da Universidade de Stanford (Califórnia), recebeu o PNQ de 2006. De acordo com o comunicado de imprensa da Real Academia de Ciências, o prêmio foi concedido “pelos estudos das bases moleculares da transcrição celular em eucariotes (organismos de células com núcleo definido) que explica o processo pelo qual a informação genética do DNA é copiada pelo RNA”150. O trabalho de Kornberg se refere à síntese proteica a partir da transcrição genética, e descreve como a informação genética é copiada do DNA para o RNA-mensageiro, que, por sua vez, carrega a informação para fora do núcleo da célula de modo que possa ser usada na construção das proteínas essenciais às células e ao organismo. O processo é catalisado pela enzima RNA-polimerase. O trabalho representa importante contribuição para os futuros avanços no campo da Genética. Seu pai, Arthur Kornberg (1918), dividira, em 1959, o PNM com Severo Ochoa, por ter descoberto a síntese biológica do DNA. 7.5.5.3 Carboidrato Dentre as várias e importantes contribuições do químico Emil Hermann Fischer para o desenvolvimento da Química Orgânica, devem ser ressaltados seus trabalhos pioneiros e extensos estudos, iniciados na década de 1880, sobre carboidratos, consequência de suas pesquisas com as enzimas. A fenilhidrazina, descoberta (1875) que lhe daria fama, seria usada por Fischer, a partir de 1884, para isolar açúcares em forma pura e estudar suas respectivas estruturas. Em 1887, obteve a síntese da frutose, e depois, da manose e da glicose, compostos com a mesma estrutura, mas com propriedades diferentes, e mostrou como distinguir as 16 formas diferentes, dependentes das ligações entre os átomos, em que podiam apresentar-se os açúcares. Em suas pesquisas estereoquímicas, descobriu, ainda, que havia duas séries de açúcares, a que chamou de açúcar D e açúcar L, cada qual imagem em espelho da outra. Fischer seria laureado com o Prêmio Nobel de Química de 1902 por seus trabalhos na estrutura e síntese de açúcares e outras substâncias orgânicas, como a purina. Arthur Harden (1865-1940), bioquímico inglês, pesquisou a ação química das bactérias e a fermentação alcoólica. Estudou as células da levedura e escreveu uma série de artigos sobre vitaminas. Sobre os mesmos temas, pesquisou, na mesma época, o bioquímico sueco Hans Karl 150 Comunicado de Imprensa – PNQ de 2006. 282 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO August von Euler-Chelpin (1873-1964), professor de Química Orgânica da Universidade de Estocolmo (1906-1941) e diretor de seu instituto de pesquisa, de 1938 a 1948. Pesquisou as enzimas e as coenzimas, em particular, sua ação na fermentação do açúcar. Em 1914, escreveu um livro sobre a química da levedura e a fermentação alcoólica, e, em 1934, uma monografia sobre a Química das Enzimas. Harden e Euler-Chelpin dividiriam o PNQ de 1929 “por suas pesquisas em fermentação de açúcares e as enzimas relacionadas”151. Walther Norman Haworth (1883-1950) “por suas pesquisas sobre as estruturas químicas dos carboidratos e a vitamina C” e Paul Karrer (1889-1971) “pelas investigações em carotenoides, flavinas e vitaminas A e B2” dividiriam o PNQ de 1937. Haworth iniciou suas pesquisas sobre carboidratos, inclusive açúcar, celulose e amido, em 1915, tendo descoberto que os átomos de carbono do açúcar têm uma configuração de anel. Em 1929, publicou A Constituição dos Açúcares, que se tornaria um texto clássico sobre o assunto. O casal Gerty Theresa (1896-1957) e Carl Ferdinand Cori (18961984), bioquímicos nascidos em Praga, naturalizados americanos em 1928, dividiriam metade do PNFM de 1947 “pela descoberta da conversão catalítica do glicogênio”, ou seja, como o glicogênio, um derivado da glicose, é decomposto e ressintetizado no corpo para servir como fonte de energia. Durante a pesquisa (década de 1930), descobriram uma substância – glicose-l-fosfato, responsável pela pouca perda de energia. O argentino Bernardo Alberto Houssay (1887-1971), médico e farmacêutico, professor da Faculdade de Ciências Médicas de Buenos Aires, receberia a outra metade do PNFM pela “descoberta da função do hormônio pituitário no metabolismo do açúcar”, isto é, descobriu o significado do metabolismo dos hidratos de carbono em relação ao lóbulo anterior da hipófise. O trabalho de Houssay seria importante para se avançar na luta contra o diabetes. Hans Adolf Krebs (1900-1981) descobriria, em 1937, o chamado ciclo de Krebs, uma continuação do trabalho dos Cori, que mostraram como carboidratos, no caso o glicogênio, são decompostos no corpo em ácido láctico. Krebs completaria o processo, pesquisando como o ácido láctico era metabolizado em dióxido de carbono e água, seguido por uma série de reações químicas. Por seu trabalho, que resultou na descoberta do ciclo do ácido cítrico no metabolismo dos carboidratos, Krebs seria laureado com o PNFM de 1953. O bioquímico sueco Axel Hugo Theorell (1903-1982), professor de Bioquímica na Universidade de Uppsala e pesquisador do Instituto 151 Comunicado de Imprensa – PNQ de 1929. 283 CARLOS AUGUSTO DE PROENÇA ROSA Kaiser Guilherme (1933-35), investigou, com Otto Warburg, as enzimas que catalisam reações de oxidação, semelhantes à enzima amarela, descobrindo que consistem de duas partes, e que a coenzima oxida glicose pela remoção do átomo de hidrogênio. Estabeleceu, ainda, conexão entre coenzimas e vitaminas. Theorell recebeu o PNM de 1955 pelas pesquisas sobre a natureza e modo de ação das enzimas oxidantes e seus efeitos. O bioquímico argentino Luis Frederico Leloir (1906-1987), pesquisador do Instituto de Biologia e Medicina Experimental de Buenos Aires, apresentaria, em 1957, um mecanismo de sintetização do glicogênio, distinto do demonstrado pelos Cori, com quem trabalhou nos EUA (1944/45). Sua pesquisa daria uma completa explicação do processo de biossíntese do açúcar e da armazenagem do glicogênio no corpo humano. Em 1948, identificou uma coenzima fundamental no metabolismo dos hidratos de carbono, o que lhe permitiria dar uma explicação real e total de todo o processo. Em 1970, receberia Leloir o PNQ “pelos estudos sobre a metabolização e a estocagem dos açúcares no organismo humano e suas regras sobre a biossíntese dos carboidratos”152. 7.5.5.4 Metabolismo O termo metabolismo, derivado da palavra grega metabolé, troca, é empregado para denominar um conjunto de funções orgânicas (digestão, respiração), das quais resulta o fenômeno da vida. Nas células vivas, (constituídas de água, sais minerais, carboidratos, lipídio (gordura) e proteína), ocorrem, assim, alterações químicas, um processo dinâmico de ações, reações e transformações químicas. A estrutura da célula é, por conseguinte, instável, continuamente em mudança, em desgaste. As trocas metabólicas suprem a energia e o calor despendidos. As reações bioquímicas dos seres vivos dependem das enzimas, catalisadores de natureza proteica que aumentam a velocidade das reações. Todo esse processo é denominado metabolismo intermediário da célula, área da Bioquímica de intensa atividade de pesquisa, principalmente na primeira metade do século XX, com os trabalhos sobre a importância da reposição calórica e energética proporcionada pelos glicídios, lipídios, proteínas, sais minerais, vitaminas e hormônios. O bioquímico alemão Adolf Butenandt (1903-1995) foi laureado com o PNQ de 1939, junto com o suíço Leopold Ruzicka (1887-1976), por suas contribuições sobre hormônios sexuais. Isolou a estrona, em 152 Comunicado de Imprensa – PNQ de 1970. 284 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 1929 (no mesmo ano que Edward Adelbert Doisy), um dos hormônios responsáveis pelo desenvolvimento sexual das fêmeas, o androsterona, em 1931, hormônio sexual do homem, e, em 1934, o hormônio progesterona, importante no ciclo reprodutivo da fêmea. Ruzicka demonstrou que o colesterol poderia transformar-se em androsterona, e, com Butenandt, sintetizou a progesterona e a testosterona. Otto Fritz Meyerhof (1884-1951), por suas pesquisas em metabolismo do músculo, em particular a produção de ácido láctico no tecido muscular como resultado da quebra do glicogênio sem consumo de oxigênio, dividiria o PNFM de 1922 com Archibald Hilll (1886-1977), por suas investigações para a determinação da quantidade de calor produzida durante a ação muscular. Otto Heinrich Warburg (1883-1970), que desenvolveu (1923) o manômetro, destinado a medir a taxa de oxigênio ingerido pelo tecido humano, receberia o PNFM de 1931 por suas pesquisas relativas à respiração celular, que demonstrariam o papel do citocromo, enzima respiratória, elucidando a estrutura de certos fatores no processo de fermentação. Ainda em 1923, estudou o processo metabólico de células cancerosas, descobrindo que essas células consomem muito menos oxigênio que as saudáveis. O húngaro Albert Szent-Gyorgyi (1893-1986), por suas contribuições para o entendimento dos processos de combustão biológica, particularmente do papel de alguns compostos orgânicos, em especial da vitamina C, na oxidação de nutrientes pela célula, receberia o PNFM de 1937153. Em 1928, isolou das glândulas suprarrenais, e da couve e da laranja, a substância sob estudo que viria a ser chamada de ácido ascórbico. Em 1932, demonstraria ser a substância igual à vitamina C, que fora isolada por Charles Glen King (1896-1988), mas anunciada duas semanas antes. Estudou Szent-Gyorgyi a bioquímica da ação muscular e descobriu uma proteína no músculo a que chamou de actina. Isolou algumas flavonas. Interessou-se pela glândula timo e demonstrou sua participação no estabelecimento inicial da capacidade imunológica do corpo. A demonstração, em 1941, de que o gene afeta quimicamente a hereditariedade, e de que cada gene determina a estrutura de uma específica enzima, a qual permite que uma única reação química ocorra, valeria a George Wells Beadle (1903-1989), geneticista americano, e Edward Lawrie Tatum (1909-1975), bioquímico americano, o PNFM de 1958. Esse conceito de “um gene-uma enzima” introduzia a Genética no estudo da Bioquímica de micro-organismos. Uma mutação ocorria quando um gene 153 Comunicado de Imprensa – PNFM de 1937. 285 CARLOS AUGUSTO DE PROENÇA ROSA era alterado, não sendo mais capaz de formar uma enzima normal, ou mesmo nenhuma enzima. Nesses casos, alguma reação química deixava de ocorrer, rompia-se a sequência de reações e uma mudança radical poderia ocorrer nas características físicas do organismo. Suas pesquisas foram com um organismo bastante simples, o mofo chamado neurospora, vindo a deduzir a sequência de reações químicas que levavam à formação, dentro do mofo, do composto necessário a seu crescimento. Beadle e Tatum publicariam, em 1941, O Controle Genético das Reações Químicas no Neurospora. O bioquímico polaco-suíço Tadeus Reichstein (1897-1996) investigaria, nos anos 30, a química da adrenalina. Em 1946, já havia isolado 29 diferentes esteroides, e, em 1933, sintetizou a vitamina C. Pelo desenvolvimento de pesquisas sobre os hormônios da glândula suprarrenal, sua estrutura e efeitos biológicos, e o isolamento da cortisona, receberia Reichstein o PNFM de 1950, que dividiria com os bioquímicos americanos Edward Calvin Kendall (1886-1972) e Philip Showater Hench (1896-1965), que investigaram nessas mesmas áreas. Feodor Lynen (1911-1979), bioquímico alemão, e Konrad Emil Bloch (1912-2000), bioquímico alemão, naturalizado americano, que, em 1936, pesquisaram o metabolismo e a biossíntese (síntese natural) do colesterol e dos ácidos graxos, dividiriam o PNFM de 1964. Ainda com respeito ao colesterol, os geneticistas moleculares Michael S. Brown (1941) e Joseph Leonard Goldstein (1940) dividiriam o PNFM de 1985 pela elucidação do processo do colesterol no corpo humano. George Wald (1906-1997) estudaria a química da visão, descobriria que a vitamina A é um ingrediente vital para os pigmentos na retina e que a cegueira das cores é causada pela falta de um dos três pigmentos sensíveis à cor azul, amarelo e vermelho. Wald dividiria o PNFM de 1967 com Haldan Keffer Hartline (1903-1983) por seus estudos sobre os mecanismos da neurofisiologia da visão, e com Ragnar Arthur Granit (1900-1991), fisiologista, pelos estudos sobre as mudanças elétricas internas do olho quando exposto à luz. Julius Axelrod (1912-2004), bioquímico americano, e Bernard Katz (1911-2003), fisiologista, alemão de nascimento e naturalizado inglês, pela identificação da enzima que degrada os transmissores químicos dos nervos, e o sueco Ulf von Euler (1905-1983), que identificou a noradrenalina, neurotransmissor chave no sistema nervoso simpático, dividiriam o PNFM de 1970. As pesquisas dos três foram independentes uma das outras. A ação dos hormônios foi pesquisada por Earl Wilbur Sutherland (1915-1974), farmacologista e fisiologista americano. Em 1971, receberia 286 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO o Prêmio Nobel de Fisiologia ou Medicina pelo isolamento, em 1956, do monofosfato de adenosina cíclico e a demonstração de seu envolvimento em vários processos metabólicos nos animais. O endocrinologista Andrew Victor Schally (1926) por isolar e sintetizar o hormônio sintetizado pela glândula hipotálamo e as atividades de outras glândulas produtoras de hormônios, e o fisiologista Roger Charles Louis Guillemin (1924) pelas pesquisas a respeito da produção de hormônio pelo hipotálamo, dividiriam PNFM de 1977. A neurologista italiana Rita Levi-Montalcini (1909) e o bioquímico americano Stanley Cohen (1922) dividiriam o PNFM de 1986 pelas pesquisas sobre substâncias químicas produzidas no corpo, que influenciam o desenvolvimento dos tecidos dos nervos e da pele. 7.6 Biologia A profunda e recente transformação pela qual passou a Biologia explica sua posição central no processo atual de desenvolvimento científico. Submetida, durante longo tempo, a teorias, doutrinas e noções de ordem especulativa e arbitrária, sem qualquer fundamentação experimental e metodológica para a explicação dos fenômenos biológicos, a Biologia apenas emergiria recentemente, como uma Ciência estruturada, dotada de metodologia científica e no processo de expurgar preconceitos e dogmas de cunho sobrenatural. Somente na segunda metade do século XIX, seriam formulados princípios, leis e conceitos baseados em observações, investigações e comprovações, sem resquícios dogmáticos e pré-determinados, para o entendimento dos fenômenos biológicos. A Biologia entraria, assim, numa nova era cheia de realizações e importantes avanços teóricos e experimentais. Por seu impacto na melhoria das condições de vida da população, suas atividades seriam acompanhadas com crescente interesse pelo público em geral, o que lhe traria prestígio e notoriedade. O exame da evolução recente da Biologia mostra que a característica diferencial, em relação a épocas anteriores, se deve ao surgimento de duas novas áreas que revolucionariam não só a Biologia, mas toda a Ciência, na medida em que influenciariam, por seu desenvolvimento, o pensamento científico moderno. A Evolução Biológica e a Genética, contribuições científicas pioneiras de Charles Darwin e Gregor Mendel, que rivalizariam na História da Ciência com as de um Copérnico, de um Galileu, de um Newton, de um Lavoisier, de um Planck ou de um Einstein, 287 CARLOS AUGUSTO DE PROENÇA ROSA marcariam o início de uma nova fase, que transcende ao da Biologia para significar paradigmas da Ciência Moderna. Esses dois ramos científicos se constituiriam, de imediato, nos mais fecundos e mais importantes setores de pesquisa da Biologia na atualidade. Com o famoso título do célebre artigo Nada em Biologia faz sentido, exceto à luz da Evolução (1973), o biólogo russo-americano Theodosius Dobzhansky sintetizaria a importância da Evolução para a Ciência biológica. Ao dar um tratamento científico à questão da evolução da espécie animal no planeta, Darwin traria uma explicação, nova e revolucionária, para um tema até então supostamente pacífico e incontroverso. O acalorado debate resultante do conflito fundamental entre o criacionismo e o evolucionismo reflete a confrontação inevitável entre a concepção teológica e a científica sobre a origem da espécie, a qual perdura por todo o período, devendo prosseguir ainda por muito tempo. Apesar do abandono das ideias do vitalismo, da geração espontânea e do fixismo diante das evidências experimentais, o que representa o sucesso do espírito positivo sobre o especulativo, o evolucionismo, ou melhor, a teoria darwinista seria, e continua a ser, alvo de crítica de setores do meio científico e de grande segmento da opinião popular, ainda influenciados por considerações religiosas e preconceituosas. O aprimoramento ou refinamento da teoria darwinista, com os conhecimentos adquiridos por meio da Genética, resultaria na formulação, nos anos 40, da chamada Síntese Evolutiva, cujos princípios e conceitos passariam a predominar no tema da evolução da espécie animal. O incomparável sucesso da teoria evolucionista não foi capaz, porém, de vencer a resistência de certos círculos apegados ainda à metafísica e a forças ocultas para explicar os fenômenos biológicos; dessa forma, a polêmica atualmente não se refere mais à Evolução biológica da espécie, mas à sua origem, que alguns círculos da Sociedade ainda pretendem que seja divina. O debate se transferiu, assim, do campo da Ciência para o da Metafísica, fora, portanto, do âmbito deste trabalho. O novo ramo científico, denominado Evolução Biológica, ou simplesmente, Evolução, por suas características próprias e área de investigação, teria de adotar metodologia diferente da das chamadas Ciências Exatas e de outros setores da Biologia, como a Anatomia, a Fisiologia, a Citologia ou a Embriologia, passíveis de observação, experimentação, comparação e comprovação. Na impossibilidade de reproduzir as condições naturais prevalecentes em épocas pretéritas e adotar a experimentação em suas pesquisas, recorre a Evolução, principalmente, a conceitos (seleção, filogenia, competição, biopopulação, 288 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO biodiversidade, ecossistema, adaptação, etc.) e ao método comparativo histórico, de evidências, a fim de estabelecer a teoria capaz de explicar o processo evolutivo gradual, pela seleção natural, da espécie animal. Constitui-se a Evolução biológica, por conseguinte, num ramo muito particular da Biologia. A redescoberta, em 1900, da obra de Mendel, seria um marco fundamental na história da Biologia por sua excepcional importância no esclarecimento de uma série de fenômenos biológicos e por seu impacto em vários ramos da Ciência e no pensamento científico atual. Fruto de um paciente e meticuloso trabalho experimental, a Genética se firmaria no meio científico sem suscitar a controvérsia da teoria darwinista. Além de estabelecer as leis da hereditariedade (lei da segregação dos fatores e lei da segregação independente), Mendel seria o primeiro a se utilizar da estatística em Biologia. Em poucas décadas, se transformaria a Genética numa das áreas de maior interesse investigativo, e seu progresso teórico e experimental teria grande impacto na melhoria das condições de vida das populações, nos hábitos dos indivíduos e na mentalidade de segmentos sociais; em 100 anos apenas, o trabalho de Mendel evoluiria a ponto, por exemplo, de viabilizar o desenvolvimento da clonagem do embrião adulto e a descoberta do sequenciamento do genoma humano. Na segunda metade do século XX, já era uma das mais importantes áreas de pesquisa científica, e a extensa premiação, inclusive Nobel de Fisiologia e Medicina (PNFM), concedida aos seus pesquisadores, demonstra a prioridade concedida e a importância reconhecida pela comunidade internacional ao ramo da Genética. As tradicionais áreas de competência da Biologia continuariam a ser objeto de investigação, beneficiando-se, inclusive, de avanços em outros ramos científicos, como na Bioquímica, da inovação e aperfeiçoamento de instrumentos, como o microscópio eletrônico, e de novas técnicas e métodos, como a ressonância magnética. Assim, a Fisiologia, a Citologia, a Embriologia, a Microbiologia e a Taxonomia continuariam a dar importantes contribuições para a compreensão dos fenômenos biológicos. Dos diversos sistemas ou aparelhos do corpo humano (digestivo, respiratório, circulatório, ósseo, muscular e outros), o menos pesquisado, e, por conseguinte, o menos compreendido, até meados do século XIX, era o sistema nervoso. Num período histórico considerado como o século do conhecimento, seria natural que a pesquisa do cérebro viesse a se transformar numa das prioridades do meio científico. A complexidade do sistema nervoso (central e periférico) aguçaria ainda mais o interesse pelo entendimento do funcionamento do cérebro, iniciado, praticamente, com 289 CARLOS AUGUSTO DE PROENÇA ROSA os trabalhos pioneiros de Franz Josef Gall. Objeto de particular atenção e prioridade investigativa da Biologia, o exame do sistema nervoso, de grandes avanços no século XX, mas ainda insuficientes para sua compreensão adequada, teria como desdobramento e reconhecimento de sua importância a estruturação de um novo ramo da Ciência, a Neurociência, o que contribuiria para mobilizar a comunidade científica num continuado esforço de promissores resultados em curto prazo. A Genética e a Neurociência serão, provavelmente, as duas grandes áreas de atividade de pesquisa na Biologia nos próximos decênios. A nova característica da pesquisa biológica, ao envolver vultosos recursos financeiros, grandes e dispendiosos laboratórios, técnicos em diversas disciplinas, explica o mediato deslocamento do principal centro investigativo, que se localizava, tradicionalmente, na Europa ocidental, para os EUA, a partir do final dos anos de 1940. Alemanha, França e Grã-Bretanha continuariam na liderança da pesquisa biológica nas primeiras décadas do século XX, por meio de seus excelentes centros de estudo e investigação (universidades, laboratórios de empresas, Instituto Kaiser Guilherme, Instituto Pasteur), servindo, inclusive, como polo de atração para estudiosos de todo o mundo. Nessa fase, outros países europeus, em particular a Suécia, os Países Baixos, a Rússia (depois a URSS), a Itália, a Áustria, a Suíça e a Bélgica dariam, igualmente, contribuições relevantes em diversos ramos da Biologia; já, então, era significativo o aporte dos cientistas americanos, principalmente em Genética e Fisiologia. A implantação do regime nazista na Alemanha, e consequente fuga de cérebros e destruição da rede de estabelecimentos de ensino e de pesquisa, durante a Segunda Guerra Mundial, seriam fatores determinantes para que os EUA assumissem a liderança na pesquisa biológica, uma vez que dispunha da única, eficiente e competente infraestrutura capaz de continuar, no curto prazo, a obra de desenvolvimento científico. A retomada da pesquisa competitiva pelos grandes centros europeus (Alemanha, Grã-Bretanha, França, Suécia, Países Baixos e URSS) se daria a partir dos anos de 1970, quando começaria a dar frutos o desenvolvimento de atividades dos centros de investigação e de ensino devido aos grandes investimentos, por parte de importante número de empresas, e à conjugação de esforços em nível empresarial e governamental. O Japão ingressaria, também, a partir dos anos 70, na lista dos países com relevantes contribuições à pesquisa biológica, graças a seu extraordinário esforço para superar o período de reconstrução econômica do Pós-Guerra; o papel das universidades e das grandes corporações seria 290 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO decisivo para colocar o Japão como um dos centros mais avançados da investigação biológica. O Canadá e a Austrália fariam importantes investimentos em pesquisas, com excelentes resultados, colocando-se como centros de referência no ramo da Biologia. A pesquisa em Biologia não se limitaria aos países antes citados, posto que se tornaria universal o interesse em desenvolvê-la por sua importância estratégica, social, econômica e tecnológica. A Índia e a China na Ásia, a República Sul-Africana, o Brasil, a Argentina e o México, na América Latina, criariam centros de pesquisa e de estudos, e incentivariam inversões públicas e privadas com o objetivo de estabelecer uma infraestrutura que permitisse a formação de biólogos e o desenvolvimento de pesquisa, e, no futuro próximo, propiciasse sua contribuição, igualmente, para o grande avanço teórico e experimental em escala universal; nesse sentido, grande progresso foi realizado nos últimos anos, como atesta a participação de vários centros de pesquisa, desses países, em projetos de caráter internacional, como o do genoma humano. Um grande número de países possui, hoje em dia, centros de pesquisa, muitos de renome internacional, responsáveis, em parte, pelos avanços experimentais em Biologia. Vários desses laboratórios pertencem a instituições públicas ou corporações privadas, muitos são dependências de estabelecimentos de ensino, e diversos estão vinculados a empresas industriais; alguns centros são de caráter nacional, outros, internacional. De um grande número de instituições que aqui poderiam ser citadas, a menção de algumas é suficiente para ilustrar o assunto, como o Instituto Nacional de Genética, do Japão; o Instituto de Genética e Biofísica Adriano-Buzzati-Traverso (Nápoles); o Instituto de Citologia e Genética (da divisão da Sibéria, da Academia de Ciências da Rússia); The Institute for Genomic Research-ITIGR (Rockville, EUA); o Instituto de Genômica, de Pequim; o Instituto de Ciências Moleculares (Berkeley); o Sanger Institute (Grã-Bretanha); o Instituto Max Planck (Alemanha); o Instituto de Tecnologia da Califórnia – Caltech (Pasadena); as Carnegie Institutions; o Instituto Karolinska (Estocolmo); o Instituto de Biologia Molecular (Roma); o Roslin Institute (Escócia); o Instituto Pasteur (França); o Laboratório Cavendish (Grã-Bretanha); a Academia de Ciências da Rússia; e a Organização do Genoma Humano. Dentre as muitas universidades com departamentos especializados em pesquisa biológica, caberia citar as de Stanford, MIT, Rockefeller, Harvard, Yale, Princeton, Johns Hopkins, Louvain, Haia, Oxford, Viena, Gotemburgo, Basileia, Zurique, Paris, Montreal, Tóquio, Kyoto, Pequim, Xangai e Sydney. Como nos demais ramos da Ciência, foram criadas, nos diversos países, associações e sociedades sem fins lucrativos, com o objetivo 291 CARLOS AUGUSTO DE PROENÇA ROSA de promover o estudo, facilitar a cooperação entre os pesquisadores e incentivar a participação de associados em seminários e conferências especializadas sobre temas de Biologia. Como exemplos, são mencionadas, a seguir, algumas dessas entidades, como a Sociedade Americana de Microbiologia; a Sociedade Francesa de Biologia Teórica; a Sociedade Holandesa de Biologia Teórica; a Sociedade Britânica de Biologia do Desenvolvimento; as Sociedades de Genética da Espanha, de Cuba, da Argentina, da Colômbia, do Brasil, do México, do Egito, da Tailândia, do Vietnam, da Grã-Bretanha, da França, da Alemanha e da Austrália; as Sociedades austríaca, finlandesa, norueguesa, britânica, italiana, romena, russa, suíça, turca, ucraniana, brasileira, americana, chilena e chinesa de Fisiologia; e as Sociedades e Associações portuguesa, polonesa, suíça, alemã, italiana, belga, dinamarquesa, húngara, helênica, russa, brasileira, canadense, japonesa, coreana e chinesa de Neurologia. Merece especial referência a Sociedade de Neurociência (SFN), americana, formada em 1969, atualmente com cerca de 38 mil associados, e maior organização científica dedicada ao estudo do cérebro; suas últimas reuniões anuais foram em Nova Orleans, em 2003, San Diego, em 2004, Washington D.C., em 2005, Atlanta, em 2006, San Diego, em 2007, Washington D.C., em 2008, e Chicago, em 2009. São membros da Federação Britânica de Biociência várias sociedades e institutos nacionais, como de Fisiologia, Neurociência, Bioquímica, Microbiologia, Endocrinologia, Biologia experimental e Genética, entre outros. Tem sido crescente o esforço de coordenação internacional das diversas atividades no campo da Biologia, com vistas a disseminar seu conhecimento e promover a cooperação entre as entidades nacionais dos vários países. Algumas dessas instituições estão relacionadas a seguir: i) União Internacional de Ciências Biológicas (IURS), de 1919, para a promoção do estudo, coordenação de atividades científicas e apoio à cooperação internacional; conta com 47 países-membros (Academias de Ciência, Conselhos de Pesquisa, Sociedades Nacionais) e 80 membros científicos, como a Federação Internacional de Genética, a Federação Internacional de Biologia Celular, a Organização Internacional de Biologia Sistemática e Evolucionista, o Congresso Internacional sobre Fisiologia Comparada e Bioquímica, e a Sociedade Europeia de Endocrinologia Comparada; ii) Organização Internacional de Pesquisa do Cérebro (IBRO), de 1960, com sede em Paris, atua por meio de seis Comitês Regionais (América Latina, África, Ásia/Pacífico, Europa central/oriental, Europa ocidental, e Canadá/EUA) e realiza um Congresso Mundial de Neurociência a 292 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO cada quatro anos (IV Congresso em Kyoto, 1995; V, em Jerusalém, 1999; VI, em Praga, 2003; e VII, em Melbourne, 2007); iii) Federação Internacional de Sociedades de Genética Humana, fundada em 1996, congrega a Sociedade de Genética da América, a Sociedade Europeia de Genética Humana (com reuniões do Congresso de cinco em cinco anos – Washington, D.C., 1991; Rio de Janeiro, 1996; Viena, 2001; Brisbane, 2006; e programado para Montreal em 2011); a Sociedade da Australásia de Genética Humana, com sede na Austrália; a Rede Latino-Americana de Genética Humana e Médica (Relagh), criada em 1991, com a participação da Sociedade Argentina de Genética, das Associações Mexicana e Colombiana de Genética Humana e da Sociedade Brasileira de Genética Clínica; iv) Federação Internacional de Genética, estabelecida em 1968, com 55 Sociedades associadas, realiza congressos a cada cinco anos, tendo sido o último celebrado em 2008, na cidade de Berlim; v) Federação Europeia de Sociedades de Neurociência, de 1998, com 28 associados; vi) Federação Europeia de Sociedades de Fisiologia, de 1991, com 27 membros; vii) Sociedade de Neurologistas da África; viii) União Internacional de Sociedades de Microbiologia (IUMS), fundada em 1927, conta com os Departamentos de Bacteriologia e Virologia, que organizam congressos anuais; uma centena de Sociedades de Microbiologia de 62 países participa da IUMS; ix) Federação Europeia de Biotecnologia, criada em 1978, sem fins lucrativos, congrega sociedades, universidades, institutos de pesquisas, empresas de Biotecnologia e pesquisadores individuais; conta com 225 membros institucionais e cerca de 5 mil individuais, de 56 países, e realiza reuniões especializadas ao longo do ano; e x) Organização do Mapeamento do Cérebro Humano (OHBM), formalmente criada em 1997, com sede em Minneapolis (EUA), conta com o patrocínio de empresas de produtos de tecnologia; celebrou a VIII Reunião anual (2002) em Sendai (Japão); a IX, em Nova York; a X, em Budapeste; a XI, em Toronto; a XII, em Florença; a XIII, em Chicago; a XIV em Melbourne (2008); e a XV, em São Francisco (2009). Uma extensa literatura altamente especializada assegura a disseminação das ideias e teorias, e a divulgação das pesquisas nos diversos centros, mantendo o meio científico ao corrente dos progressos investigativos em curso nas diferentes partes do mundo. Além das tradicionais revistas Nature e Science, com uma cobertura importante sobre desenvolvimento nas diversas áreas da Ciência, existe, hoje em dia, um grande número de publicações com artigos específicos dedicados aos diferentes ramos da Biologia. 293 CARLOS AUGUSTO DE PROENÇA ROSA A título exemplificativo, segue uma pequena relação de tais publicações: sobre Biologia em geral, a Bioscience (do American Institute of Biological Science); o The Biological Bulletin, o Journal of Theoretical Biology; ii)a Cell Press, da tradicional Elsevier, fundada nos anos de 1880, com sede em Amsterdã, edita um conjunto, atualmente, de 12 revistas (Cell, Neuron, Immunity, Structure, Chemistry&Biology, Molecular Cell, Developmental Cell, Cancer Cell, Current Biology, Cell Metabolism, Host&Microbe e Stem Cell), todas de alto nível de especialização; iii) em Neurociência, a Brain Research Bulletin, o Journal of Comparative Neurology, o International Journal of Developmental Neuroscience (da International Society of Developmental Neuroscience), a Neuroscience (da International Brain Research Organization– -IBRO), a Brain Facts (da Society for Neuroscience), o Human Brain Mapping (da Organização do Mapeamento do Cérebro Humano) e o European Journal of Neuroscience (da Federação das Sociedades Europeias de Neurociência); iv) em Citologia, Biology of the Cell (pela Sociedade Francesa de Biologia Celular) e Journal of Molecular Biology; v) em Microbiologia, Eukaryotic Cell (da American Society for Microbiology) e Research in Microbiology e Microbes and Infection (do Instituto Pasteur); vi) em Fisiologia, Acta Physiologica (da Federação Europeia das Sociedades de Fisiologia), Comparative Biochemistry and Physiology, Physiology, American Journal of Physiology e o Journal of Physiology (da Sociedade Britânica de Fisiologia); vii) em Genética, Annales de Génétique, o Gene, a Current Genetics, o The Journal of Genetics, o The American Journal of Human Genetics (da American Society of Human Genetics) e o European Journal of Human Genetics (da Sociedade Europeia de Genética Humana); viii)sobre Evolução Biológica, Evolution (International Journal of Organic Evolution) da Sociedade para o Estudo da Evolução (fundada em 1946), o The Journal of Human Evolution, o International Journal of Systematic and Evolutionary Microbiology e a Mutation Research Review, e ix) no campo da Biotecnologia, a Biotechnology Advances, o Journal of Biotechnology e o Biomolecular Engineering. Caberia mencionar ainda que a Spriger, da Holanda, publica, trimestralmente, o prestigioso Journal of the History of Biology. i) 294 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O exame do desenvolvimento teórico e experimental do extenso campo (Zoologia e Botânica) da Biologia fugiria ao propósito principal de enfatizar seu processo evolutivo histórico, o qual se caracteriza, na atualidade, pela absoluta prioridade das três grandes áreas da Genética, da Neurociência e da Evolução biológica, na quais ocorreram extraordinárias inovações e significativos aprimoramentos conceituais e teóricos. O avanço no conhecimento da Anatomia e Fisiologia dos animais e plantas, ainda que importantes, não deve desviar a atenção do foco principal, nem diluir o impacto da grande transformação havida na Biologia atual, em função do significado dos resultados alcançados nas pesquisas de laboratório e nos estudos de gabinete. Em consequência, a evolução recente da Biologia será examinada sob cinco principais tópicos: Fisiologia, com especial referência à Neurociência e ao sistema sensorial; Biologia celular e molecular; Microbiologia; Genética e Evolução. 7.6.1 Fisiologia O vasto campo da Fisiologia humana abarca tanto as funções do organismo como um todo quanto as funções dos órgãos e das células. Dessa forma, todos os sistemas do corpo humano (respiratório, endócrino, circulatório, nervoso, digestivo, muscular, ósseo e demais) são objetos de estudo e pesquisa da Fisiologia geral, que procura integrar, num quadro comum, os dados obtidos nos diversos ramos. Ao mesmo tempo, nos vários ramos da Biologia (Genética, Embriologia, Anatomia, Patologia) há implicações fisiológicas, o que mostra sua amplitude e consequente importância para o entendimento dos fenômenos biológicos. Beneficiadas com os significativos avanços nas pesquisas fisiológicas do período anterior, prosseguiriam, na época atual, as investigações laboratoriais, com a colaboração decisiva de inovações e aperfeiçoamentos tecnológicos, além de novos métodos e técnicas de pesquisas. Substancial progresso foi alcançado no conhecimento do funcionamento dos diversos sistemas do organismo humano, seguindo-se uma referência exemplificativa desses avanços mais marcantes. No que se refere ao sistema respiratório, o escocês John Scott Haldane (1860-1936) e John G. Priestley (1880-1941) escreveram, em 1905, trabalho sobre suas pesquisas em regulação da ventilação pulmonar no Journal of Physiology (a obra completa Respiration foi publicada em 295 CARLOS AUGUSTO DE PROENÇA ROSA 1935) e estudaram a importância do dióxido de carbono na regulação da respiração, cujo excesso na corrente sanguínea age no centro respiratório do cérebro. Haldane é autor de The Sciences and Philosophy (1929), The Philosophical Basis of Biology (1931) e The Philosophy of a Biologist (1935). O alemão Otto Heinrich Warburg (1883-1970), formado pelas Universidades de Berlim e Heidelberg, professor do Instituto Max Planck (Departamento de Biologia) de 1913 a 1970, famoso por seus trabalhos em processo de oxidação em células vivas, receberia o PNFM de 1931 por suas pesquisas sobre a natureza e a ação das enzimas na respiração e fermentação. Ele criou um método de medição da quantidade de oxigênio absorvido por um tecido celular vivo (1923). Seu prêmio foi devido “à descoberta da natureza e ação da enzima respiratória”. Warburg admitiu, inicialmente, que um grupo de enzimas, chamadas citocromos, estava envolvido nas reações que consumiam oxigênio no interior das células. Ao observar que as moléculas de monóxido de carbono se ligavam aos citocromos, supôs que elas continham átomos de ferro, provando-se depois que continham grupo de heme do tipo presente na hemoglobina. Assim, os grupos de heme da hemoglobina levavam oxigênio às células, e os grupos de heme dos citocromos captavam o oxigênio, colocando-o em atividade154. Warburg é autor de Novos Métodos da Fisiologia da Célula (1962). O belga Corneille Jean François Heymans (1892-1968), vinculado à Universidade de Gand, de 1923 a 1963, professor de Farmacologia, elaborou estudos sobre o aparelho respiratório, e, em particular, pesquisas sobre como a pressão sanguínea e o oxigênio no sangue são medidos pelo corpo e transmitidos ao cérebro. Heymans receberia o PNFM de 1938 por sua contribuição no esclarecimento do papel dos mecanismos dos sinus e da aorta na regulação da respiração. Quanto ao sistema digestivo, William Maddock Bayliss (1860-1924), formado pela Universidade de Oxford, particularmente interessado na fisiologia dos sistemas nervoso, digestivo e vascular, trabalhando em estreita colaboração com seu cunhado, o fisiologista inglês Ernest Henry Starling (1866-1927), professor de Fisiologia do University College, de Londres, descobriria, em 1902, a secretina e sua ação controladora da digestão. A pesquisa se referia ao processo pelo qual o pâncreas segrega o suco pancreático desde a entrada no intestino dos componentes ácidos do alimento ingerido. Ao cortarem a fibra nervosa ligada aos pâncreas, descobriram Bayliss e Starling que o órgão continuava a desempenhar sua função secretiva. Terminariam por descobrir que a mucosa do intestino 154 ASIMOV, Isaac. Gênios da Humanidade. 296 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO delgado segrega uma substância (secretina) por estímulo do ácido gástrico, sendo esta substância a responsável pelo início da secreção do suco pancreático. Em 1905, Starling sugeriria o nome de hormônio (do grego “estímulo à atividade”) à substância recém-descoberta155. Em 1915, Bayliss publicaria Principles of General Physiology, que durante muitos anos teve grande divulgação no meio científico. O fisiologista e médico russo Ivan Petrovich Pavlov (1849-1936), doutor pela Academia de Cirurgia e Medicina de São Petersburgo, estudou, em 1883, na Alemanha, com Carl Ludwig, professor de Fisiologia da Academia Médica de 1894 a 1924 e diretor de Fisiologia Experimental do Instituto de Medicina Experimental. Investigou o sistema circulatório, mas seu maior interesse era na pesquisa do sistema digestivo. Desenvolveu técnicas cirúrgicas, e, por seu trabalho sobre as relações entre a atividade do sistema nervoso e a função digestiva (descreveu a enterocinase, enzima que ativa a secreção pancreática), receberia o PNFM de 1904 “em reconhecimento por seu trabalho em fisiologia da digestão, por meio do qual o conhecimento de aspectos vitais do assunto foi transformado e ampliado”. Pavlov escreveria, em 1904, The Centrifugal Nerves of the Heart, e, em 1926, sua principal obra, Reflexos Condicionados, em que exporia sua famosa teoria do reflexo condicionado (com seus três princípios: o do determinismo, o da análise e síntese, e o da estrutura), que acreditava estar relacionada com diferentes áreas do córtex cerebral, abrindo caminhos para a Psicologia experimental. Pavlov publicou, em 1897, Conferências sobre as Funções das Principais Glândulas Digestivas. A Endocrinologia foi fundada em 1855, por Claude Bernard, ao estabelecer o papel de certas glândulas na manutenção da constituição química do meio ambiente. A descoberta da função glicogênica do fígado, primeiro exemplo de secreção interna, será marco fundamental na evolução da Fisiologia. Ao longo do século XX, a Endocrinologia seria objeto de muitas pesquisas, das quais resultaria um significativo avanço no conhecimento do sistema endócrino. O químico Jokichi Takamine (1854-1922) isolaria e purificaria o primeiro hormônio, adrenalina, em 1901, com Thomas Bell Aldrich (1861-1939), a partir da suprarrenal. Emil Theodor Kosher (1841-1917), suíço, professor da Universidade de Berna, receberia o PNFM de 1909 por seus trabalhos sobre a fisiologia, patologia e cirurgia da glândula tireoide. Os estudos pioneiros do italiano Guido Vassale (1862-1921) sobre a glândula tireoide teriam sequência com o bioquímico Edward Calvin Kendall (1886-1972) que isolaria a tiroxina em 1914, sintetizada pelos 155 ASIMOV, Isaac. Gênios da Humanidade. 297 CARLOS AUGUSTO DE PROENÇA ROSA químicos George Barger (1878-1939), inglês, professor da Universidade de Edimburgo, e Charles Robert Harington (1897-1972), do país de Gales, diretor do Instituto Nacional de Pesquisa Médica. O hormônio da paratireoide, e identificado por Ivar Victor Sandström (1852-1889) em 1880, seria obtido em 1925, por James Bertram Collip (1892-1965) e Émile Gley (1857-1930). As funções da hipófise seriam descobertas em 1920. A insulina, hormônio segregado pelo pâncreas, foi descoberta em 1920, pelo canadense Frederick Banting (1891-1941) e pelo escocês John James Richard MacLeod (1876-1935), que dividiriam o PNFM de 1923. Banting daria metade do valor de seu prêmio ao americano Charles Herbert Best (1899-1978), que muito colaborara com ele na descoberta, mas que, injustamente, não fora contemplado com o prêmio. Interessante registrar que MacLeod também dividiria seu prêmio com James Collip, que colaborara, também, nas pesquisas que redundaram na descoberta da insulina. Os checos, naturalizados americanos, Carl Ferdinand Cori (1896-1984) e sua esposa Gerty Theresa Cori (1896-1957) e o argentino Bernardo Alberto Houssay (1887-1971) dividiriam o PNFM de 1947 pela descoberta do mecanismo da conversão catalítica do glicogênio (os dois primeiros), isto é, a descoberta da conversão glicogênio-glicose, e Houssay, pelos estudos sobre a função do hormônio pituitário no metabolismo do açúcar. Edward Kendall, juntamente com o médico Philip Hench (1896-1965), pesquisador da Fundação Mayo, e o polonês naturalizado suíço, Tadeusz Richstein (1897-1996), professor da Universidade da Basileia, dividiriam o PNFM de 1950 pelas investigações dos hormônios das glândulas suprarrenais, sua estrutura e efeitos biológicos, especialmente pela descoberta, em 1949, da cortisona. Reichstein sintetizara, em 1933, a vitamina C. Em 1969, Dorothy Crowfoot Hodgkin (1910-1994), que em 1964 receberia o PNQ pela determinação da estrutura dos compostos necessários ao combate da anemia perniciosa, utilizando técnica com os raios X, determinaria a estrutura da molécula do hormônio insulina. O fisiologista americano Walter Bradford Cannon (1871-1945) formularia, em 1926, o princípio da homeostase biológica, conjunto dos fatores reguladores que asseguram a constância do meio interior, isto é, a condição na qual o meio interno do corpo permanece dentro de certos limites fisiológicos. Herbert McLean Evans (1882-1971), professor de Anatomia da Universidade da Califórnia (Berkeley), pesquisou hormônios e os sistemas endócrino e digestivo. Os andrógenos foram descobertos por Brown-Séquard, em 1889, e o bioquímico holandês Ernst Laqueur (1881-1947) cunhou a palavra 298 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO testosterona para o hormônio sexual masculino, que, em 1935, isolara do testículo de um touro. Adolf Butenandt (1903-1995) e Leopold Ruzicka (1887-1976) receberiam o PNQ de 1939 pela síntese química obtida, independentemente, em 1935, da testosterona. O americano Vincent du Vigneaud (1901-1978) ganharia o PNQ de 1955 pela síntese pioneira de um hormônio polipeptídeo, primeiro hormônio proteico a ser sintetizado, abrindo o caminho para a síntese de proteínas mais complicadas. O sueco Ulf Svante von Euler, que ganharia o PNFM de 1970, por suas pesquisas na área do sistema nervoso, pesquisou, desde 1935, a prostaglandina e a vesiglandina. Os bioquímicos suecos, ambos do Instituto Karolinska, Sune Karl Bergström (1916-2004), que purificou várias prostaglandinas e determinou suas estruturas químicas, e Bengt I. Samuelson (1934), que pesquisou o metabolismo da prostaglandina e esclareceu o processo químico da formação de vários compostos do sistema, e o inglês John Robert Vane (1927), do Wellcome Research Institute, em Kent, que descobriu a prostaciclina e analisou suas funções e seus efeitos biológicos, dividiriam o PNFM de 1982, por pesquisas sobre a prostaglandina e substâncias biologicamente ativas156. Deve-se a Vane a descoberta de que compostos anti-inflamatórios, como a aspirina, bloqueiam a formação de prostaglandinas e tromboxanas. Earl Wilbur Sutherland (1915-1974), nascido em Kansas (EUA), formado em Medicina e Farmácia pela Universidade de Washington, se dedicaria à pesquisa sobre os hormônios, especialmente a epinefrina, descobrindo que elas controlam o funcionamento do corpo regulando o nível de uma substância chamada monofosfato de adenosina – AMP –, - a qual, por sua vez, controla a atividade celular de cada órgão. Por esse trabalho, Sutherland receberia o PNFM de 1971. Roger Guillemin (1924), fisiologista francês naturalizado americano, formado em Medicina pela Universidade de Lyon, e doutorado pela Universidade de Montreal, em 1953, interessou-se pela Endocrinologia, concentrando suas pesquisas no controle hormonal da glândula pituitária, em particular dos hormônios produzidos pelo hipotálamo, e em neurotransmissores, como as endorfinas. Guillemin isolou grande número de hormônios, como a somatocrinina (fator hormonal de crescimento) e a somatostatina, importante para o entendimento do diabetes. Andrew Victor Schally (1924), fisiologista polonês, naturalizado americano, professor da Universidade Tulane, pesquisador do Veterans Administration Hospital, de Nova Orleans, com trabalhos de síntese do TRH, de isolamento e síntese do LH-RH e estudos sobre a ação da somatostatina, dividiria com Guillemin metade 156 Comunicado de Imprensa – PNFM de 1982. 299 CARLOS AUGUSTO DE PROENÇA ROSA do PNFM de 1977, por suas contribuições com os estudos sobre a produção dos hormônios peptídeos do cérebro. Pelo desenvolvimento de técnica, a radioimunoensaio, para a determinação dos níveis de insulina e hormônios no corpo, a pesquisadora e especialista em diabetes Rosalyn Sussman Yalow (1921) receberia metade do PNFM de 1977157. No que se refere à Histologia, que trata da estrutura dos tecidos orgânicos, Ross Granville Harrison (1870-1959), formado pela Universidade Johns Hopkins, em 1889, onde exerceu o magistério, de 1900 a 1907, quando se transferiu para Yale como professor de Anatomia e depois de Biologia, descobriu, em 1907, células nervosas que podiam sobreviver, funcionar e reproduzir fora do corpo em cultura de tecido in vitro. Harrison estenderia, posteriormente, suas pesquisas a outros tecidos. Aléxis Carrel (1873-1944), formado em 1900, em Medicina, pela Faculdade de Lyon, sua cidade natal, prosseguiria seus estudos na Universidade de Chicago e no Instituto Rockefeller de Pesquisa Médica, em Nova York. Especializou-se em cirurgia vascular, e desenvolveu técnica para minimizar danos nos tecidos, infecção e o risco de coágulos sanguíneos, e receberia o PNFM de 1912. Após a Guerra de 1914-18, trabalharia na conservação viva de órgãos e tecidos fora do corpo. Consta que teria mantido vivo em solução nutriente artificial, por mais de 20 anos, tecido do coração in vitro de embrião de pinto. Com o famoso aviador Charles Lindenberg, desenvolveu um coração artificial, que podia bombear fluido fisiológico por meio de grandes órgãos, como o coração e o fígado. Sobre o sistema muscular, o fisiologista alemão Otto Meyerhof (1884-1951), pelos estudos sobre a correlação entre o consumo de oxigênio e o metabolismo do ácido lático nos músculos, e o inglês Archibald Viviam Hill (1886-1977), pelas pesquisas a respeito da produção de calor pelos músculos após a realização do esforço (1913), dividiriam o PNFM de 1922. O sistema circulatório seria intensamente pesquisado em todo este período. O imunologista e patologista austríaco Karl Landsteiner (1868-1943), formado pela Universidade de Viena, criou, em 1901, os quatro grupos sanguíneos até hoje em uso: A, B, AB e O. Em 1922, quando trabalhava para o Instituto Rockefeller, descobriu o fator sanguíneo Rhesus, conhecido como RH. Pelo conjunto de sua obra, receberia o PNFM de 1930. Com seu trabalho, foi possível a disseminação da transfusão de sangue158, que fora proibida, por perigosa, em muitos países europeus, no final do século anterior. Por volta de 1910, foi descoberto que as características do sangue são herdadas segundo o Modelo de Mendel, o que tornava possível o estudo de populações inteiras. 157 158 Comunicado de Imprensa – PNFM de 1977. TATON, René. La Science Contemporaine. 300 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O fisiologista nascido na Irlanda do Norte, Joseph Barcroft (1872-1947), pesquisou circulação e distribuição do sangue, armazenagem e liberação do sangue pelo baço, órgão linfático, e estudou, também, o desenvolvimento fisiológico do feto, em particular relacionado aos sistemas circulatório e respiratório. O japonês Sunao Tawara (1873-1952), formado pela Universidade Imperial de Tóquio, em 1901, tendo estudado na Universidade de Marburgo, seria autor, em 1906, de monografia sobre o sistema de condução do coração. E Wilhelm His (1831-1904), suíço, descobriria, na passagem do século, tecido especializado do coração que transmite impulsos elétricos e ajuda na contração do músculo cardíaco. Christian Bohr (1855-1911), fisiologista dinamarquês, professor da Universidade de Copenhague, pai do famoso físico Niels Bohr e do conhecido matemático Harald Bohr, descreveu, em 1904, o efeito Bohr, relativo à eficiência da liberação do oxigênio pela hemoglobina nos tecidos. Foi, igualmente, professor de Schack August Steenberg Krogh (1874-1949), dinamarquês, professor da Universidade de Copenhague e pesquisador dos sistemas respiratório e circulatório, que descobriria o mecanismo regulador do movimento nos vasos capilares, pelo que receberia o PNFM de 1920. Krogh é autor da monografia Anatomia e Fisiologia dos Capilares, que teria grande influência nas futuras pesquisas. Willem Einthoven (1860-1927), fisiologista holandês nascido na Indonésia, professor da Universidade de Leiden, é considerado o pai do eletrocardiograma pela descoberta de seu mecanismo. Desde o século anterior, já eram conhecidas correntes elétricas originadas do coração, detectadas por um eletrômetro capilar pelo fisiologista inglês Augustus Waller. No início do século XX, Einthoven aperfeiçoaria o aparelho e introduziria um sistema de gravação com base em galvanômetro de cordas, o que lhe permitiria, em 1913, interpretar as linhas traçadas, no gravador, com um papel padronizado, distinguindo coração sadio de um enfermo. Por seu trabalho, receberia o PNFM de 1924. Ernest Starling, já mencionado por seus trabalhos sobre o sistema digestivo, enunciaria o conceito de equilíbrio, que relaciona pressão sanguínea a seu comportamento no sistema capilar. Em 1915, formulou sua lei de que a contração do coração é função da extensão da fibra muscular. Pelo desenvolvimento de técnicas operatórias, como a do cateter, na operação cardiovascular, André Frédéric Cournand (1895-1988), fisiologista francês, naturalizado americano, da Universidade de Colúmbia; o alemão Werner Theodor Otto Forsmann (1904-1979), da Universidade de Mainz; e o americano Dickson Woodruff Richards 301 CARLOS AUGUSTO DE PROENÇA ROSA (1895-1973), da Universidade de Colúmbia, dividiriam o PNFM de 1956 “por descobertas relativas à cateterização do coração e às alterações patológicas do sistema circulatório”. Ainda na área da Fisiologia, caberia mencionar, após os trabalhos de Hermann von Helmholtz sobre a fisiologia do olho, com suas investigações sobre a acomodação da visão, a curvatura do olho e a cegueira à cor, a publicação de seu Manual de Óptica Fisiológica (1867) e a invenção do oftalmoscópio; além das pesquisas, nos primeiros anos do século XX, do oftalmologista sueco Allvar Gullstrand (1862-1930), professor de Oftalmologia da Universidade de Uppsala, de 1894 a 1927, no campo da dióptrica (refração da luz) do olho humano, que lhe valeria o PNFM de 1911. 7.6.1.1 Neurociência Após os trabalhos dos histologistas Camillo Golgi (1844-1926), italiano, e do espanhol Santiago Ramón y Cajal (1852-1934), que dividiriam o PNFM de 1906 por suas extraordinárias contribuições acerca da estrutura do sistema nervoso, o crescente interesse da comunidade científica por um melhor conhecimento do sistema nervoso, particularmente do funcionamento do cérebro humano, colocaria seu estudo como área prioritária da Fisiologia no século XX. Os significativos avanços teóricos e investigativos obtidos no curto prazo, no campo da Neurologia, levariam seus pesquisadores a denominá-la de Neurociência, dando-lhe, assim, um status especial em reconhecimento de sua importância no processo evolutivo da Biologia atual. Korbinian Broadmann (1868-1918) estudou Medicina em Munique, Wurzburg, Berlim, Friburgo e Lausanne. Obteve seu doutorado em Leipzig (1898). Trabalhou no Laboratório Neurobiológico, em Berlim, com Oskar Vogt de 1901 a 1910. Autor, em 1909, de Estudos sobre a Localização Comparativa no Córtex Cerebral, se tornaria famoso por suas pesquisas que resultaram na definição de 52 partes no córtex cerebral, algumas associadas a funções nervosas. Seu mapeamento do cérebro humano seria adotado por autores e especialistas nas décadas seguintes. Oskar Vogt (1870-1959), com doutorado em Jena, em 1894, que fundaria um instituto de pesquisa do cérebro, em Berlim, e colaboraria na criação de um instituto similar em Moscou, foi editor do Journal of Psychology and Neurology. Casou-se, em 1899, com a neurologista francesa Cécile Mugnier, colaboradora direta e autora de vários artigos sobre o 302 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO trabalho conjunto do casal, acerca da anatomia e da patologia do córtex cerebral. Cécile elaborou um mapeamento fisiológico do cérebro de um macaco, e Oskar foi um dos encarregados do tratamento neurológico de Lenine, e obteve autorização para o estudo histológico do cérebro do falecido líder soviético. O francês Joseph Jules Dejerine (1849-1917) trabalhou no Hospital Salpêtrière, em Paris, desde 1895, professor de Neurologia da Escola de Medicina (Paris), foi um dos pioneiros no estudo de localização das funções no cérebro, tendo sido o primeiro a mostrar que a perda da habilidade de leitura (cegueira de palavra) resultava de uma lesão em determinadas áreas do cérebro. Louis Lapicque (1866-1952), nascido em Paris, fisiologista, especialista em sistema nervoso, contribuiria para o desenvolvimento da Neurologia com suas pesquisas sobre os efeitos da corrente elétrica na excitação nervosa humana. Charles Scott Sherrington (1857-1952), considerado como um dos fundadores da Fisiologia nervosa, professor de Fisiologia na Universidade de Liverpool (1895-1913) e de Oxford (1913 até sua aposentadoria, em 1935), estabeleceria as bases da organização do sistema nervoso central, com seus estudos sobre reflexos medulares e os três maiores grupos de órgãos sensoriais do sistema nervoso dos mamíferos, além de contribuir para a compreensão das funções dos neurônios e para a reconstituição do tecido dos nervos. Edgar Douglas Adrian (1889-1977), formado em Medicina no Trinity College, de Cambridge, em 1911, dedicou-se à pesquisa em eletrofisiologia do sistema nervoso e do cérebro, na Universidade de Cambridge. Em 1928, descobriria que os neurônios dos sentidos respondem a estímulos que, quanto mais intensos, mais vezes o neurônio se descarrega, mas a cada vez o descarregamento é sempre igual. Os neurônios indicam, assim, presença e intensidade do estímulo se descarregando mais vezes ou menos vezes, e não um pouco mais ou um pouco menos. Adrian escreveu, ainda, The Basis of Sensation (1927), The Mechanism of Nervous Action (1932) e The Physical Basis of Perception (1947). Sherrington e Adrian dividiriam o PNFM de 1932 por descobertas relativas às funções dos neurônios. Hans Berger (1873-1941), formado pela Universidade de Jena, com doutorado, em 1897, dedicou-se à circulação sanguínea e temperatura do cérebro e à psicofisiologia. Colaborou com Oskar Vogt e Korbinian Brodmann em pesquisas sobre a localização das funções no cérebro, e foi dos primeiros (1924) a utilizar o eletroencefalograma e o primeiro a descrever a onda alfa, conhecida também, como onda Berger. 303 CARLOS AUGUSTO DE PROENÇA ROSA Constantin von Economo von San Seff (1876-1931), de origem grega, dedicou-se ao estudo da anatomia e fisiologia do médio cérebro. Em 1917, iniciou seu famoso trabalho sobre a encefalite, que lhe traria fama mundial. O neuropatologista francês Pierre Marie (1853-1940), pesquisador do sistema nervoso, seria autor de um monumental livro sobre as doenças da medula espinhal. Otto Loewi (1873-1961), farmacologista alemão, especialista na química dos impulsos nervosos, e o fisiologista inglês Henry Hallett Dale (1875-1968), diretor do Instituto Nacional de Pesquisa Médica, de Londres (1914/42), e da Instituição Real da Grã-Bretanha (1942/46), pesquisador do fungo ergotina, do qual isolou um composto chamado acetilcolina, dividiriam o PNFM de 1936 pelas contribuições sobre transmissão química dos impulsos nervosos. Loewi demonstrou, em 1921, que o impulso nervoso não era apenas de natureza elétrica, conforme suas experiências, ao trabalhar com nervos ligados ao coração de uma rã. Substâncias químicas liberadas sempre que se estimulava o nervo podiam ser empregadas para estimular outro coração diretamente, sem a intervenção de qualquer atividade nervosa. Os fisiologistas americanos Joseph Erlanger (1874-1965), professor da Universidade de Washington, em St. Louis, e Herbert Spencer Gasser (1888-1963), professor da Universidade de Cornell e do Instituto Rockefeller para Pesquisas Médicas, investigariam, nos anos 20 e 30, com oscilógrafo adaptado por Erlanger, propriedades elétricas dos filamentos nervosos, determinando a maneira pela qual diferentes filamentos conduziam seus impulsos a distintos ritmos médios, observando que a velocidade do impulso variava diretamente em razão da grossura do filamento. Receberiam o PNFM de 1944 por “pesquisas de raios catódicos sobre funções diferenciadas das fibras nervosas simples”. Walter Campbell (1868-1937), pesquisador australiano, formado pela Universidade de Edimburgo, escreveria o conhecido Estudos Histológicos sobre a Localização das Funções do Cérebro, obra clássica de referência, e elaboraria mapeamento do cérebro humano, de ampla divulgação em livros de neuroanatomia. Campbell daria importante contribuição, também, ao estudo da esclerose cerebral. James Papez (1883-1958), formado em Medicina pela Universidade de Minnesota, especializou-se em anatomia do cérebro, tendo ministrado famoso curso sobre neuroanatomia. Escreveu, em 1929, o livro Neurologia Comparada. O neurologista suíço Walther Rudolf Hess (1881-1973), formado pela Universidade de Bonn, e diretor do Instituto de Fisiologia, desde os anos 20 investigaria o hipotálamo e o cérebro médio, e desenvolveria metodologia de estímulo elétrico subcortical para investigar as bases neurais de comportamentos complexos, utilizando-a em animais 304 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO anestesiados e não anestesiados. Descobriria que extensas áreas subcorticais eram envolvidas em funções motoras, comprovando, o que se suspeitava, que havia no cérebro circuitos complexos de organização do comportamento, envolvendo muitos grupos musculares, além do sistema nervoso autônomo. Hess descobriria zonas de ação e relaxamento, isto é, o centro de controle dos sistemas simpático e parassimpático. O trabalho de Hess influenciaria pesquisas em todo o mundo e encorajaria o mapeamento detalhado do cérebro médio e do hipotálamo nos anos seguintes. Pela descoberta das funções do cérebro médio, receberia Hess o PNFM de 1949, dividindo-o com o neurologista português Antônio Caetano de Abreu Freire Egas Muniz (1874-1955), criador da operação cirúrgica da lobotomia pré-frontal no tratamento para graves casos de psicose. William Grey Walter (1910-1977), neurofisiologista americano, de origem alemã e britânica, estudou no King’s College, em Cambridge, e trabalharia de 1939 a 1970 no Instituto Neurológico de Bristol. Com um aparelho semelhante (eletroencefalógrafo) ao de Hans Berger, mas aperfeiçoado, determinou, por triangulação, a localização na superfície das ondas alfa no lóbulo occipital e usaria as ondas delta para descobrir tumores cerebrais. Com seu aparelho, Walter pôde detectar uma variedade de tipos de ondas cerebrais, desde as de mais alta velocidade (ondas alfa) até as de baixa velocidade (ondas delta), observadas durante o sono. As pesquisas sobre as transmissões e os impulsos nervosos seriam objeto de grande interesse no período do Pós-Guerra. Seus pesquisadores, inclusive, receberiam, em duas oportunidades, o Prêmio Nobel de Fisiologia. Os fisiologistas John Carew Eccles (1903-1997), australiano, professor da Universidade Nacional Australiana, em Camberra, o inglês Alan Lloyd Hodgkin (1914-1998), professor da Universidade de Cambridge, especialista na física das excitações nervosas, e Andrew Fielding Huxley (1917), da Universidade de Londres, especialista em transmissões nervosas e contrações musculares, dividiriam o PNFM de 1963 por suas pesquisas em relação aos mecanismos iônicos envolvidos na excitação e inibição nas porções periféricas e centrais da membrana dos neurônios159. Numa série de quatro artigos publicados em 1952, Hodgkin e Huxley mostrariam que o mecanismo de impulso nervoso funciona com átomos carregados positivamente (íons) de sódio, no exterior, e de potássio, no interior. Quando o impulso nervoso passa, a situação se inverte, os íons sódio penetram na célula, e pouco depois, os íons potássio saem. Terminado o impulso, o íon sódio é bombeado para fora da célula, 159 Comunicado de Imprensa – PNFM de 1963. 305 CARLOS AUGUSTO DE PROENÇA ROSA a qual se torna apta outra vez para deixar passar novo impulso nervoso. Essa descoberta daria à Neurociência uma forte base química. Eccles se dedicaria ao estudo da natureza da transmissão sinapse. O neurocirurgião Wilder Graves Penfield (1891-1976), americano naturalizado canadense, formado pela Universidade Johns Hopkins, estudou Neuropatologia em Oxford, com Charles Scott Sherrington, e também na Espanha, Alemanha e Nova York, e desenvolveria técnicas operatórias que lhe permitiriam evitar efeitos colaterais, como a da observação do cérebro do paciente sob efeito apenas da anestesia local. Com Herbert Jasper (1906-1999), neurocientista canadense, publicaria, em 1951, o livro A Epilepsia e a Anatomia Funcional do Cérebro Humano, com uma série de mapas do córtex motor e sensorial, que seriam da maior utilidade para melhor entendimento da lateralização das funções cerebrais. O fisiologista Bernard Katz (1911-2003), alemão, naturalizado australiano, especialista em pesquisa sobre impulsos nervosos (descoberta do mecanismo de liberação do transmissor acetilcolina); Ulf Svante von Euler (1905-1983), sueco, do Instituto Karolinska, que identificou a função da epinefrina e da noradrenalina, a qual serve como neurotransmissor nos terminais do sistema nervoso simpático, e pesquisou a prostaglandina e a vesiglandina (1935); e Julius Axelrod (1912-2004), bioquímico americano, que pesquisou o efeito de drogas no sistema nervoso, dividiriam o PNFM de 1970, por suas contribuições em pesquisas sobre substâncias encontradas nos nervos, que impedem a distensão dos vasos sanguíneos, prolongando o estado de consciência160. Roger Wolcott Sperry (1913-1994), neurocientista americano, professor do Instituto de Tecnologia da Califórnia (1954/94), receberia metade do PNFM de 1981 por sua descoberta das especializações funcionais dos hemisférios cerebrais. Sua pesquisa esclareceria as funções do hemisfério esquerdo (destro, fala, escrita, cálculo, principal centro da linguagem, projeção do campo visual direito) e do hemisfério direito (canhoto, percepção espacial, compreensão da palavra, projeção do campo visual esquerdo) do cérebro. A outra metade do PNFM seria dividida entre David Hunter Hubel e Torsten Nils Wiesel por seus trabalhos sobre o funcionamento do sistema da visão. Arvid Carlsson (1923), médico e farmacologista sueco, professor da Universidade de Gotemburgo, pesquisador em neurotransmissores (como a dopamina); Paul Greengard (1925), professor da Universidade Rockefeller, com pesquisas sobre os transmissores dopamina, noradrenalina e serotonina; e Eric Richard Kandel (1929), austríaco 160 Comunicado de Imprensa – PNFM de 1970. 306 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO naturalizado americano, da Universidade de Colúmbia, se notabilizariam por seus estudos sobre o funcionamento molecular do cérebro, importante para a formação da memória. Os três cientistas dividiriam o PNFM de 2000 por suas descobertas essenciais sobre um modo importante de transmissão de sinais (transdução de sinais) entre as diferentes células nervosas, a chamada transmissão sináptica (espaço entre neurônios) lenta, que foram determinantes para a compreensão das funções normais do cérebro e das condições nas perturbações, na transmissão do sinal, que podem induzir enfermidades neurológicas ou físicas161. Embora seja prematuro aquilatar a real importância e o valor de recente pesquisa publicada no Journal of Comparative Neurology, de autoria dos pesquisadores brasileiros Frederico Azevedo, Roberto Lent e Suzana Herculano-Houzel, do Instituto de Ciências Biológicas da UFRJ, o interesse por aprofundar o conhecimento sobre o cérebro deverá, nos próximos decênios, se intensificar, esclarecendo uma série de dúvidas e mistérios. A mencionada pesquisa recalculou o número de neurônios no cérebro humano, desenvolvendo, para isto, uma tecnologia de contagem de núcleos, e não de células, que permite estimar, com grande precisão, a cifra, que dos tradicionais 100 bilhões passaria para 86 bilhões de neurônios. Outro cálculo importante se refere às glias, células cuja função é dar sustentação aos neurônios e auxiliar em seu funcionamento. O cálculo estimado de 10 glias para 1 (um) neurônio é refeito pelo estudo, ao estabelecer uma proporção praticamente de 1 para 1, reduzindo, assim, o número de células gliais para 84 bilhões. 7.6.1.2 Sistema Sensorial Significativos progressos seriam registrados na pesquisa relativa à Fisiologia sensorial, diretamente vinculada ao sistema nervoso e, por conseguinte, à Neurociência. No campo da audição, deve ser mencionada a contribuição do austríaco Robert Barany (1876-1936), formado em Medicina, em 1900, pela Universidade de Viena, que criou o chamado teste Barany para diagnosticar doença nos canais circulares do ouvido interno, tendo recebido o PNM de 1914, pelo trabalho em fisiologia e patologia do ouvido. Barany pesquisou, 161 Comunicado de Imprensa – PNFM de 2000. 307 CARLOS AUGUSTO DE PROENÇA ROSA também, reumatismo muscular, tromboses e derrames com sequelas e estudou o papel do cerebelo no controle dos movimentos do corpo. O físico e fisiologista húngaro, naturalizado americano, Georg von Bekesy (1899-1972) ganharia o PNFM de 1961, pela descoberta do mecanismo de estímulo do ouvido interno, isto é, sobre as funções internas da cóclea. Os biólogos americanos Linda B. Buck (1947), com doutorado em imunologia, e Richard Axel (1946), formado pela Universidade Johns Hopkins, publicaram, em 1991, pesquisa sobre como os odores são detectados pelas fossas nasais e interpretados no cérebro. Nessas pesquisas, efetuadas com ratos de laboratório, descobriram Axel e Buck uma família de mil genes que produz um número equivalente de receptores olfativos, que são as proteínas responsáveis pela detecção de moléculas odoríferas no ar, e estão localizadas nas células receptoras olfativas, na cavidade nasal. Pela importante contribuição na fisiologia do olfato, e especificamente “sobre os receptores de odores e a organização do sistema olfativo”, os dois pesquisadores dividiriam PNFM de 2004162. A fisiologia da visão foi, igualmente, objeto de investigação, devendo ser mencionadas as pesquisas de Ragnar Granit (1900-1991), finlandês, naturalizado sueco, pesquisador do Instituto Karolinska, formado em 1927, com uma tese sobre a teoria da visão em cores. As do bioquímico americano George Wald (1906-1997), da Universidade de Harvard, sobre as reações químicas envolvidas na visão; descobriu a presença da vitamina A na retina (1933), componente importante dos três pigmentos da visão colorida. E as do biofísico americano Haldan Keffer Hartline (1903-1983), professor da Universidade da Pensilvânia, que procedeu a análises neurofisiológicas, inclusive em caranguejos e sapos. Os três pesquisadores dividiriam o PNFM de 1967 por “descobertas sobre as atividades regulatórias das células do olho e os processos químicos visuais humanos”. Dois professores pesquisadores da Escola de Medicina de Harvard, David Hunter Hubel (1926), canadense-americano, especialista do sistema visual, e Torsten Nils Wiesel (1924), sueco naturalizado americano, dividiriam a metade do PNFM de 1981 por suas pesquisas sobre a organização e o funcionamento do sistema da visão163. A outra metade do Prêmio foi recebida pelo neurocientista Roger Wolcott Sperry pela descoberta das especializações funcionais dos hemisférios cerebrais. 162 163 Comunicado de Imprensa – PNFM de 2004. Comunicado de Imprensa – PNFM de 1981. 308 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.6.2 Biologia Celular e Molecular A Teoria Celular, originada das pesquisas, em 1838-39, de Matthias Schleiden (1804-1881) e Theodor Schwann (1810-1882), se desenvolveria ao longo do século XIX, alcançando sua definição moderna com os trabalhos de Rudolf Virchow (1821-1902), ao estabelecer que uma célula provenha de outra célula (omnis cellula e cellula). Em 1858 o patologista alemão definiria que: i) as células são as unidades funcionais de todos os seres viventes; ii) os fluidos intercelulares não são citoblastemas formadores de células, mas produtos derivados de atividade metabólica das células; e iii) nos tecidos, normais e doentes, toda célula nasce de outra célula. Em 1869, o suíço Friedrich Miescher (1844-1895) descobriria, no núcleo da célula, substância a que daria o nome de nucleína. Com a descoberta, em 1929, do bioquímico Phoebus Levene (1869-1940) de que se tratava, na realidade, de duas substâncias, receberiam os nomes de ácido desoxirribonucleico (DNA) e ácido ribonucleico (RNA), ficando também estabelecido ser o ácido nucleico uma genuína molécula de estrutura tetra nucleotídeo (adenina, guanina, citosina e timina) mais carboidrato e fósforo. Uma reação específica, simples e sensível, de manchar o DNA, desenvolvida pelo químico alemão Robert Feulgen (1884-1955), em 1924, seria da maior utilidade para detectar os dois ácidos e descobrir estar o DNA localizado no cromossomo. Outro significativo avanço na compreensão da Biologia Celular, naquele período, seria o trabalho de Walther Fleming (1843-1905), fundador da Citogenética, ao investigar o processo da divisão da célula e ao esclarecer, em 1882, em Citoplasma, Núcleo e Divisão da Célula, a mitose (denominação por ele criada) e ao propor que o núcleo da célula provinha de núcleo predecessor. Pouco depois (1883-85), August Weissmann (1834-1914) apresentaria seus trabalhos sobre a divisão meiose das células, antecipando, inclusive, a noção de que os cromossomos deviam dividir-se antes da fecundação. O interesse dos biólogos para melhor compreender a estrutura e as funções da célula explica a disseminação dos estudos no campo da Citologia, apesar das dificuldades investigativas, dadas as dimensões mínimas dos objetos sob exame, muitas vezes além da capacidade de observação microscópica. Nas primeiras quatro décadas do século XX, Pol André Bouin (1870-1962), Pierre Paul Grassé (1895-1985), Justin Jolly (1870-1953) e Émile Guyenot (1885-1963) se tornariam conhecidos por suas pesquisas citológicas. Em 1934, Robert Russell Bensley (1867-1956) e Normand Louis Hoerr (1902-1958) desenvolveriam técnicas 309 CARLOS AUGUSTO DE PROENÇA ROSA para desmontar células e isolar seus componentes, o que lhes permitiria isolar e analisar a mitocôndria. A construção, em 1933, do microscópio eletrônico, por Ernst Rucka (1906-1988), viria a ser decisiva para o desenvolvimento de várias áreas da Biologia, em particular por aumentar consideravelmente a capacidade de observação das estruturas biológicas. Sua plena utilização, contudo, seria efetiva após o término da Guerra de 1939-45, quando se iniciaria um novo período de grandes realizações da Biologia celular e molecular, notadamente com importantes descobertas a respeito do DNA. Ainda em 1944, o bacteriologista inglês Oswald Theodor Avery (1877-1955), Maclyn McCarty (1911-2005), geneticista americano, e Colin MacLeod (1909-1972), geneticista canadense-americano, prosseguindo o trabalho de 1928, de Frederick Griffith (1879-1941), identificariam o DNA como princípio da transformação, responsável por características específicas na bactéria, o que significava exercer o DNA uma função primordial na Genética, vale dizer na hereditariedade. Essa inferência era o contrário da opinião prevalecente, de que o DNA teria uma estrutura simples, o que o desqualificaria, por conseguinte, como fator genético 164. Alexander Todd (1907-1997) descobriria a estrutura de todas as bases purina (adenina e guanina) e pirimidina (citosina e timina) do ácido nucleico, confirmando o trabalho de Levene sobre a estrutura tetra nucleotídeo, pelo que receberia o PNQ de 1957. Em 1950, o bioquímico austro-americano Erwin Chargaff (1905-2002) esclareceria que a quantidade de unidades adenina era equivalente ao de unidade timina, e as de guanina correspondiam às de citosina, porém a proporção A+T e G+C poderia ser diferente entre organismos. Sua conclusão é conhecida como regra de Chargaff. Importante assinalar a celebração, em junho/julho de 1948, na cidade de Paris, do colóquio Unités Biologiques Douées de Continuité Génétique, organizado pelo Centro Nacional de Pesquisa Científica da França (CNRS), com a participação de renomados biólogos, como Max Delbruck, Boris Ephrussi, André Lwoff, Jacques Monod, Philippe l’Heritier e Georges Teisssier, quando seriam discutidos temas de grande relevância para o futuro desenvolvimento da Genética e da Biologia molecular. Nesse encontro, Ephrussi postularia a existência de unidade citoplásmica, a mitocôndria, que seria geneticamente autônoma. O colóquio teria, igualmente, o mérito de deslanchar uma nova fase das pesquisas biológicas na França, atrasada em relação à Alemanha e à Grã-Bretanha, nos campos da Genética e da Evolução, devido às reações de setores do meio científico local aos chamados mendelismo e darwinismo. 164 LEE, Rupert. Eureka! 310 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O físico Francis Harry Compton Crick (1916-2004) formou-se em Física no University College, de Londres, e com a deflagração da Segunda Guerra Mundial, foi convocado para servir no Almirantado. Nesse período, leu o livro O que é a vida? do físico Erwin Schrödinger, um dos fundadores da Mecânica quântica, sobre genes, proteína, processo de crescimento e de replicação, o que despertaria seu interesse pela Biologia. Em 1949, foi trabalhar no Laboratório Cavendish, em Cambridge, familiarizando-se com a técnica da difração dos raios-X para a determinação da estrutura atômica de cristais, que fora desenvolvida por William Bragg e Lawrence Bragg, este, agora, Diretor do Laboratório. Crick trabalharia num grupo chefiado por Max Perutz numa pesquisa para descobrir a estrutura tridimensional das proteínas. O conhecimento sobre o ácido nucleico, por essa época, era ainda bastante limitado, reduzido a alguns trabalhos de Oswald Avery sobre a natureza química do material genético, a descoberta de Paul Levene de que o DNA é um polímero com quatro bases nitrogenadas (adenina, guanina, citosina e timina), uma molécula de açúcar e uma de fósforo, e as pesquisas de Alexander Todd e de Erwin Chargaff sobre essas bases nitrogenadas. Quase nada se sabia sobre a estrutura do DNA, apesar do interesse sobre o assunto no meio químico internacional. A configuração das bases relativas à coluna dorsal da molécula, o número de cadeias que formavam a espinha dorsal e os tipos de ligações ainda estavam por determinar. As pesquisas sobre as proteínas estavam, por essa época, mais avançadas, tendo Linus Pauling decifrado a estrutura desses polímeros, isto é, as posições relativas dos átomos nas moléculas dos aminoácidos. Pauling descobriu (1948/50) que as cadeias peptídicas das proteínas tinham forma (helicoidal) de hélice. Em 1951, o americano James Watson se juntaria ao grupo de Perutz, em Cambridge, iniciando com Crick uma parceria na pesquisa da estrutura do DNA. O biólogo James Dewey Watson (1928), nascido em Chicago, foi um menino-prodígio: diplomado em Biologia pela Universidade de Chicago aos 19 anos; aos 22, concluiu seu doutorado pela Universidade de Indiana, onde foi aluno do geneticista Hermann Joseph Muller (1890-1967), que descobrira poderem os raios-X causar mutações genéticas, e do biólogo Salvador Luria (1912-1991, PNFM de 1969), que estudava a genética dos bacteriófagos, uma forma de vírus que se multiplica dentro das bactérias; nessa época, manteve contatos com Max Delbruck (1906-1981-PNFM de 1969), o iniciador dos estudos fagos. Ao concluir seus estudos, viajou para Copenhague, com uma bolsa de estudos, mas ao assistir, em Nápoles, Itália, a uma conferência de 311 CARLOS AUGUSTO DE PROENÇA ROSA Maurice Wilkins sobre cristalografia de raios-X para o estudo da molécula do DNA, alterou seus planos, e, em vez de regressar a Copenhague, seguiu (1951) para Cambridge, onde encontrou Crick, no Laboratório Cavendish. Começou, então, uma extraordinária colaboração com um resultado surpreendente obtido em dois anos. Em seu livro de 1968, intitulado The Doublé Helix, Watson daria seu testemunho sobre esse profícuo período. Era admitido que a estrutura da molécula do DNA devesse ter a forma de hélice, descoberta por Pauling para a proteína, mas a dificuldade estava em prová-la. De acordo com Maurice Hugh Frederick Wilkins (1916), biofísico neozelandês e professor no King’s College, de Londres, como as propriedades dos cristais refletem as propriedades das moléculas que os compõem, os materiais dos seres vivos, se obtidos em estado cristalino, poderiam servir para interpretar a estrutura molecular e as funções biológicas. Esse entendimento impressionara Watson na conferência de Nápoles. Ao mesmo tempo, sabia-se, desde o início do século, que a duplicação do cromossomo durante a mitose era a chave da hereditariedade e da Genética. Como os cromossomos eram considerados um aglomerado de moléculas de DNA, era aceito que o DNA deveria duplicar. Prova de que o DNA podia duplicar seria apresentada por Alfred Hershey (1908, PNFM de 1969) e Martha Chase, em 1952, ao pesquisar substâncias hereditárias. A decisão Watson-Crick de estudar o DNA como material hereditário implicaria, assim, na utilização da técnica da cristalografia de raios-X, o que requereu a colaboração de Wilkins. As primeiras figuras de difração de raios X (1951/52) não eram bem definidas, impedindo a determinação das posições dos átomos e as distâncias entre eles, ou seja, a estrutura molecular. Cristais melhores foram obtidos, em 1952, pela pesquisadora Rosalind Franklin (1920-1958), do King’s College, que revelariam boa parte das provas necessárias para esclarecer a estrutura molecular do DNA, inclusive sua forma em hélice. Como Pauling fizera no caso das proteínas, um modelo com varetas de arame para as ligações químicas e chapinhas de metal para as moléculas das bases serviria para melhor visualizar a suposta estrutura. Admitindo a relação estabelecida por Chargaff entre as bases nitrogenadas da molécula, a forma em hélice e a propriedade de duplicar, Watson e Crick apresentariam, em abril de 1953, a estrutura molecular formada por uma hélice dupla, cada qual assentada sobre uma base de açúcar-fosfato. As bases nitrogenadas estendiam-se para o centro das hélices até entrarem em contato umas com as outras. A estrutura toda se assemelha a uma escada em espiral, em que os degraus são compostos por pares de grupos de átomos químicos. 312 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Considerada uma das grandes descobertas científicas modernas, e um avanço decisivo no estudo da Biologia molecular e da Genética, a descoberta da estrutura helicoidal molecular do DNA seria premiada, em 1962, com a outorga do PNFM ao biofísico inglês Francis Harry Compton Crick e a James Dewey Watson, biólogo americano. Maurice Hugh Frederick Wilkins (1916-2004), biofísico neozelandês, que colaborara nas pesquisas com Crick/Watson, principalmente na cristalografia de raios-X, que revelaria a estrutura em hélice dupla do DNA, receberia, igualmente, um terço do prêmio165. A partir da descoberta da estrutura molecular do DNA, cresceria, ainda mais, o interesse da comunidade científica pela Bioquímica, pela Biologia molecular e pela Genética, evidenciado pelo rápido avanço nas pesquisas, com desdobramentos até então impensados. Importante passo nas pesquisas sobre ácido nucleico seria dado pelo espanhol, naturalizado americano, Severo Ochoa (1905-1993), da Universidade de Nova York, descobridor, em 1955, da enzima catalisadora da formação do RNA, o que lhe permitiu criar um RNA sintético a partir de um só nucleotídeo, e por Arthur Kornberg (1918), diretor do Departamento de Bioquímica de Stanford, que criou moléculas sintéticas de DNA, em 1956, pela ação de enzima que catalisa a formação de polinucleotídeos. Por essas contribuições pela descoberta de enzimas sintetizantes de ácidos nucléicos, os dois bioquímicos dividiriam o PNFM de 1959. Os pesquisadores do Instituto Pasteur, o fisiologista e microbiologista André Lwoff (1921-1994), que em suas pesquisas sobre vírus e bactérias descobriu o processo de lisogenia; e os bioquímicos Jacques Monod (1910-1976) e François Jacob (1920), descobridores do RNAmensageiro (mRNA), molécula intermediária na síntese de proteínas, que faz a intermediação entre o DNA e as proteínas, dividiriam o PNFM de 1965 “pelas descobertas relativas às atividades regulatórias das células”. George Palade (1912) e os belgas Christian de Duve (1917) e Albert Claude (1899-1983) dividiriam o PNFM de 1974 por “suas pesquisas e conclusões sobre as estruturas intracelulares e suas diferentes funções”. Os microbiologistas Werner Arber (1929), professor de Biologia molecular na Basileia, que descobriria as enzimas de restrição (que servem para “cortar” o DNA em fragmentos definidos), e os americanos Daniel Nathans (1928-1999) e Hamilton Othanael (1931), ambos da Universidade Johns Hopkins, dividiriam o PNFM de 1978 pela descoberta de enzimas de restrição e suas aplicações a problemas na Genética Molecular. 165 Comunicado de Imprensa – PNFM de 1962. 313 CARLOS AUGUSTO DE PROENÇA ROSA Hamilton Smith verificaria a hipótese da ação da enzima no DNA, e Nathans aplicaria as enzimas em Genética. Esse é mais um exemplo da contribuição da Microbiologia para o desenvolvimento do conhecimento em outras áreas da Biologia. Paul Berg (1926) dividiria o PNQ de 1980 “por desenvolver métodos para mapear a estrutura e as funções do DNA”, com Frederick Sanger (1918) e Walter Gilbert (1932) “por suas contribuições relativas à determinação de sequências básicas em ácidos nucleicos”. Rita Levi-Montalcini (1909) e Stanley Cohen, americano, dividiriam o PNFM de 1986 “por suas descobertas a respeito dos fatores de crescimento das células e órgãos”. Os fisiologistas alemães do Instituto Max Planck, Bert Sakmann (1942) e Erwin Neher (1944) receberiam o PNFM de 1991 pela criação de métodos de medição, de grande importância para a Biologia Celular. De acordo com o comunicado de imprensa do Instituto Karolinska, o prêmio foi concedido pela descoberta referente à função dos canais de um íon nas células. As membranas que separam as células do exterior possuem canais que permitem a comunicação da célula com o exterior. Esses canais consistem de moléculas ou complexos de moléculas que habilitam a passagem de átomos carregados, ou íons. Sakman e Neher desenvolveram uma técnica que permite registrar as pequenas correntes elétricas que passam por esses canais. O estadunidense Kary Mullis (1944) ganharia o PNQ de 1993 pelo desenvolvimento da técnica do PCR (Polymerase Chain Reaction) que permite a amplificação e cópia química da sequência do DNA. Richard John Roberts (1943) e Phillip Allen Sharp (1944) dividiriam o PNFM de 1993 “por descobrirem a existência de segmentos do DNA que não têm função codificadora na elaboração de uma determinada proteína”. No ano seguinte, Martin Rodbell (1925-1998) e Alfred Goodman Gilman (1941) dividiriam o PNFM de 1994 pelo “descobrimento das proteínas G e de seu papel na transmissão de caracteres nas células”166. Edward Lewis (1918), a alemã Christianne Nusslein-Volhard (1942) e Eric F. Wieschauss (1947) dividiriam o PNM de 1995 “por demonstrarem que todas as faculdades das células são formadas em última instância por seu fator hereditário”167. Sydney Brenner (1927), H. Robert Horvitz (1947) e John E. Sulston (1942) dividiriam o PNFM de 2002 pelo “desenvolvimento de trabalhos pioneiros de Biologia sobre o desenvolvimento e a morte celular programada, a apoptose”168. Comunicado de Imprensa – PNFM de 1994. Comunicado de Imprensa – PNFM de 1995. 168 Comunicado de Imprensa – PNFM de 2002. 166 167 314 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO O Prêmio Nobel de Fisiologia e Medicina de 2006 foi dividido entre Andrew Z. Fire (1959), da Universidade de Stanford, e Craig Mello (1960), do Instituto de Pesquisas Howard Hughes, em Massachussets, por suas descobertas na área da informação genética, isto é, pela descoberta do RNA de interferência (RNAi). Os dois cientistas americanos foram distinguidos, assim, pela descoberta do mecanismo para controle dos fluxos de informações genéticas. O mecanismo descoberto se refere ao silenciamento gênico, que ocorre a meio caminho entre a transcrição de um gene ativo no núcleo e a produção da proteína por ele codificada no citoplasma, por meio da eliminação das etapas intermediárias. Fire e Mello descobriram que pode haver síntese de RNA mensageiro (RNA-m) e transporte para o citoplasma sem haver síntese de proteína, por meio da formação de complexos de cadeia dupla (RNA-i) entre duas moléculas de RNA-m, os quais ativam um sistema de destruição com especificidade para o reconhecimento do RNA-m de cadeia dupla. O processo de interferência do RNA tem a capacidade de desativar ou anular um gene, permitindo observar o que acontece com a célula afetada. 7.6.3 Microbiologia A ampla diversidade dos micro-organismos, que inclui o estudo das funções das bactérias, fungos, protozoários, microalgas e vírus, teve um grande desenvolvimento a partir da segunda metade do século XIX, com as contribuições, entre outras, de Louis Pasteur (1822-1893 e a significativa medalha “Pela Ciência, Pátria e Humanidade”); Robert Koch (1843-1920), bacteriologista que receberia o PNFM de 1905 (pela descoberta do bacilo da tuberculose, do vibrião do cólera e da origem da doença do sono, considerado um dos fundadores da Bacteriologia); Anton de Bary (1831-1888); Ferdinand Cohn (1828-1898); Edmond Nocard (1850-1903); Édouard Perroncito (1847-1936) e Adolf Mayer (1843-1942). O estudo da Microbiologia na fase atual, que avançaria, com o progresso tecnológico, na aparelhagem e técnica laboratoriais, seria de grande importância para o desenvolvimento de outras áreas da Biologia, como a Fisiologia, a Patologia, a Biologia Celular e Molecular, e a Genética. Dado, ainda, seu direto e grande impacto positivo em temas da saúde animal e da saúde humana, e do desenvolvimento do tratamento terapêutico em Medicina e Veterinária, o interesse geral em Microbiologia seria um incentivo adicional para o patrocínio, público e particular, das pesquisas, 315 CARLOS AUGUSTO DE PROENÇA ROSA das quais não estariam ausentes médicos, veterinários e sanitaristas. A importância adquirida, na atualidade, pela Microbiologia, se reflete no fato de que cerca de um terço dos prêmios concedidos na área da Fisiologia ou Medicina foi destinado a cientistas que direcionaram suas atividades à solução de problemas biológicos, usando, para tal fim, micro-organismos. Dois extraordinários cientistas se notabilizariam por suas contribuições neste ramo da Biologia nos primeiros decênios do século XX, o holandês Martinus Beijerinck (1851-1931) e o russo Sergei Winogradsky (1856-1953). Fundador da Escola de Microbiologia de Delft, Beijerinck é considerado o fundador da Virologia, não por ter cunhado o termo, mas pela descoberta de vírus, ao provar, com o emprego de filtragem, que a doença do mosaico do tabaco é causada por algo menor que uma bactéria. Por sua obra, receberia, em 1905, a Medalha Leeuwenhoek. Outras importantes contribuições de Beijerinck à Microbiologia foram suas descobertas de que as bactérias realizam a fixação do nitrogênio; a de que uma reação bioquímica vital para a fertilidade do solo corresponde a uma simbiose entre planta e bactéria; e a de que a redução de sulfato em bactérias advém de uma forma de respiração anaeróbica. Winogradsky, formado pela Universidade de São Petersburgo, diretor da divisão de Microbiologia do Instituto de Medicina Experimental (1895-1905), pioneiro do conceito de ciclo da vida, é descobridor do processo biológico da nitrificação (transformação do nitrogênio amoniacal em nitrato) e formulador, em 1887, do conceito de autotrofia (capacidade de um organismo criar seu próprio alimento a partir de compostos inorgânicos com a utilização de uma fonte de energia). Winogradsky, que se notabilizou como microbiologista do solo, trabalharia no Instituto Pasteur de 1922 a 1940, onde pesquisaria, inclusive, decomposição de bactérias e micro-organismos do solo. A Microbiologia continuaria a se desenvolver nas primeiras décadas do século XX, impulsionada pelo interesse generalizado em encontrar resposta para o crescente número de epidemias, oriundas de micro-organismos nocivos à saúde humana. Vacinas e antibióticos seriam criados em laboratórios, a partir das descobertas de bactérias, fungos e parasitas, responsáveis pelas doenças infecciosas, do que resultaria um estímulo adicional para um grande avanço na área da Imunologia. Na fase que se estenderia até a Segunda Guerra Mundial, várias descobertas atestam o progresso realizado, as quais seriam fundamentais para a sobrevivência de grandes segmentos populacionais. O bacteriologista alemão Friedrich August Johannes Löffler (18521915) pesquisaria, na Ilha de Riems, de 1907 até seu falecimento prematuro, a aftosa, doença que devastava os rebanhos em certas regiões da Europa. Graças 316 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO ao seu esforço e dedicação, seu laboratório seria dos mais conceituados para pesquisa sobre essa doença nos animais, no início do século. O bioquímico e microbiologista canadense Félix Hubert d’Herelle (1873-1949), quando trabalhava no Instituto Pasteur (1911/21), daria uma extraordinária contribuição para o desenvolvimento da Bacteriologia, ao descobrir, em 1915, os bacteriófagos (termo por ele criado, em 1917), vírus que infectam e destroem as bactérias. Escreveu La Bactériophage: son rôle dans l’immunité (1921) e Le Phénomène de la Guérison des Maladies Infectueuses (1938). Pesquisou d’Herelle na Guatemala, México, Egito e Holanda. Colaborou na fundação de um instituto de pesquisa sobre os bacteriófagos na Geórgia (URSS), nos anos 30, e foi professor de Bacteriologia na Universidade de Yale (1928/34). Deve ser acrescentado, sobre o assunto, que o bacteriologista inglês Frederick William Twort (1877-1950), no mesmo ano de 1915, detectara o fenômeno da existência de vírus que infectavam bactérias, aos quais denominou de agentes bacteriolíticos. Sua tentativa de usá-los na cura de infecção bacteriana fracassou, pelo que suas pesquisas não tiveram repercussão favorável no meio científico, vindo a prevalecer o trabalho de d’Herelle, considerado o verdadeiro descobridor dos bacteriófagos. O médico francês Charles Louis Alphonse Laveran (1845-1922), parasitólogo e patologista, investigaria a malária e descobriria, em 1880, que os micróbios, e não as bactérias, eram os causadores da moléstia. Em pesquisas posteriores, efetuadas na Itália, confirmaria sua hipótese de um protozoário, o plasmódio, ser o provocador da doença. Em 1884, publicaria Traité des Fièvres Palustres, pelo que receberia o PNFM de 1907. O mosquito anopheles, transmissor do parasita da malária, seria descoberto em 1897 pelo inglês Ronald Ross (1857-1932), que receberia o PNFM de 1902 “pela descoberta do processo de contaminação do organismo humano pela malária”. O bacteriologista japonês Hideyo Noguchi (1876-1928), em 1911, a serviço do Instituto Rockefeller, descobriu o agente da sífilis, ao detectar a presença de Treponema pallidum, bactéria espiroqueta, no cérebro de um paciente. Nos anos seguintes, Noguchi pesquisaria, na América do Sul e Central, a febre amarela, o tracoma e a poliomielite. Dois notáveis cientistas ocupam posição privilegiada no campo da Imunologia: o alemão Paul Ehrlich (1854-1915), da Universidade de Göttingen, e o russo Ilya Ilych Mechnikov (18451916), do Instituto Pasteur (sucessor de Pasteur, em 1895, na direção do Instituto), que dividiriam o PNFM de 1908, e cujas pesquisas e descobertas datam do final do século XIX e início do seguinte. Ehrlich 317 CARLOS AUGUSTO DE PROENÇA ROSA apresenta uma extraordinária folha de serviços prestados à Ciência: pesquisou a sífilis, a tuberculose e o cólera; descobriu o sintético Salvarsan, para o tratamento da sífilis; desenvolveu técnicas de quimioterapia, da qual é considerado o criador; investigou na área da hematologia, desenvolvendo métodos de detectar e diferençar doenças entre várias amostras de sangue; estabeleceu os princípios da imunoquímica; estudou os processos de coloração de tecidos e células, tendo descoberto que o azul de metileno apresentava afinidades com células nervosas vivas, e que somente algumas delas poderiam ser tingidas. Pelo estudo da difteria, estabeleceria a teoria dos anticorpos, desenvolvidos pelo organismo em reação às afecções microbianas. Mechnikov pesquisaria, especialmente, em embriologia dos invertebrados, tendo publicado trabalhos sobre a embriologia dos insetos (1866) e das medusas (1886); escreveu um tratado sobre inflamação (1892), e em 1901 seu L’Immunité dans les Maladies Infectieuses; descobriria o fenômeno da fagocitose e o efeito destrutivo de algumas células brancas do sangue, a que chamou de fagócitos; e elaboraria a teoria (1884), base da Imunologia, de que quando uma bactéria ataca o organismo, os leucócitos mono e plurinucleares se transformam em fagócitos protetores, e se constituem em importante fator de resistência a infecções e a doenças. O patologista americano Francis Peyton Rous (1879-1970), formado pela Universidade Johns Hopkins, ingressou no Instituto Rockefeller em 1909, onde permaneceria, oficialmente, até sua aposentadoria em 1945, mas onde trabalharia, na realidade, até seus 90 anos de idade. Em exame de um tumor de uma galinha, para verificar se continha vírus, Rous espremeu o tumor e o fez passar por um filtro que retinha todos os agentes infecciosos, menos vírus. Rous descobriu que o filtrado sem célula podia transmitir infecção e provocar o aparecimento de tumores em outras galinhas. Em 1911, escreveu Transmissão de uma tumoração maligna por meio de um filtrado sem células, no qual não chamou o agente da infecção de vírus, uma vez que o meio científico não aceitava a ideia de um vírus poder causar câncer. O agente descoberto por Rous seria conhecido como “sarcoma da galinha de Rous”. Rous continuaria suas pesquisas nos anos seguintes, sendo que, no final dos anos 40, já era aceito que certos cânceres eram causados por vírus. Em 1966, receberia o PNFM “pelas pesquisas sobre causas e tratamento do câncer”. O belga Jules Bordet (1870-1961), professor da Universidade de Bruxelas, que isolara o bacilo da coqueluche, descobriria os soros hemolíticos, e pesquisaria o processo de formação da coagulina. Receberia o PNFM de 1919 por suas descobertas no campo da Imunologia. Em 1939, 318 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO escreveu o Traité de l’Immunité dans les Maladies Infectieuses, e foi presidente do Primeiro Congresso Internacional de Microbiologia (1930), em Paris. O australiano David Bruce (1855-1931) e o maltês Themistocles Zammit (1864-1935) pesquisariam a febre de Malta, o primeiro descobrindo a bactéria Brucella melitensis, e o segundo, descobrindo que a brucelose era transmitida pelos bodes e cabras. O brasileiro Carlos Justiniano Ribeiro Chagas (1879-1934), mineiro de Oliveira, pesquisador do Instituto Oswaldo Cruz, no Rio de Janeiro, descobriria, em 1909, a doença de Chagas, em que o parasita Trypanasoma cruzi é transmitido pelo inseto “barbeiro”. Chagas é o único cientista, até a data, a descrever a patogênese, o vetor, o hospedeiro, as manifestações clínicas, e a epidemiologia de uma doença. O bacteriologista francês Charles Jules Henri Nicolle (1866-1936), diretor do Instituto Pasteur de Túnis, descobriu, em 1909, que o tifo era transmitido por um tipo de piolho. Pesquisou a febre de Malta, descobriu os meios de transmissão da febre escarlate, do sarampo, da gripe, da tuberculose e do tracoma. Escreveu, dentre as diversas obras, Le Destin des Maladies Infectieuses. Receberia o PNFM de 1928 por suas pesquisas sobre o tifo. Duas formidáveis drogas, consideradas milagrosas, que teriam ampla repercussão mundial, criando esperança de cura a milhões de paciente, e que viriam revolucionar o tratamento infeccioso, seriam desenvolvidas nos anos 30. Seus descobridores receberiam o reconhecimento internacional e inúmeras homenagens. O bacteriologista alemão Gerhard Johannes Paul Domagk (1895-1964), por suas pesquisas sobre o efeito antibacteriano da sulfa, e que desenvolveria o Prontosil, em 1935, primeira droga na base de sulfa para o tratamento de infecções estreptocócicas, receberia o PNFM de 1939. Alexander Fleming (1881-1955), biólogo escocês, autor de vários artigos sobre Bacteriologia e Imunologia, descobriria a enzima lisozima, em 1922, e isolaria, por acaso, em 1928, o antibiótico penicilina do fungo Penicillium notatum, dividiria o PNFM de 1945 com Howard Florey (1898-1968), por seu papel na extração da penicilina, e Ernst Boris Chain (1906-1979), alemão, refugiado na Inglaterra desde 1933, que, com Florey, trabalharia na composição química da penicilina e em sua ação terapêutica. O bioquímico e virologista estadunidense Wendell Meredith Stanley (1904-1971), professor do Instituto Rockefeller (1931/48) e diretor do Departamento de Virologia da Universidade da Califórnia (1948/69), pesquisador em proteínas, dividiria o PNQ de 1946 com o bioquímico John Howard Northrop (1891-1987) e o químico James Batcheller Sumner (1887-1955) pelo trabalho de preparação de enzimas e proteínas de vírus na forma pura. Escreveu Viruses and the Nature of Life. 319 CARLOS AUGUSTO DE PROENÇA ROSA O médico sanitarista e microbiologista sul-africano Max Theiler (1899-1972), que desenvolveu a vacina contra a febre amarela em 1930, mas apenas aprovada definitivamente em 1940, receberia o PNFM de 1951 por suas pesquisas em relação à febre amarela. O microbiologista ucraniano, naturalizado americano, Selman Abraham Waksman (1888-1973), do Instituto Rutgers de Microbiologia, especialista em micro-organismos do solo e estudioso de antibióticos, isolou a actinomicina (1941), letal para o bacilo da tuberculose, e extraiu a estreptomicina, antibiótico relativamente inócuo para o ser humano, mas muito eficiente no combate à tuberculose. Por essa descoberta, ganhou o PNFM de 1952. Waksman é autor de vários livros, como Enzimas (1926), Princípios de Microbiologia do Solo (1927) e Minha Vida com os Micróbios (1954). O bioquímico e virologista inglês Norman Wingate Pirie (1907-1997) descobriria, em 1936, que o vírus poderia ser cristalizado, inclusive o mosaico do tabaco, e que seu material genético era o RNA, o que contrariava a opinião generalizada da época, de que o vírus consistia apenas de proteínas. A descoberta de Pirie seria importante para a compreensão do DNA e do RNA. Em suas pesquisas, Pirie teve a colaboração de Frederick Charles Bawdeen (1908-1972), virologista e patologista das plantas. A impossibilidade da cultura de vírus fora de um organismo era uma das maiores dificuldades enfrentadas pelos virologistas em suas pesquisas, ao contrário, por exemplo, das bactérias que podem ser cultivadas em tubos de ensaio ou em caldos nutrientes. A inoculação do vírus em embriões de galinha facilitava, contudo, o trabalho dos pesquisadores. No Pós-Guerra, o microbiologista estadunidense John Franklin Enders (1897-1985), formado em Yale e Harvard, criou um grupo de pesquisa no Hospital de Crianças, em Boston, com o intuito de investigar o crescimento do vírus da poliomielite, que, até então, só pudera ser cultivado em tecido nervoso vivo. Em 1949, usando fragmentos de tecidos de embriões humanos (natimortos), Enders conseguiria a cultura desse vírus, êxito que seria igualmente obtido com outros tipos de tecido fragmentado169. Nessas pesquisas, teve Enders a colaboração do virologista e microbiologista Thomas Huckle Weller (1915) e do médico Frederick Chapman Robbins (1916-2003), com os quais dividiria o PNFM de 1954 “por experiências com cultivo do vírus da poliomielite em tecidos”. O geneticista Joshua Lederberg (1925), considerado pioneiro no campo da Genética bacteriana, receberia, em 1958, metade do valor do PNFM, que seria igualmente concedido ao geneticista George Wells Beadle (1903-1989) e ao microbiologista Edward Lawrie Tatum (1909169 ASIMOV, Isaac. Gênios da Humanidade. 320 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 1975). Lederberg teve o reconhecimento por seu trabalho em recombinação genética e Genética bacteriana. Em 1950, o bacteriologista francês André Michel Lwoff (1902-1994), do Instituto Pasteur, e professor de Microbiologia da Sorbonne, em seus estudos sobre a biologia das bactérias e dos vírus descobriu a lisogenia, complexo processo que explica algumas viroses animais permanecerem incubadas no hospedeiro, em estado latente de dormência. Embora seu DNA seja incorporado ao DNA das células hospedeiras, as células não têm, inicialmente, nenhuma função. A cada replicação do DNA celular, a fração correspondente ao DNA viral é também replicada. Assim, ainda que sadias, as células carregam as informações genéticas do vírus. Um determinado fator perturbador pode desencadear a segunda fase do ataque do vírus, no qual as funções das células infectadas são alteradas, e mais vírus são produzidos. Lwoff estudou, também, a irradiação ultravioleta (1950) e poliovírus (1954). Além de várias homenagens, receberia Lwoff o PNFM de 1965 pela sua descoberta de que o material genético do vírus pode ser assimilado por uma bactéria e passado a gerações sucessivas. O prêmio seria dividido com Jacques Monod e François Jacob, também pesquisadores do Instituto Pasteur, que investigaram a regulação da síntese de enzimas em bactérias mutantes. Lwoff escreveu, em 1941, um tratado intitulado L’Évolution Physiologique. As infecções viróticas continuariam a desafiar a capacidade, o conhecimento e as técnicas dos pesquisadores, permanecendo campo de grande atividade investigativa. O físico e biólogo alemão, naturalizado americano, Max Delbruck (1906-1981), formado (1930) em Física pela Universidade de Göttingen, trabalharia na Dinamarca, Suíça e Grã-Bretanha. Em 1937, viajou aos EUA, permanecendo três anos no Instituto de Tecnologia da Califórnia, e de 1940 a 1947, na Universidade Vanderbilt, De retorno à Caltech, como professor de Biologia, permaneceria neste renomado centro de pesquisa e ensino até sua aposentadoria, em 1976. Já no final dos anos 30, Delbruck iniciou pesquisas sobre os bacteriófagos, vírus que destroem as bactérias, descobertos por d’Herelle, e com a colaboração do biólogo ítalo-americano Salvador Edward Luria (1912-1991), formado pela Universidade de Turim, e pesquisador do MIT, publicaria, em 1943, Mutations of Bacteria from Vírus Sensitivity to Vírus Resistance, e, em 1945, demonstraria que os fagos se reproduzem sexualmente. O biólogo americano Alfred Day Hershey (1908-1997), do Departamento de Genética do Instituto Carnegie, colaboraria nas pesquisas, com seus estudos em Virologia e sua demonstração de que o DNA e não a proteína é o responsável pela transmissão dos códigos genéticos. Delbruck e Luria, pela descoberta 321 CARLOS AUGUSTO DE PROENÇA ROSA da estrutura genética dos vírus, e Hershey, pelo papel central do DNA na transmissão do código genético, dividiriam o PNFM de 1969. David Baltimore (1938), microbiologista e geneticista do MIT, Renato Dulbecco (1914), virologista ítalo-americano, pesquisador do Imperial Cancer Lab de Londres, e o bioquímico e virologista Howard Martin Temni (1934-1994), que descobriria a existência de uma enzima que sintetiza o DNA a partir do RNA (1964), o que abriu novas perspectivas para a síntese bioquímica, receberiam o PNFM de 1975 “por suas descobertas da interação de vírus de tumores e material genético celular”170. O virologista Baruch Samuel Blumberg (1925), do Instituto de Pesquisa do Câncer, na Filadélfia, descobridor do antígeno australiano, parte do vírus da hepatite B, que permitiria o desenvolvimento da vacina, e Daniel Carleton Gajdusek (1923), do Instituto Nacional de Saúde, de Bethesda, pesquisador da origem e disseminação das doenças infecciosas, dividiriam o PNFM de 1976 “por descobrirem novos princípios em relação à origem e à disseminação das enfermidades infecciosas”171. Apesar do constante progresso nas pesquisas das doenças infectocontagiosas, o mais recente desafio aos investigadores ocorreria em meados dos anos 80. O surgimento da infecção conhecida como AIDS daria especial importância à necessidade urgente de serem encontrados seu agente transmissor e a maneira de combatê-lo. Conforme se espalhava a contaminação e crescia assustadoramente o número de mortes, maior era a pressão da opinião pública mundial pela descoberta da causa da enfermidade, de forma a curar os pacientes e evitar uma epidemia em escala global. Laboratórios e centros de pesquisa, nos vários continentes, se dedicariam a essa tarefa. O virologista francês Luc Montagnier (1932), do Instituto Pasteur e da Fundação Mundial para a Pesquisa e Prevenção da AIDS, que isolaria o vírus HIV (Human Imunodeficiency Vírus), em 1983, e o pesquisador americano Robert Charles Gallo (1937), em artigo publicado na revista Science, de 1984, identificaria o HIV, isolado por ele e seu grupo, como o agente infeccioso responsável pela AIDS (Acquired Imune Deficiency Syndrome). Imediatamente se estabeleceria uma polêmica para se determinar qual dos dois havia descoberto o real agente da AIDS. Pesquisas posteriores atestariam tratar-se do mesmo HIV. Apesar de haver maioria de opinião, no meio acadêmico, favorável a Montagnier como descobridor do HIV, a controvérsia perderia intensidade com o acordo pelo qual ambos teriam o crédito pela descoberta. Em 2008, viria o 170 171 Comunicado de Imprensa – PNFM de 1975. Comunicado de Imprensa – PNFM de 1976. 322 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO reconhecimento oficial da comunidade científica internacional à obra de Montagnier ao lhe ser concedida parte do PNFM “pela descoberta do vírus da imunodeficiência humana (HIV) que provoca a AIDS”. Montagnier dividiria a metade do prêmio com a pesquisadora francesa Françoise Barre-Sinoussi (1947), com doutorado em Virologia e pesquisadora do Instituto Pasteur, por sua importante e decisiva contribuição na descoberta do vírus172. A outra metade do PNFM de 2008 foi concedida ao pesquisador alemão Harald zur Hausen (1936), da Universidade de Dusseldorf e do Centro Alemão de Pesquisa do Câncer, em Heidelberg, por ter descoberto, com base em suas pesquisas nos anos de 1970 e 1980, o vírus humano papiloma (HPV), causador do câncer cervical (câncer do colo do útero), o segundo tipo de câncer mais comum entre as mulheres. No pressuposto de que esse tipo de câncer tivesse origem viral, Hausen procurou descobri-lo pela busca de um DNA viral específico, o que seria obtido em biópsias de pacientes com câncer de colo do útero. Os tipos de vírus que detectou, os quais Hausen conseguiria posteriormente clonar, constam em cerca de 70% das biópsias dessa doença. Hamilton Othanel Smith (1931), bacteriologista, ganhador do PNFM de 1978173 pela descoberta de enzimas do tipo II, seria o primeiro a determinar, em 1995, a sequência do genoma de uma bactéria (haemophilus influenza), o mesmo organismo no qual descobrira a enzima de restrição, com Daniel Nathans e Werner Arber. 7.6.4 Genética A Genética é uma Ciência do século XX, ainda que tenha suas raízes na segunda metade do século XIX, com a monumental obra de Gregor Mendel (1822-1884), de 1866. Nesse período, seriam registrados importantes progressos e descobertas significativas nas áreas afins: cromossomos, DNA e célula, que seriam da maior relevância para o entendimento de fenômenos biológicos, como o da hereditariedade, objeto de especulação desde a Antiguidade. O significado científico da descoberta de Mendel não foi reconhecido em seu tempo, vindo sua obra a merecer especial atenção dos pesquisadores somente após a divulgação, em 1900, proporcionada pelos trabalhos de Correns, De Vries e von Tschermak. Apesar de certo ceticismo e algumas dúvidas iniciais em restritos círculos 172 173 Comunicado de Imprensa – PNFM de 2008. Comunicado de Imprensa – PNFM de 1978. 323 CARLOS AUGUSTO DE PROENÇA ROSA científicos, intensa atividade de pesquisa se desenvolveria, desde os primeiros anos do século XX, na ampla e complexa área da Genética, a qual se tornaria, em pouco tempo, a mais importante e a mais representativa da Biologia da atualidade. Os avanços conceituais e experimentais neste complexo e abrangente ramo científico, que inclui e incorpora investigações de outras áreas, como a Bioquímica, a Microbiologia, a Biologia molecular, a Embriologia e a Citologia, seriam de benefício para toda a Biologia. A extraordinária evolução das pesquisas, e consequente conhecimento derivado de seus desdobramentos (sequenciamento do Genoma, desenvolvimento da Biotecnologia e a produção de transgênicos, e o surgimento da clonagem de plantas e animais) explicam o crescente interesse generalizado por essas pesquisas, que têm como objetivo servir a Humanidade. Por outro lado, a Genética se constituiu, igualmente, em extraordinário apoio à “teoria da Evolução biológica pela seleção natural”, de Darwin, trazendo adicionais evidências comprobatórias de sua validade científica. O gene é a unidade fundamental da hereditariedade, pequena sequência (tamanho aproximado de 0,4 micrômetro) de bases hidrogenadas capazes de definir uma característica do ser vivo. Vários genes em sequência formam o DNA, conjunto de moléculas que carregam todo o código genético de todos os seres vivos. O DNA, muito longo (cerca de dois metros) se encontra enrolado em forma de mola, encapsulado nos cromossomos (tamanho aproximado de 1,4 micrômetro), que estão dentro da célula. Cinco períodos da evolução da Genética podem ser estabelecidos, com o propósito meramente expositivo: período pós-mendeliano, até os anos de 1910, com os trabalhos de Morgan e a comprovação da Teoria cromossômica da hereditariedade; um segundo período, até o final dos anos 40, com a descoberta de Avery, MacLeod e McCarty de o DNA ser o elemento transportador das informações genéticas contidas em suas células; o terceiro período, caracterizado pelo grande avanço nas pesquisas relativas ao DNA, inclusive sua estrutura, nas décadas de 50 e 60; um quarto período se inauguraria com a criação do DNA recombinante e desenvolvimento da Biotecnologia; e o quinto período teria início com o lançamento do Projeto Genoma Humano e os significativos avanços na técnica da clonagem. 324 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.6.4.1 Primeiro Período. Confirmação das Leis de Mendel O primeiro período se estenderia desde os últimos anos do século XIX com os trabalhos pioneiros de grande importância. A redescoberta de Mendel, a teoria da mutação de De Vries, certo ceticismo e dúvidas quanto à validade das leis da hereditariedade, até a obra de Morgan e sua equipe, que sinaliza, inclusive, sua conversão à Genética mendeliana. Em 1869, Johan Friedrich Miescher (1844-1895) descobriu no núcleo das células o que denominou de nucleína, depois chamado de ácido nucleico, em 1889, por Richard Altmann (1852-1900), que fora assistente de Miescher. Em 1913, Phoebus Levene (1869-1940) constatou que alguns ácidos nucleicos continham ribose (açúcar de cinco átomos de carbono) e outras, desoxirriboses (ribose com menos um átomo de oxigênio), o que significava dois tipos de ácidos nucleicos, o ribonucleico (RNA) e o desoxirribonucleico (DNA), que continha duas purinas (adenina e guanina) e duas pirimidinas (citosina e timina). No RNA, a timina era substituída por outra pirimidina, uracil. Por ser o DNA de estrutura simples, de pequenas moléculas, a opinião generalizada na época seria a de que o DNA não poderia carregar o código genético, e sim as proteínas. Os cromossomos (macromoléculas do DNA), palavra formada por cromos (cor, em grego) e soma (corpo, em grego), devido à sua capacidade de rapidamente absorver corantes, foram primeiro observados nas plantas, pelo botânico suíço Karl Wilhelm Nageli (1817-1891) em 1842, e depois, por Eduard Van Beneden (1846-1910). Em 1870, Walther Fleming (1843-1905), ao pesquisar os embriões de salamandra, observou no núcleo das células um material muito colorido, que denominou de cromatina, filamento que se fissurava longitudinalmente, processo de divisão da célula ao qual daria, em 1882, o nome de mitose (do grego para filamento). August Weissmann (1834-1914), que, em 1883-85, adiantara a ideia de que os cromossomos deveriam reduzir-se à metade (meiose, termo usado a partir de 1890) antes da fecundação, proporia, num ensaio com o intuito de explicar a constância do material hereditário de uma geração para outra, que a hereditariedade seria transmitida por uma substância de constituição química e molecular. Em 1887, Theodor Boveri (1862-1915) mostraria a existência de vínculo da substância química e molecular com a hereditariedade. E o citologista belga Van Beneden descobriria, ainda, que na formação dos gametas, uma das divisões celulares (meiose) não era precedida da duplicação dessas substâncias (cromossomos), que seu número era constante nas diversas células de um organismo e que cada espécie parecia ter um número característico deles, isto é, todos os organismos de uma espécie têm o 325 CARLOS AUGUSTO DE PROENÇA ROSA mesmo número de cromossomos. Em 1888, Wilhelm Waldeyer (1836-1921) batizaria tais substâncias como cromossomos. A redescoberta da obra de Mendel, em 1900, é atribuída a três pesquisadores: i) o conceituado biólogo e botânico holandês Hugo Marie De Vries (1848-1935), professor de Botânica da Universidade de Amsterdã, autor de Pangênese Intracelular (1889), A Teoria da Mutação (1901-03), Espécies e Variedades: Suas Origens por Mutação (1905) e Plant Breeding (1907), que escreveu o artigo, em março de 1900, em francês, Lei da Segregação dos Híbridos, sem mencionar Mendel, e outro, em maio desse mesmo ano, reconhecendo a precedência de Mendel. Em 1906, receberia a Medalha Darwin; ii) o botânico e geneticista alemão Carl Correns (1864-1933), da Universidade de Tubingen e primeiro presidente do Instituto Kaiser Guilherme para Biologia, fundado em 1913, que publicaria um artigo, em abril de 1900, intitulado Lei de Mendel sobre a descendência dos híbridos, no qual menciona o artigo de De Vries e declara que o mérito pela descoberta da transmissão dos caracteres genéticos era do monge-cientista, que já havia chegado às mesmas conclusões 34 anos antes. Em 1932, lhe seria concedida a Medalha Darwin pela Sociedade Real de Londres; e iii) o agrônomo e botânico austríaco Erich Tschermak von Seysenegg (1871-1962), cujos experimentos publicados confirmavam as conclusões de Mendel174. Uma controvérsia se estabeleceria imediatamente com a publicação, em 1901-03, do livro, em dois volumes, de De Vries, sobre sua teoria da mutação, em que se posicionava contra a Teoria da Evolução, de Darwin. De Vries sustentava que grandes variações hereditárias ocorridas numa geração poderiam produzir descendentes de espécies diferentes daquela de seus genitores, isto é, a mutação seria fonte primária da diversidade genética no processo evolutivo. A evolução lenta e gradual das espécies, por seleção natural, era, assim, contestada por uma evolução decorrente de abrupta, por saltos, e repentina mutação genética. A teoria de De Vries, baseada em suas pesquisas com a planta de flor amarela oenethera lamarckiana (prímula da noite) seria, em poucos anos, desacreditada, quando comprovado que os casos apresentados no estudo como evidência não decorriam de mutações genéticas, mas de complexos arranjos cromossômicos peculiares à planta investigada. O biólogo alemão Theodor Boveri (1862-1915), em pesquisa do ouriço-do-mar, e o citologista americano Walter Sutton (18761916), na base de pesquisas sobre a formação de espermatozoides dos gafanhotos, demonstrariam, em 1902, em trabalhos independentes, que os cromossomos eram os fatores da hereditariedade, de Mendel, e que, ademais, ocorriam em pares e eram estruturalmente similares. 174 TATON, René. La Science Contemporaine. 326 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Sutton demonstraria, igualmente, que as células do esperma e do óvulo continham par de cromossomos, que na meiose se replicam, e depois, se unem, e aventaria a Teoria dos cromossomos da hereditariedade, que só viria a ser confirmada por Thomas Morgan. Em 1903, Sutton publicaria The Chromosomes in Heredity. Nesse mesmo ano, William Bateson (1861-1926), um dos primeiros propagandistas da obra de Mendel na Grã-Bretanha, inclusive traduzindo-a para o inglês, e Lucien Cuenot (1866-1951) estenderiam as leis da hereditariedade, de Mendel, aos animais. Em 1906, Bateson criaria o termo “genética”, e, com Reginald Crundall Punnet (1875-1967), seria pioneiro em verificar que os genes estariam ligados nos cromossomos. Bateson será um dos críticos do trabalho de Morgan, rejeitando, inclusive, a Teoria cromossômica da hereditariedade. Bateson, em 1904, e Punnet, em 1922, receberiam a Medalha Darwin, concedida a cada dois anos, pela Sociedade Real de Londres, a cientistas por significativas contribuições nas áreas da Biologia relacionadas com a obra de Darwin. Em 1909, o botânico dinamarquês Wilhelm Ludwig Johannsen (1857-1927), ainda que cético da Genética mendeliana, cunharia o termo gene (em grego para “dar nascimento a”), o que o levaria a distinguir genótipo (constituição genética do organismo) e fenótipo (conjunto de características observáveis de um indivíduo, devido a fatores hereditários, isto é, ao genótipo). Nesses primeiros anos do século XX, o botânico e agrônomo americano Edward Murray East (1879-1938), com doutorado pela Universidade de Illinois, se dedicaria a experimentos de reprodução do milho, batata e tabaco em estações experimentais agrícolas. Suas pesquisas sobre pés de tabaco levaram-no a concluir que mutações espontâneas nos próprios genes seriam responsáveis por certas mudanças em futuras gerações de planta. Tais mutações poderiam ser importantes no processo de seleção natural, pois no caso de ocorrer uma característica vantajosa, ela teria maior chance de sobreviver no organismo, sendo transmitida às futuras gerações175. As conclusões de East viriam a ajudar os futuros trabalhos de Haldane, Fisher e Wright. O estudo da Genética teria um desdobramento marcante e inesperado nos anos 1910-15, com a comprovação da Teoria cromossômica da hereditariedade, por Thomas Hunt Morgan e sua equipe, porquanto se originara de um pesquisador que, até então, se mostrara bastante crítico e cético sobre a obra de Mendel, e os trabalhos de vários conceituados cientistas, como Weissmann, Van Beneden e Boveri. Em diversas ocasiões, 175 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História. 327 CARLOS AUGUSTO DE PROENÇA ROSA Morgan teria, inclusive, manifestado sérias dúvidas sobre a própria existência do gene. Thomas Hunt Morgan (1866-1945), formado pela Universidade de Kentucky e com doutorado, em 1891, pela Universidade Johns Hopkins, trabalharia, por 13 anos, em Bryn Mawr College como professor e pesquisador em Embriologia, tendo passado um ano (1894) na Estação Zoológica de Nápoles (Itália), com o biólogo alemão Hans Driesch (1867-1941), que despertaria seu interesse por Embriologia experimental. De retorno a Bryn Mawr, em 1895, escreveria seu primeiro livro The Development of the Frog’s Eggs (1897). Morgan seria contratado, em 1904, para a cadeira de Zoologia Experimental da Universidade de Colúmbia, onde permaneceria até 1928, quando se transferiu para o Instituto de Tecnologia da Califórnia (Caltech), que ocuparia até sua aposentadoria, em 1942. Sua pesquisa mais importante se refere às moscas-do-vinagre, objeto do famoso livro intitulado The Mechanism of Mendelian Heredity, escrito em 1915, com seus assistentes Sturtevant, Bridges e Muller. Dentre seus vários outros livros, podem ser citados Heredity and Sex (1913), A Critique of the Theory of Evolution (1916), The Physical Basis of Heredity(1919), Evolution and Genetics (1925), The Theory of Gene (1926), Experimental Embryology (1927), The Scientific Basis of Evolution (1932) e, com Sturtevant, o artigo The Genetics of Drosophila (1925). Por seus estudos sobre o papel dos cromossomos na transmissão dos caracteres hereditários, Morgan receberia o PNFM de 1933. Receberia em 1924 a Medalha Darwin. Morgan começaria, em 1908, a pesquisar a drosophila melanogaster (mosca-do-vinagre), com o propósito de descobrir mutações que pudessem comprovar o surgimento súbito de novas espécies, na mesma linha sugerida por De Vries, e, por conseguinte, contrária às teorias de Darwin e de Mendel. Para tanto escolheu um pequeno inseto, apropriado para tal tipo de investigação por seu curto ciclo vital (12 dias, ou 30 gerações por ano), por suas células possuírem apenas quatro cromossomos, e por contar com certas características hereditárias (forma das asas, cor dos olhos, pigmentação do corpo), além de grandes cromossomos, o que facilitava seu estudo. Morgan estabeleceria, também, uma eficiente e competente equipe de jovens pesquisadores, com Alfred Sturtevant, Calvin Bridges e Herman Muller, que lhe seriam de grande valor no curso das investigações. Outros pesquisadores já haviam pesquisado, anteriormente, a mesma mosca, sem sucesso, inclusive a geneticista americana Nettie Maria Stevens (1861-1912), que descobriria, em 1905, que os cromossomos determinam o sexo do feto, que depende da presença ou da ausência do cromossomo Y. Em 1910, após uma série de pesquisas nos sucessivos cruzamentos 328 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO das sucessivas gerações da mosca, Morgan verificou que um macho apresentou olhos brancos, diferente dos demais, que tinham olhos vermelhos. Nos cruzamentos seguintes, constatou que, embora olhos brancos aparecessem quase sempre entre os machos, poderiam ocorrer ocasionalmente com as fêmeas. Ademais, os olhos brancos reapareciam numa proporção de 3 por 1 para as características dominantes sobre as recessivas, conforme a lei de Mendel. Concluiria Morgan que os olhos brancos e os olhos vermelhos se comportavam como fatores mendelianos, sendo o vermelho predominante sobre o branco. Estudos posteriores de Morgan o levaram a concluir estar a hereditariedade vinculada ao sexo, pois o gene devia estar localizado na parte do cromossomo X, que falta no cromossomo Y masculino. Em artigo na revista Science, em 1910, Morgan publicaria os primeiros resultados dessas suas pesquisas. Nas pesquisas que se seguiram, Morgan e sua equipe mostrariam, numa série de artigos, fortes e convincentes evidências favoráveis à Teoria cromossômica da hereditariedade, inclusive a disposição linear dos genes nos cromossomos, verdadeiro encadeamento dos genes, conforme adiantara Sutton, sobre uma coleção de genes “enfileirados como contas num cordão”. Descobririam, ainda que sua posição poderia ser localizada e identificada em regiões precisas dos cromossomos. A partir daí, Morgan esclareceria o princípio mendeliano da segregação estrita dos caracteres, isto é, a herança independente dos caracteres morfológicos pela descendência, pela explicação que a dependência entre sexo e cor dos olhos nas moscas-do-vinagre era devida à localização dos genes responsáveis pela cor dos olhos no cromossomo X176. Em 1913, Alfred Henry Sturtevant (1891-1970), formado pela Universidade de Colúmbia, em 1912, e doutorado, em 1914, professor de Genética (1928/47) e de Biologia (1947/63) da Caltech, autor de A History of Genetics (1965), prepararia o primeiro mapa dos genes, e, nesse mesmo ano de 1914, Calvin Bridges (1889-1938), formado pela Universidade de Colúmbia, escreveria importante artigo, no qual localizaria um gene específico num cromossomo específico. Em O Mecanismo Mendeliano da Hereditariedade, de 1915, Morgan e sua equipe esclareceriam vários mecanismos, em particular: i) o de que os genes situados juntos num mesmo cromossomo tinham tendência a ser herdados em grupo, o que permitia estabelecer mapas de cromossomos; e ii) o do cruzamento, pelo qual cromossomos trocam material genético entre cromossomos de origem materna e paterna, dando origem a cromossomos recombinados, isto é, em que os genes não são alterados, como no caso das mutações, mas 176 RIVAL, Michel. Os Grandes Experimentos Científicos. 329 CARLOS AUGUSTO DE PROENÇA ROSA apenas rearranjados. Essa troca aleatória de segmentos cromossômicos provoca a mistura genética, observada nos indivíduos. Com o trabalho de Morgan e sua equipe, ficaram definitivamente assentados e comprovados os conceitos de gene e de cromossomos. Iniciada com o intuito de demonstrar a correção da teoria da mutação, a pesquisa viria a modificar radicalmente a posição de Morgan sobre a transmissão de caracteres genéticos, cujas descobertas o colocam como um dos criadores da Genética moderna. 7.6.4.2 Segundo Período. Desenvolvimento e Pesquisa Um segundo período da evolução da Genética pode ser situado entre a publicação, em 1915, de O Mecanismo Mendeliano da Hereditariedade e a obra de Avery, MacLeod e McCarty, de 1944, período que registra alguns importantes avanços nas pesquisas genéticas. Hermann Joseph Muller (1890-1967), formado pela Universidade de Colúmbia, assistente de Morgan e colaborador na pesquisa com a mosca-do-vinagre, coautor do livro O Mecanismo Mendeliano da Hereditariedade, se transferiu, em 1915, para o Instituto Rice (Houston), onde continuaria a investigar mutação, inclusive o efeito da elevação da temperatura no aumento da taxa de ocorrência da mutação. Em 1926, já então professor da Universidade do Texas, e após mais de dez anos de pesquisa, descobriria métodos (irradiação de raios-X) para produzir artificialmente mutações em moscas-do-vinagre e outros organismos a uma taxa superior a 250 vezes a da mutação espontânea177. Sobre o assunto escreveu, em 1927, o artigo Transmutação Artificial do Gene. Após trabalhar, de 1933 a 1940, na Alemanha, URSS, Espanha e Grã-Bretanha, retornou aos EUA, e depois do conflito mundial, foi nomeado professor de Zoologia da Universidade de Indiana (1945-67). Em 1946, recebeu o PNFM “pela descoberta de que mutações podem ser induzidas pelos raios X”. Uma das grandes dificuldades enfrentadas pelos cientistas da época no estudo dos cromossomos se referia à determinação de seu número nas diversas espécies. Vários estudos seriam realizados neste período, variando o número de cromossomo de 8 a 50. Theophilus Painter (1889-1969), zoólogo americano que identificaria genes na mosca-do-vinagre, após pesquisar cromossomos no espermatócito, chegou, em 1923, ao número de 24. Painter descobriria, em 1931, os grandes salivares da drosófila, o que viria a permitir revelar detalhes 177 COTARDIÈRE, Philippe de la. Histoire des Sciences. 330 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO não identificados nos demais pequenos cromossomos. Pesquisadores posteriores, levando em consideração o trabalho de Painter para o espermatócito, e atribuindo igual distribuição da parte da fêmea, concluiriam por um total de 48 cromossomos para a espécie humana. Apesar dos aperfeiçoamentos introduzidos por Robert Feulgen (1884-1955), com a chamada reação de Feulgen (1924), que permitia localizar o DNA nos cromossomos, as técnicas de coloração então usadas eram insuficientes, ainda, para permitir um mais completo conhecimento dos cromossomos. Vários métodos de bandeamento são, atualmente, usados nos laboratórios de biogenética para identificação dos cromossomos e análise da estrutura cromossômica (bandeamentos G, Q, R, e C, e bandeamento de alta resolução). A questão do número de cromossomos da espécie humana, e de outras espécies, só estaria resolvida na década de 50. O embriologista e citologista alemão Hans Spemann (1869-1941), formado em Zoologia, Botânica e Física pelas Universidades de Heidelberg, Munique e Wurzburgo, professor de Zoologia em Friburgo (1919/35), se tornaria conhecido por suas investigações pioneiras no campo da Embriologia e Genética, ao desenvolver, nos anos 30, o conceito de indução, com seus trabalhos sobre a diferenciação de células embrionárias durante o desenvolvimento do organismo. Por suas pesquisas, Spemann se tornaria um precursor em clonagem, ou, mais precisamente, em transplante, trabalhando principalmente com anfíbios. Já em 1902, dividira a célula de um embrião em dois, cada uma se desenvolvendo para se tornar uma salamandra, o que provava que células embrionárias continham todas as informações genéticas para criar um organismo. No final dos anos 20, pesquisando salamandras, Spemann foi capaz de transferir o núcleo de uma célula embrionária de uma salamandra para uma célula embrionária, sem núcleo, de outra salamandra, que se desenvolveria normalmente. Esta seria a primeira experiência de clonagem pelo método de transplante ou transferência do núcleo. Em 1938, Spemann publicaria o resultado de suas investigações no livro intitulado Desenvolvimento e Indução Embriônica, no qual proporia o “experimento fantástico” de clonagem de um organismo pela utilização da transferência de célula diferenciada ou adulta. Para tanto, contudo, não dispunha de tecnologia apropriada. Spemann receberia, em 1935, o Prêmio Nobel de Fisiologia pela descoberta do efeito da indução, quando uma parte do embrião transplantado para outra região do embrião causa uma mudança nos tecidos ao redor. As experiências, em 1928, do médico e bacteriologista inglês Frederick Griffith (1877-1941), com a bactéria streptococcus, causadora 331 CARLOS AUGUSTO DE PROENÇA ROSA da pneumonia, em seu intento de encontrar a cura para esta doença, o levaria a pesquisar os dois tipos de bactéria, o de envoltório protetor, que lhe dá uma superfície lisa e são virulentas (streptococcus S), e o sem cobertura (por falha metabólica), de superfície rugosa e menos virulenta (streptococcus R). Injetou em camundongo o tipo S vivo e o tipo R morto, que, para sua surpresa, adquiriu a pneumonia e morreu. O curioso é que Griffith encontrou no hospedeiro alguns estreptococos S vivos, o que o levaria a concluir que deveria haver alguma “substância transformadora” que tornara os bacilos brandos em mortais, mas como seu interesse era apenas terapêutico, não prosseguiria com suas investigações sobre o tema, que seria retomado, na década de 40, por Avery, MacLeod e McCarty. Pesquisas de 1929, de Alfred Sturtevant e Sterling Emerson (1900-1988), confirmariam que a complexa genética da oenethera lamarckiana, objeto de investigação de De Vries, não era exemplo de mutação, mas fruto de deslocamento de grupos de genes, importante evidência que reforçaria a Teoria cromossômica da hereditariedade. Três geneticistas versados em Matemática dariam, nos anos 20 e 30, importantes contribuições, ao relacionarem Evolução e Genética, dando à teoria darwinista uma nova sustentação científica, o que lhes valeria a Medalha Darwin. Ronald Aylmer Fisher (1890-1962), estatístico e geneticista inglês, John Burdon Sanderson Haldane (1892-1964), biólogo e geneticista escocês, e Sewall Wright (1889-1988), geneticista americano, demonstrariam, em estudos independentes, mas simultâneos, como pequenas variações resultantes de recombinações cromossômicas, juntamente com as mutações espontâneas deduzidas por Edward East, podiam explicar, matematicamente, na escala de tempo de intervalo dos fósseis, as grandes mudanças nos organismos vivos. A principal obra de Fisher sobre o assunto seria a de 1930, The Genetical Theory of Natural Selection. As de Haldane seriam a série de artigos, iniciada em 1924, intitulada A Mathematical Theory of Natural and Artificial Selection, e o livro de 1932, The Causes of Evolution. E a de Wright, seria o The Roles of Mutation, Inbreeding, Crossbreeding and Selection in Evolution, de 1932. Esses trabalhos significam a fundação da chamada Genética populacional. O biólogo Max Delbruck, com formação em Física, e que trabalhara algum tempo com Max Born, escreveria, em 1935, que a Mecânica quântica explicava as mutações em organismos vivos, pelo deslocamento de moléculas no núcleo celular por sobre uma barreira de energia (medida em quanta), passando de uma configuração estável para outra configuração estável. Era uma demonstração sobre a Física do átomo determinar os processos biológicos mais básicos178. 178 BRODY, David; BRODY, Arnold. As Sete Maiores Descobertas Científicas da História. 332 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Em 1937, apareceria a obra fundamental de Theodosius Dobzhansky (1900-1975), intitulada Genética e a Origem das Espécies, que coloca definitivamente a Genética como explicação da evolução das espécies mediante a seleção natural, por ser considerada, a justo título, marco da Teoria Sintética da Evolução ou Síntese Evolutiva. A obra será examinada na parte deste trabalho relativa à Evolução. George Wells Beadle (1903-1989), formado pela Universidade de Nebraska, e com doutorado pela Universidade de Cornell, e Edward Lawrie Tatum (1909-1975) começariam a trabalhar, em 1941, com um organismo mais simples que a mosca-do-vinagre, um fungo chamado neurospora crassa, que se desenvolve num meio nutriente contendo apenas açúcar, suprindo-se de outros elementos (nitrogênio, fósforo, enxofre) por meio de sais inorgânicos. Demonstrando que cada gene produzia uma determinada proteína, pois os genes regulam reações específicas, determinando as especificidades das enzimas, o resultado seria expresso pela célebre fórmula “um gene, uma proteína”. A ligação entre gene e enzima estava demonstrada, comprovando estudo pioneiro, do início do século, pelo médico inglês Archibald Garrod (1857-1936). Beadle e Tatum dividiriam o PNFM de 1958 por seus estudos sobre a regulação genética de processos químicos, sendo a outra metade do prêmio concedida a Joshua Lederberg (1925) por seus estudos sobre recombinação genética e genética bacteriana. Ainda nos anos 30, na França, Boris Ephrussi (1901-1979), russo, naturalizado francês, que estagiara no laboratório de Thomas Morgan, na Caltech, em 1934-35, pesquisaria, no ano seguinte, com George Beadle, em Paris, as moscas-do-vinagre que seriam igualmente pesquisadas pelo zoólogo Georges Teissier (1900-1972) e pelo geneticista Philippe L’ Héritier (1906-1994) com a utilização de “gaiolas de populações” que lhes permitiram estudar sucessivas gerações de milhares de drosófilas179. A geneticista americana Bárbara McClintock (1902-1992), com doutorado em Botânica, pela Universidade de Cornell, em 1927, se tornaria famosa por suas experiências, nos anos 30, com uma variedade de milho de cromossomos grandes, bem visíveis, mais fáceis de serem estudados. O aperfeiçoamento da técnica de coloração permitiria, também, a McClintock, identificar, distinguir e numerar os dez cromossomos do milho. Nos anos 40, McClintock continuaria, no laboratório de Cold Spring Harbor, do Instituto Carnegie, seus experimentos com milho, pesquisando famílias de genes mutantes responsáveis por mudanças em pigmentação. Além do gene normal, 179 COTARDIÈRE, Philippe de la. Histoire des Sciences. 333 CARLOS AUGUSTO DE PROENÇA ROSA pela pigmentação, McClintock descobriria dois elementos controladores, um dos quais bem próximo do gene normal, e que atuava como um comutador, ativando ou desligando o gene. O outro elemento, mais distante do gene no cromossomo, controlaria a taxa em que o gene da pigmentação seria ligado ou desligado. McClintock descobriria, também, que tais elementos controladores poderiam mudar de lugar, e, mesmo, se transferir para outro cromossomo. O processo desse fenômeno e transposição seria relatado em seu trabalho de 1951, intitulado Organização Cromossômica e Expressão Gênica. A obra permaneceria, por vários anos, sem chamar a atenção do meio científico, até 1960, quando os elementos controladores foram identificados em bactérias por Jacques Monod e François Jacob, e chamados de RNA-mensageiro (mRNA), por fazerem a intermediação entre o DNA e as proteínas. Bárbara McClintock receberia o PNFM de 1983 pela descoberta dos elementos gênicos móveis, também conhecidos como genes saltadores. Oswald Avery (1877-1955), bacteriologista do Instituto Rockefeller, que pesquisava havia anos a bactéria pneumococos e conhecia os resultados das investigações de Frederick Griffith, buscaria descobrir a substância transformadora responsável pelo fenômeno. Após uma série de pesquisas, em que separara do pneumococo os carboidratos, proteínas, lipídios, DNA e RNA, e os inoculara em camundongos, verificaria Avery, com a colaboração dos geneticistas Colin MacLeod (1909-1972) e Maclyn McCarty (1911-2005), que apenas a amostra contendo o DNA fora capaz de transformar as células R em células S das bactérias. A experiência comprovava, assim, que a substância transformadora não era a proteína ou o carboidrato, mas um ácido nucleico, mais precisamente o DNA. A grande importância da experiência estava, portanto, na descoberta de ser o DNA, e não a proteína, o material hereditário, e, por conseguinte, o DNA formar o gene. Os três cientistas publicariam, em 1944, no Journal of Experimental Medicine, uma série de artigos sobre a extraordinária descoberta, sendo que a da estrutura do DNA ocorreria 10 anos depois, por Crick e Watson. Pouco depois, o bioquímico escocês Alexander Todd (19071997) sintetizaria e determinaria a estrutura de todas as bases purina e pirimidina do ácido nucleico em prosseguimento ao trabalho de Phoebus Levene. Por sua contribuição, Todd receberia o PNQ de 1957. 334 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.6.4.3 Terceiro Período. DNA e RNA. Código Genético O terceiro período seria caracterizado e dominado por pesquisas sobre o DNA, cuja importância para a Genética passara a ser reconhecida no meio científico, principalmente a partir dos trabalhos de Avery. Em 1950, o bioquímico alemão Erwin Chargaff (1905-2002) anunciaria a famosa regra de Chargaff, pela qual o número de bases purina (adenina e guanina) era igual ao de bases pirimidina (citosina e timina), e que o número de base adenina era igual ao de base timina, e o de guanina, igual ao de citosina. Essa descoberta seria crucial para as pesquisas de Crick e Watson. Nessa mesma época, o químico americano Linus Pauling (1901-1994) descobriria (1948/50), em suas pesquisas sobre proteínas, que sua estrutura tinha forma de hélice. Em 1952, em experimento conjunto no laboratório da Cold Spring Harbour, o geneticista e bacteriologista Alfred Day Hershey (1908-1997) e sua assistente, Martha Chase (1927-2003), comprovariam, com o uso de traçantes radioativos, em investigações sobre o DNA de bacteriófagos, as pesquisas de Avery de ser o DNA, e não a proteína, o material transmissor dos caracteres genéticos, que o DNA era capaz de converter um tipo de bactéria em outro, e que o DNA podia duplicar-se180. Hershey dividiria com Delbruck e Luria o PNFM de 1969 por seu trabalho em transmissão do código genético. Em 1952, Robert W. Briggs (1911-1983) e Thomas J. King (1921-2000), biólogos americanos, aparentemente sem conhecimento dos experimentos de Spemann, usariam o método do transplante para clonar sapos, pela transferência, com sucesso, de núcleos de células somáticas de sapos adultos em células germinativas, sem núcleos. Dois biólogos americanos, Joshua Lederberg (1925) e Norton Zinder (1928), descobriram, em 1952, que um bacteriófago, ao passar de uma bactéria a outra, poderia transferir unidades genéticas do primeiro hospedeiro ao segundo. Este fenômeno seria chamado de transducção. A possibilidade de modificar o DNA de um organismo, por transducção ou por uma injeção de plasmídeo, significaria a possibilidade da criação de indivíduos transgênicos, o que viria a ser contemplado, no futuro próximo, pelos cientistas. As descobertas de geneticistas, microbiologistas, bioquímicos e químicos, como Levene, Delbruck, Avery, Todd, Chargaff, Pauling e Hershey, foram fundamentais para a compreensão das funções e da importância do DNA. Porém, como era sua estrutura molecular, como desempenhava suas funções e como se duplicava, continuava um mistério a desafiar os pesquisadores. 180 RONAN, Colin. História Ilustrada da Ciência. 335 CARLOS AUGUSTO DE PROENÇA ROSA Em 1951, começaria o trabalho conjunto, em Cambridge, do biofísico inglês Francis Harry Compton Crick (1916-2004) e do bioquímico americano James Dewey Watson (1927), com o propósito de investigar o DNA como material hereditário. Nas pesquisas, os dois se apoiariam no trabalho de Chargaff sobre as bases nitrogenadas do DNA e contariam com a colaboração do biofísico neozelandês Maurice Hugh Frederick Wilkins (1916-2004) e da químico-física Rosalind Franklin (1920-1958), especialista na técnica da difração dos raios-X, que, no King’s College, pesquisavam o DNA, cuja configuração poderia ser revelada pela cristalografia. No final de 1952, trabalho ainda não publicado de Franklin, indicando o DNA em forma de espiral dupla, helicoidal, e não linear, seria mostrado, por Wilkins, sem conhecimento da autora, a Crick e Watson, que imediatamente reconheceram a importância da descoberta. A tarefa seguinte seria arrumar as bases purina e pirimidina no modelo helicoidal. Para tanto, contaram com a explicação do cristalógrafo americano Jerry Donahue sobre a necessidade de adequar a hélice dupla às “regras de Chargaff”, isto é, como as bases nitrogenadas são de tamanhos diferentes, no caso de hélices de igual comprimento, era indispensável emparelhar adenina somente com timina e guanina apenas com citosina. No processo de duplicação, as duas hélices se separariam, o que permitia a cada uma servir de modelo para seu complemento: onde existe uma adenina podia ser selecionada uma timina como vizinha, e vice-versa, o que permitia uma hélice formar uma outra. O primeiro de uma série de quatro artigos foi publicado pela revista Nature, em 25 de abril de 1953, com a descrição da estrutura do DNA, cujas características essenciais da espiral dupla, semelhante a uma escada helicoidal, eram os lados retorcidos consistirem de grupos alternados de açúcar e fosfato, e os degraus serem formados de bases proteicas unidas por ligações fracas de hidrogênio. A estrutura em espiral dupla permite que o DNA se duplique antes da reprodução celular. Quando a célula se divide, a espiral dupla se desenrola, e os dois lados da escada se abrem, e cada um dos filamentos separados se une a nucleotídeos complementares, que, incorporados aos filamentos separados, criam duas novas moléculas de DNA idênticas entre si e à molécula inicial. A descoberta de Crick e Watson permitira novos e importantes avanços na pesquisa genética e lhes valeria o PNFM de 1963181, que dividiriam com Maurice Wilkins. Em 1955, o bioquímico Heinz Fraenkel-Conrat (1910-1999), professor de Biologia Celular e Molecular, estabeleceria o modo pelo 181 Comunicado de Imprensa – PNFM de 1962. 336 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO qual o RNA determinava a formação das moléculas proteicas do vírus do mosaico do tabaco, confirmando a importância vital do RNA como transmissor do código genético. E, em 1960, anunciaria o sequenciamento completo dos seus 158 aminoácidos. O citologista e geneticista Joe Hin Tjio (1916-2001), de origem chinesa, nascido em Java, então possessão holandesa, pesquisava na Universidade de Zaragoza (Espanha) cromossomos em plantas, num programa que duraria de 1948 a 1959. Em férias na Suécia, continuaria suas investigações no laboratório da Universidade de Lund, a cargo do botânico e geneticista sueco Albert Levan (1905-1998), onde cultivaria células humanas e desenvolveria técnica para examinar os cromossomos nessas células. No verão de 1956, Hin Tjio descobriria, pela fotomicrografia (foto tirada por meio de um microscópio), o número correto – 46 – (ou 23 pares) de cromossomos na célula humana, em vez de 48, que era, até então, aceito. A descoberta foi publicada na revista sueca Hereditas, em 26 de janeiro de 1956, aparecendo Albert Levan (apesar de se encontrar em férias durante as pesquisas de Hin Tjio) como coautor. A título ilustrativo, caberia acrescentar que cada espécie animal ou vegetal tem um número determinado e particular de cromossomos. Assim, drosófila, 8; milho, 10; centeio, 14; cobaia, 16; caracol, 24; minhoca, 32; porco, 40; trigo, 42; humano, 46; macaco, 48; carneiro, 54; cavalo, 64; galo, 78; e carpa, 104. No caso dos 23 pares de cromossomos das células humanas, 22 pares são semelhantes (autossomos) em ambos os sexos. Os cromossomos do par restante, de cromossomos sexuais, de morfologia diferente entre si, recebem o nome de X e Y, sendo que no sexo feminino existem dois cromossomos X e no masculino um X e um Y. Provado ser o DNA o material genético, faltava ainda estabelecer como ele copiava sua informação e como isto era expresso no fenótipo. Os biólogos moleculares Matthew Stanley Meselson (1930), da Caltech, e Franklin William Stahl (1929), realizariam, em 1957, o que seria considerado uma experiência clássica da Biologia molecular. A experiência MeselsonStahl, com a bactéria Escherichia coli, consistiu em desenvolvê-la num meio de nitrogênio pesado 15. A primeira geração foi transferida, então, para outro meio de peso molecular mais leve, de nitrogênio 14, o que os levaria a constatar que a duplicação do DNA era semiconservativa, isto é, o DNA produzido por bactérias crescidas nos dois meios eram intermediárias entre pesadas e leves, ou, ainda, em outras palavras, cada fita do DNA é duplicada formando uma fita híbrida, em que a fita velha forma par com a nova, formando a outra dupla fita. A experiência confirmaria a suposição assumida por Crick e Watson em 1953. 337 CARLOS AUGUSTO DE PROENÇA ROSA Em 1956, os bioquímicos Arthur Kornberg (1918), americano, e o espanhol, naturalizado americano, Severo Ochoa, identificaram e isolaram a enzima polimerase, que catalisa a síntese do DNA, com a qual sintetizaram, em 1957, o DNA não replicante. Ambos receberiam pela descoberta o PNFM de 1959. Descoberta a estrutura do DNA, vários cientistas pesquisariam como seria possível estar o código genético contido na sequência de apenas quatro bases ao longo de uma das fitas da dupla hélice, quando havia 20 tipos de aminoácidos encadeados nas proteínas. Um desses cientistas seria o cosmólogo e físico George Gamow (1904-1968), famoso, entre outras contribuições, pela teoria do Big Bang, que avançaria a ideia de que os ácidos nucleicos agiriam como código genético, o qual seria composto por uma curta sequência dos quatro nucleotídeos que codificariam os 20 aminoácidos que as células vivas utilizam para codificar as proteínas. Extraordinária contribuição ao esclarecimento do DNA seria dada em duas oportunidades pelo bioquímico inglês Frederick Sanger (1918): a primeira, em 1955, ao estabelecer a estrutura da molécula da insulina, descobrindo a ordem exata dos aminoácidos na molécula; e a segunda, em 1977, ao elucidar a sequência dos aminoácidos no DNA do bacteriófago “phi-X 174”, primeiro organismo a ter sua completa sequência de aminoácidos esclarecida. Sanger é o único cientista agraciado duas vezes (1958 e 1980) com o Prêmio Nobel de Química. Francis Crick prosseguiria, depois de sua famosa descoberta da estrutura do DNA, a pesquisar também a molécula, com o intuito de entender como seria possível escrever o código genético apenas com quatro bases diferentes. Em 1958, formularia o conhecido dogma central, que relaciona DNA, RNA e proteína, pela qual o DNA pode ser transcrito em RNA, e este, por sua vez, traduz o código genético em proteínas, isto é, a informação genética fluiria do DNA para a proteína por meio do RNA. Posteriormente, algumas descobertas não coincidiriam com o dogma, de que o RNA poder ser replicado em alguns vírus e plantas e o RNA viral poder ser transcrito em DNA. Desde 1953, o biólogo Sydney Brenner (1927) acompanhava, em Cambridge, as pesquisas de Crick e Watson, e, em 1957, passaria a pesquisar na equipe de Max Perutz (1914-2002), no campo da Biologia molecular. Seu interesse por entender o funcionamento do DNA ocuparia boa parte de suas investigações biológicas, mantendo estreito contato com cientistas de diversas instituições e nacionalidades. Ainda nos anos 50, demonstraria, com Crick, que na base de quatro nucleotídeos e 20 aminoácidos haveria 63 diferentes tripletos ou trincas de nucleotídeos ou 338 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO informações diferentes (43=64), e cada um dos 20 aminoácidos poderia ser especificado por até três diferentes tripletos. O código genético deveria ter sequências de três letras. Nessa oportunidade, Brenner cunharia o termo códon para denominar o tripleto. Os bioquímicos americanos Paul Zamecnik (1913) e Mahlon Hoagland (1921) descobririam, em 1958, o RNA de transferência (tRNA), tipo de RNA previsto por Crick no dogma central, que tem como função identificar e carregar os aminoácidos até o ribossomo, no qual ocorre a síntese das proteínas. Pouco anos depois, em 1961, os biólogos François Jacob (1920), francês, Sydney Brenner (1927), sul-africano, e Matthew Stanley Meselson (1939), americano, confirmariam outro tipo de RNA (descoberto por Barbara McClintock), que seria chamado de RNA-mensageiro (mRNA), que contém as informações genéticas e as leva para o citoplasma para a síntese proteica. Jacob dividiria, em 1965, o PNFM com Jacques Monod e André Lwoff, por estudos sobre atividade regulatória nas células, e Brenner dividiria o de 2002 com John E. Sulston e H. Robert Horvitz, “pelos pioneiros trabalhos de Biologia sobre o desenvolvimento e a morte celular programada, a apoptose”. Eram conhecidas as quatro bases nitrogenadas de nucleotídeos (adenina, citosina, guanina e timina, designadas, respectivamente, por A, C, G e T, no DNA, e por A, C, G e U (uracil) no RNA). E também conhecidos os 20 aminoácidos (fenilalamina, leucina, serina, prolina, isoleucina, metionina, treonina, valina, alanina, cisteína, triptofano, tirosina, arginina, histidina, glutamina, asparagina, lisina, glicina, ácido aspártico e ácido glutâmico, em ordem numérica de 1 a 20), moléculas orgânicas compostas pelo menos de um grupamento de amino e um de carboxila, que constituem as proteínas. A questão a resolver era saber qual a correspondência das 64 possíveis combinações de tripletos (códons) com cada dos 20 aminoácidos. Caberia ao bioquímico americano Marshall Warren Nirenberg (1927), formado pela Universidade da Flórida, em 1948, e doutorado pela Universidade de Michigan, em 1957, pesquisador do Instituto Nacional de Saúde de Bethesda (EUA), “quebrar” o código genético. Suas pesquisas sobre o assunto começaram em 1959 com a colaboração do jovem bioquímico alemão Heinrich Matthaei. A descoberta de Severo Ochoa, da técnica de produzir RNA artificialmente, permitiria a Nirenberg produzir uma molécula de RNA exclusivamente de uracil, nucleotídeo que ocorre apenas no RNA, pelo que o único códon possível seria de uracil (UUU). Na pesquisa, Nirenberg constatou que a proteína produzida pela molécula de RNA artificial (UUU) consistia apenas do aminoácido fenilalamina, o que 339 CARLOS AUGUSTO DE PROENÇA ROSA significava ser o UUU código para a fenilalamina. Em 1961, Nirenberg anunciaria a comprovação experimental de que uma sequência de bases especifica uma sequência e revelaria a “primeira palavra do código genético”. Nirenberg continuaria, no entanto, a pesquisar, com sua equipe, na base do RNA sintético, e descobriria que AAA era o código para lisina e CCC para prolina. Em 1966, Nirenberg anunciaria que havia decifrado os 64 possíveis códons do RNA e do DNA. Nirenberg dividiria o PNFM de 1968 com Har Gobind Khorana (1922), biólogo molecular, nascido no Punjab, região, hoje, do Paquistão, por seu trabalho na interpretação do código genético e sua função na síntese proteica, e com o bioquímico Robert W. Holley (1922-1993), por sua descrição do tRNA alanina (molécula que incorpora o aminoácido alanina à proteína), vinculando DNA e síntese proteica, e por suas contribuições pelo desenvolvimento de pesquisas sobre os mecanismos celulares para a herança genética182. Após o trabalho pioneiro de Spemann, e a clonagem de um sapo, por Briggs e King, em 1952, prosseguiriam as pesquisas neste campo. O embriologista inglês John Bertrand Gurdon (1933), utilizando-se da técnica de transplante de núcleo, produziria, em 1967, o primeiro clone de um vertebrado, implantando uma célula de intestino de um sapo ungulado (com casco) no óvulo de outro sapo, que teve o núcleo removido. O óvulo desenvolveu-se, dando nascimento a um novo sapo ungulado. Tal experiência foi, contudo, contestada por muitos cientistas, com a alegação que células sexuais já estariam presentes, em pequeno número, no tecido. Em 1969, uma equipe da Universidade de Harvard, chefiada por James Shapiero e Jonathan Beckwith, isolaria, por primeira vez, um gene de um fragmento de DNA de uma bactéria de grande importância no metabolismo do açúcar. O sucesso dessa pesquisa se refletiria nos futuros avanços no sequenciamento do genoma e na clonagem. A iniciativa do genoma humano evoluiria com o estabelecimento de um esforço internacional conhecido como Projeto do Genoma Humano (PGH) para identificar e fazer o mapeamento dos 140 mil genes existentes nas moléculas de DNA nas células do corpo humano, determinar as sequência dos 3 bilhões de bases químicas (A,C,G,T) que compõem o DNA humano e criar banco de dados, desenvolver meios para análise desses dados e torná-los accessíveis para novas pesquisas biológicas. A criação do Consórcio Internacional para o Sequenciamento do Genoma Humano, com a participação de cientistas de 20 instituições dos EUA, França, Japão, Grã-Bretanha, Alemanha e China, daria maior eficiência ao trabalho de pesquisa, cujos resultados viriam em rápida 182 Comunicado de Imprensa – PNFM de 1968. 340 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO sucessão, a partir do final de 1999. Os maiores centros envolvidos na pesquisa são o Baylor College of Medicine, o Broad Institute do MIT e de Harvard, e a Escola de Medicina da Universidade de Washington (EUA), o Sanger Institute (GB), o Centro Riken (Japão), o Genoscope (França), o Instituto de Biotecnologia Molecular, o Instituto Max Planck para Genética Molecular (Alemanha) e o Instituto de Genômica de Beijing. De grande relevância para a Biologia molecular e a Genética, e, em particular, para a Engenharia genética, seria a descoberta, em 1970, pelo microbiologista e geneticista suíço Werner Arber (1929) e pelos microbiologistas americanos Daniel Nathans (1928-1999) e Hamilton Othanael Smith (1931) da enzima de restrição, que atua como verdadeira tesoura, ao cortar o DNA em pontos específicos. Esse corte permite ao pesquisador manipular o DNA e montar moléculas recombinantes, com aplicações diversas, como na identificação de pessoas e na produção de vacinas e transgênicos. Pela descoberta, os três cientistas dividiriam o PNFM de 1978183. Hamilton Smith participaria das pesquisas que, em 1995, completaram o sequenciamento do primeiro genoma de bactéria Haemophilus influenza, a mesma que servira para a descoberta da enzima de restrição. 7.6.4.4 Quarto Período. Engenharia Genética Um quarto período na evolução da Genética se estenderia a partir da criação do DNA recombinante, molécula de DNA modificada, pela combinação do DNA de dois organismos não relacionados, e que corresponde, assim, ao surgimento da Engenharia genética, verdadeira revolução tecnológica de grande impacto em diversas atividades humanas, até a formalização do Projeto Genoma Humano. Nesse sentido, os primeiros anos de 1970 seriam cruciais e testemunhariam a controvérsia a respeito da própria conveniência de avançar em pesquisas de consequências imprevistas. Nessa fase, os avanços experimentais permitiriam progressos significativos em transplante de células de embrião e de células adultas, e seriam criadas as condições teóricas e técnicas para a decodificação do Genoma Humano. As pesquisas na Genética despertariam grande interesse na sociedade, e adquiririam, por suas implicações, grande repercussão de âmbito mundial. Importantes investimentos em recursos humanos e financeiros seriam empregados em laboratórios e centros de pesquisa, diante da perspectiva de sucesso a curto prazo, os quais já se 183 Comunicado de Imprensa – PNFM de 1978. 341 CARLOS AUGUSTO DE PROENÇA ROSA mobilizavam para assegurar a patente dos processos de fabricação dos produtos de suas descobertas. O bioquímico e biólogo molecular Paul Berg (1926), professor da Universidade de Stanford, receberia metade do PNQ de 1980 por “seus estudos fundamentais da bioquímica dos ácidos nucleicos, particularmente em relação DNA recombinante”184. Berg criaria, por meio da manipulação in vitro do DNA, a primeira molécula recombinante, ao unir, por meio do DNA ligase, fragmentos de DNA de diferentes espécies, obtidos por enzimas de restrição (recém-descobertas por Werner Arber, em 1970), e inserindo esse DNA híbrido numa célula hospedeira185. A nova tecnologia do DNA recombinante consistia, assim, em cortar o gene de uma espécie e inseri-lo (recombiná-lo) em vetores, que são introduzidos e propagados em organismos hospedeiros, como leveduras e bactérias. No interior dos hospedeiros, o fragmento da molécula do DNA pode ser clonado indefinidamente. Berg seria um dos organizadores da Conferência de Asilomar, de 1975, sobre DNA recombinante. Em 1973, o bioquímico Stanley Cohen (1922) e Herbert Boyer (1936), então professor-assistente da Universidade de São Francisco, desenvolveram uma técnica de clonagem do DNA, pela qual genes poderiam ser transplantados entre diferentes espécies biológicas, ou seja, bactérias podiam ser combinadas com genes de organismos superiores. A pesquisa consistiu na inserção de gene de embrião do sapo africano no DNA de uma bactéria. A obtenção, assim, do primeiro organismo geneticamente modificado é considerada, por muitos autores, como o início da Engenharia genética. Cohen dividiria o PNM de 1986 com Rita Levi-Montalcini (1909) por suas pesquisas sobre substâncias produzidas no corpo que influenciam o desenvolvimento de tecidos dos nervos e peles. Boyer fundaria, em 1976, a Genentech, a primeira empresa de Engenharia genética, a qual, em 1978, clonaria o gene da insulina humana. Importante assinalar que a criação do DNA recombinante, por Berg, em 1972-73, trouxe uma imediata reação da comunidade científica pelas óbvias consequências que poderiam advir desta nova técnica. O próprio Berg, quando consultado, mostrou-se interessado na necessidade de uma ampla discussão sobre o tema, a fim de se aquilatarem os verdadeiros alcances e os eventuais usos da nova Biotecnologia. Estavam programadas para meados de 1971 experiências para a introdução do DNA SV40 do vírus do macaco, que pode causar câncer, na célula da Escherichia coli. Diante da celeuma criada, a iniciativa foi adiada. Em 1973, a Academia Nacional de Ciências dos EUA criaria uma comissão assessora, 184 185 Comunicado de Imprensa – PNQ de 1980. COTARDIÈRE, Philippe de la. Histoire des Sciences. 342 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO de especialistas, com o objetivo de examinar e avaliar os riscos da manipulação genética e sugerir um curso de ação. A recomendação da comissão de uma “moratória” nas pesquisas seria publicada em 1974, pelas revistas Nature e Science, que seria aprovada em reunião de cientistas, ainda em 1974, no MIT. Em fevereiro de 1975, se realizaria, em Pacific Grove, Califórnia, no Centro de Conferências de Asilomar, reunião com cerca de 140 cientistas (Paul Berg, Sydney Brenner, Norton Zinder, Maxine Singer, David Baltimore, Daniel Nathans, James Watson, Francis Crick, Rosalind Franklin, Maurice Wilkins, Stanley Cohen, Herbert Boyer, Richard Roblin, Phillip Sharp, Michael F. Singer) de várias nacionalidades, para a adoção de medidas de regulamentação das experiências com DNA recombinante. As recomendações aprovadas de biossegurança (suspensão das experiências com a finalidade de guerra bacteriológica, classificação das demais pesquisas em três grupos de risco, que só deveriam ser realizadas com precauções proporcionais) foram enviadas à comissão assessora da Academia para a elaboração das normas pertinentes, como a que a nova tecnologia fosse apenas aplicada a organismos que não pudessem viver por si mesmos fora do laboratório, e não poderia ser usada em genes ativos em seres humanos. Normas foram aprovadas, em 1976, pelo National Institute of Health, dos EUA, as quais seriam implementadas, de imediato, em território americano, para pesquisas financiadas com recursos da União. A partir desse momento, a questão da biossegurança adquiriria dimensão mundial, na medida em que a Biotecnologia começava a ser pesquisada em diversos países com perspectivas de crescente aplicação (agricultura, saúde). Deve ser acrescentado que as Universidades de Stanford e São Francisco obtiveram a patente do DNA recombinante. Phillip Allen Sharp (1944), geneticista americano do Center for Cancer Research, do MIT, e Richard John Roberts (1943), bioquímico e biólogo molecular inglês, da Cold Spring Harbor Laboratory, descobririam, em 1977, o gene interrompido (split gene), que, sob o ponto de vista molecular, não seria estrutura linear, sem interrupção, pelo que, existiria segmento do DNA sem função na síntese proteica. Essa descoberta é da maior importância e implicações, pois marca a passagem das pesquisas genéticas de organismos mais simples, como as bactérias, para organizações mais complexas, como os eucariotes (plantas, animais). Até essa data, entendia-se o gene como uma estrutura contínua linear, pois as bactérias não têm gene interrompido (íntron), que secciona a sequência do DNA, cuja função é alimentar de informação genética a proteína. Por outro lado, o processamento alternativo da molécula do DNA, decorrente 343 CARLOS AUGUSTO DE PROENÇA ROSA da descoberta do gene interrompido, traria dúvidas sobre o dogma central da Biologia molecular “um gene – uma proteína”, já que um gene pode estar envolvido na síntese de muitas proteínas. Sharp e Roberts dividiriam o PNFM de 1993 “pela descoberta da existência de segmentos do DNA que não têm função codificadora na elaboração de uma determinada proteína”186. Significativo avanço na pesquisa laboratorial seria o desenvolvimento, pelo bioquímico americano Kary Mullis (1944), da técnica, em Biologia molecular e Bioquímica, da chamada PCR (Polymerase Chain Reaction), sigla em inglês para Reação em Cadeia pela Polimerase, que permite obter múltiplas (milhões em poucas horas) cópias de um fragmento qualquer de DNA para propósitos experimentais. Espécie de fotocópia molecular, por meio dessa técnica é possível detectar e analisar uma sequência de DNA a partir de amostras de diferentes materiais biológicos, como sangue, urina, cabelo e cortes de tecido. A experiência de Mullis (1983-86)187 foi feita com a enzima Taq-polimerase, extraída da bactéria Thermus aquaticus, que lhe valeria o PNQ de 1993, dividido com o bioquímico canadense Michael Smith (1932-2000), por suas contribuições para o estudo da química do DNA. O geneticista inglês Alec John Jeffreys (1950), da Universidade de Leicester, desenvolveria, em 1986, a técnica da impressão digital genética, a qual tem sido instrumento da maior importância em Medicina Legal, e de real utilidade em perícia médica, investigação de paternidade e identificação de criminosos. O sucesso da análise depende do estado do DNA recolhido (ossada, sangue, cordão umbilical, unha, pele, saliva, dentes, etc.), cujos resultados são aceitos nos tribunais. Esta tecnologia é uma marca na evolução da Biotecnologia. O interesse pelo desenvolvimento de experiências no campo da criação de animais geneticamente modificados prosseguira nos anos 70 e 80, podendo ser mencionadas: i) as pesquisas do embriologista Karl Illmensee, da Universidade de Genebra, que teria clonado, em 1977, camundongos de apenas um genitor, e, em 1979, três camundongos, experimentos contestados no meio científico; e ii) as investigações, com sucesso, de Steen Willadsen (1944), geneticista dinamarquês, que, trabalhando para o Conselho de Pesquisa Agrícola Britânico, e utilizando a técnica de transplante do núcleo da célula, clonaria, em 1984, ovelha de célula de embrião, e que, em 1986, clonaria, com a mesma técnica, vaca de célula de embrião de uma semana. Esses seriam os primeiros 186 187 Comunicado de Imprensa – PNFM de 1993. Comunicado de Imprensa – PNQ de 1993. 344 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO casos de clonagem de animal mamífero. Ainda em 1986, no Laboratório de Ciência Animal, da Universidade de Wisconsin, Neal First, professor de Biotecnologia animal, e os pesquisadores Randal Prather e Willard Eyestone clonariam vaca de célula embrionária jovem do mesmo animal. Até essa época, acreditava-se que apenas células-tronco embrionárias seriam capazes de permitir a clonagem, uma vez que diferenciadas – de pele, de fígado, de rins, de ossos – as células-tronco adultas não poderiam voltar ao estágio embrionário. 7.6.4.5 Quinto Período. Genoma Humano. Clonagem O quinto período da evolução da Genética, inaugurado com o início do Projeto Genoma, se caracteriza pelas descobertas experimentais quanto ao genoma humano e à clonagem, progressos alcançados graças às contribuições das pesquisas, principalmente, desde o início dos anos 50. A Genética, pela imensa repercussão das descobertas de generalizado interesse da Sociedade, se tornaria um das áreas científicas de maior prestígio, sendo, mesmo, considerada, por muitos, como a Ciência do Século XX. Vultosos recursos seriam destinados, por governos e empresas, públicas e privadas, ao desenvolvimento das pesquisas, que, no caso do genoma humano, adquiriria caráter multilateral, pela contribuição de entidades de diversos países ao esforço internacional de decifração do código. Nesse sentido, especial comentário sobre a iniciativa de âmbito mundial é necessário, pela importância que representa, como exemplo, para o futuro da cooperação científica internacional. Paralelamente, extraordinário progresso ocorreria, igualmente, nas investigações sobre a clonagem de animais mamíferos, com o desenvolvimento da nova técnica da utilização de células-tronco adultas de embrião. A clonagem da ovelha Dolly é um marco nessa evolução da Engenharia genética. 7.6.4.5.1 Sequenciamento do Genoma Humano O Departamento de Energia e o Instituto Nacional de Saúde anunciariam, em 1986, a “iniciativa do genoma humano”, projeto-piloto com recurso orçamentário de US$ 5,3 bilhões para desenvolver tecnologias capazes de viabilizar a decodificação do genoma humano. Já no ano seguinte, seria estabelecida a meta de 15 anos para a conclusão dos trabalhos. Em 1989, seria criada a Organização do Genoma Humano 345 CARLOS AUGUSTO DE PROENÇA ROSA (HUGO, em inglês), foro internacional de cientistas com o propósito de promover a cooperação no campo da Genética. Dentre as suas missões constam investigação da natureza, estrutura, função e interação dos genes, a caracterização da natureza, distribuição, evolução da variação genética e o meio ambiente nas origens e características das populações humanas, e a promoção da interação, coordenação e disseminação de informação e tecnologia entre o pesquisador e a sociedade. O trabalho na HUGO se desenvolve coordenado por quatro comissões e uma reunião plenária anual, realizada, nos últimos anos, em Cancun (2003), Berlim (2004), Kyoto (2005), Helsinque (2006), Montreal (2007) e Hyderabad (2008); em 2009, não houve reunião plenária da HUGO, mas já estão programadas as de 2010, em Montpellier, e 2011, em Dubai. A iniciativa do genoma humano evoluiria com o estabelecimento de um esforço internacional, conhecido como Projeto do Genoma Humano (PGH), para identificar e fazer o mapeamento dos 140 mil genes existentes nas moléculas de DNA, nas células do corpo humano, determinar as sequência dos 3 bilhões de bases químicas (A,C,G,T) que compõem o DNA humano, e criar banco de dados, desenvolver meios para análise desses dados e torná-los accessíveis para novas pesquisas biológicas. A criação do Consórcio Internacional para o Sequenciamento do Genoma Humano, com a participação de cientistas de 20 instituições dos EUA, França, Japão, Grã-Bretanha, Alemanha e China, daria maior eficiência ao trabalho de pesquisa, cujos resultados viriam em rápida sucessão, a partir do final de 1999. Os maiores centros envolvidos na pesquisa são o Baylor College of Medicine, o Broad Institute, do MIT e de Harvard, e a Escola de Medicina da Universidade de Washington (EUA); o Sanger Institute (GB); o Centro Riken (Japão); o Genoscope (França); o Instituto de Biotecnologia Molecular e o Instituto Max Planck para Genética Molecular (Alemanha); e o Instituto de Genômica de Beijing. O processo de mapeamento se constituiria de uma série de diagramas descritivos de cada um dos cromossomos, que seriam divididos em fragmentos para serem caracterizados. Depois, os fragmentos seriam ordenados, a fim de corresponderem às suas respectivas posições nos cromossomos. Com os fragmentos ordenados, o passo seguinte seria determinar a sequência das bases de cada um dos fragmentos do DNA e descobrir o número de genes na sequência, informação que será útil para a Biologia e a Medicina. Ao mesmo tempo em que se avançava na pesquisa do genoma humano, outros projetos continuariam a progredir, como o da União Europeia, que, em 1996, concluiu o sequenciamento do genoma da levedura, e o do Instituto Sanger e do Centro de Sequenciamento de 346 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Genoma da Universidade de Washington, que concluiriam, em 1998, o sequenciamento do genoma do nematoide c. elegans. A situação cômoda do PGH, de não enfrentar organização concorrente nesse projeto científico, terminaria em maio de 1998, quando foi criada a empresa Celera Genomics, sendo seu presidente o biólogo Craig Venter (1946), que adquirira experiência, no Instituto Nacional de Saúde, na identificação do mRNA nas células. A nova empresa, de fins comerciais, se propunha estabelecer um banco de dados, cujo acesso estaria disponível aos subscritores mediante uma determinada taxa, ao contrário do PGH, consórcio de financiamento público, contrário à privatização do processo de sequenciamento do genoma humano. Venter desafiaria o PGH, anunciando, ainda em 1998, que sua empresa seria capaz de desvendar o código genético até 2001. Ao longo dos anos 90, diversas instituições de pesquisa anunciariam a descoberta de genes em diversos cromossomos como responsáveis por doenças (câncer de cólon, câncer da mama, mal de Alzheimer, síndrome de Down, obesidade, esquizofrenia, sintomas de envelhecimento, distúrbio renal). Mapeamentos incompletos e provisórios foram publicados, em algumas oportunidades, pelo PGH. Causaria grande sensação no meio científico o anúncio, em 21 de dezembro de 1999, do sequenciamento completo do cromossomo 22, constituído por 56 milhões de pares de bases, o que significou permitir ver, por primeira vez, e por inteiro, o DNA de um cromossomo. Em abril de 2000, seria anunciado o segundo cromossomo sequenciado e analisado, de número 21, o menor cromossomo, com 50 milhões de pares de base, quando se daria, igualmente, conhecimento de rascunho de mapeamento do genoma humano. No Brasil, seria anunciado o sequenciamento do genoma da bactéria Xylella fastidiosa, causadora da doença do amarelinho em cítricos, objeto de artigo publicado na revista Nature. Em 12 de fevereiro de 2001, foi anunciado rascunho das análises iniciais do genoma humano, feitas pelo PGH e pela Celera Genomics, que seriam publicadas, respectivamente, em edições especiais, pela Nature, em 15 de fevereiro, e pela Science, em 16 de fevereiro. Em dezembro do mesmo ano, foi dado à publicidade o sequenciamento do cromossomo 20, com cerca de 72 milhões de pares de bases, correspondendo a, aproximadamente, 2% do genoma humano. Quatro cromossomos humanos teriam seu sequenciamento terminado em 2003: o 14, em janeiro, com 1.950 genes e cerca de 109 milhões de pares de base; o Y, em junho, o menor dos cromossomos, com 347 CARLOS AUGUSTO DE PROENÇA ROSA aproximadamente 59 milhões de pares; o 7, em julho, com cerca de 171 milhões de pares; e o 6, em outubro, com 183 milhões de pares de bases. Mais sete cromossomos seriam sequenciados e analisados em 2004, elevando este total para 14: no mês de março, foram publicados os mapas dos cromossomos 13, com 114 milhões de pares de bases; do 19, com 67 milhões; e do 18, com 85 milhões; em maio, foram anunciados os cromossomos 10, com 144 milhões de pares; e do 9, com 145 milhões; em setembro, foi conhecido o sequenciamento do cromossomo 5, com 194 milhões de bases; e em dezembro, o 16, com 98 milhões de pares de bases. Em outubro de 2004, o PGH anunciaria ter revisto, para baixo, o número de genes nos cromossomos, que deverá estar entre 25 mil e 30 mil. O PGH confirmaria a existência de 19.599 genes no genoma humano, e, ainda, identificou adicionais possíveis 2.188 genes. No ano de 2005, seriam completados os sequenciamentos com a análise de mais três cromossomos humanos: em março o X, com 164 milhões de pares; em abril o 2, com 255 milhões e o 4, com 186 milhões de pares de bases. Em 2006, seria finalizado o sequenciamento dos últimos sete cromossomos; em março, foram anunciados o sequenciamento com análise dos cromossomos 8, com 155 milhões de pares; do 15, com 106 milhões; do 12, com 143 milhões; e do 11, com 155 milhões de pares de bases; em abril, seriam conhecidos os sequenciamentos dos cromossomos 17, com 92 milhões de pares e do 3, com 214 milhões; e em maio, o cromossomo 1, com 263 milhões de pares de bases. Ao término do mapeamento e da análise do genoma humano, a estimativa atual nos 22 pares de cromossomos autossomais e mais dois sexuais (X e Y), é de aproximadamente 3164,7 milhões de pares de bases (A, C, G,T), contendo um novo estimado de 20 mil a 25 mil genes, número bastante inferior ao inicialmente previsto, de 100 mil, depois revisto para 60 mil, e, ainda, depois, para cerca de 30 mil. A média dos genes consiste de 3 mil pares de bases, e são de tamanho muito variáveis, cerca de 99,9% das bases são exatamente iguais para a espécie humana. Em 2005, foi concluído o sequenciamento do genoma do chimpanzé, que mostraria coincidir 99% com o humano. 7.6.4.5.2 Clonagem A palavra clone (do grego klon para broto vegetal), cunhada pelo biólogo inglês John Haldane em 1963, foi erroneamente usada para designar as experiências de transplante de embrião por diversos pesquisadores, 348 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO como Thomas King e Robert King, John Gurdon, Karl Illmansee, Neal First e outros. A primeira verdadeira clonagem foi realizada em 1996, pelo inglês Ian Wilmut (1944), formado em Engenharia genética animal pelo Darwin College, da Universidade de Cambridge, com a colaboração do biólogo inglês Keith Campbell, especialista nos ciclos das células. Pouco antes, haviam clonado duas ovelhas (Megan e Morag) de células diferenciadas de nove dias pela sincronização das células de embrião com o óvulo. A imensa repercussão mundial do anúncio de Wilmut, em fevereiro de 1997, da clonagem da ovelha Dolly, no Roslin Institute, perto de Edimburgo, se deveu ao importante e revolucionário significado da inovação, pois não se tratava de reprodução sexuada, que só ocorre pelas células sexuais, de cópia a partir de células de embriões, gerada pela união do espermatozoide e óvulo. Os seres vivos, com exceção das bactérias, vírus e alguns seres unicelulares, se reproduzem por meio das células sexuais e não das somáticas. A técnica da clonagem, com a utilização de células somáticas (as que formam órgãos, tecidos, ossos, peles), é, basicamente, uma forma de reprodução assexuada artificial, que origina indivíduos com genoma idêntico ao do provedor do DNA. Dolly não fora gerada de célula embrionária (como nos casos dos transplantes citados), mas de uma célula somática mamária, daí o enorme impacto da notícia. Como explica, em seu artigo, a geneticista Mayana Zatz, “a grande revolução de Dolly, que abriu caminho para a possibilidade da clonagem humana, foi a demonstração, pela primeira vez, de que era possível clonar um mamífero, isto é, produzir uma cópia geneticamente idêntica, a partir de uma célula somática diferenciada”. E explica: a grande novidade de Dolly foi a descoberta de que uma célula diferenciada (mamária) poderia ser reprogramada ao estágio inicial e voltar a ser totipotente, ou seja, ao estágio em que pode originar um ser completo. Isto foi obtido pela transferência do núcleo de uma célula somática da glândula mamária de uma ovelha, o qual passou a se comportar como um óvulo recém-fecundado por um espermatozoide. O óvulo assim fecundado desenvolveria um ser com as mesmas características físicas do adulto, de quem foi retirada a célula somática: um gêmeo idêntico à mãe. Das experiências com outras 277 ovelhas, só deu certo a que originou Dolly, o que mostra ser uma técnica ainda não totalmente dominada. Das 277 tentativas, 90% dos embriões nem chegaram a se desenvolver. Nascida em 1996, Dolly morreria em 2003 de envelhecimento precoce. Diante da reação mundial à clonagem, o Presidente Clinton proporia, em março de 1997, uma moratória de cinco anos em pesquisas 349 CARLOS AUGUSTO DE PROENÇA ROSA de clonagem humana, nos EUA, financiada com fundos federais e privados, aprovando, inclusive, o Cloning Prohibition Act. Em seguida a clonagem humana seria considerada como um atentado à ética pelo Instituto Nacional de Saúde. Em julho de 1997, Ian Wilmut e Keith Campbell criariam a ovelha Polly, clonada de células de pele desenvolvidas em laboratório e geneticamente alteradas para conter gene humano. Em julho de 1998, Teruhiko Wakayama, Ryuzo Yanagimachi e Toni Perry, da Universidade do Havaí, anunciariam a clonagem de três gerações, de células adultas, num total de 50 camundongos, em outubro de 1997. Desde então, vários outros animais (cachorro, gato, cavalo, rato, coelho, veado, mula, vaca, porco, macaco Rhesus e bode) já foram clonados. Espécies em extinção têm sido objeto, também, de pesquisas, com o intuito de sua preservação por meio da técnica da clonagem, mas o processo se encontra ainda num estágio inicial. As pesquisas nas áreas das células-tronco embrionárias e da recombinação do DNA em mamíferos progrediriam bastante, desde o final dos anos 90, sendo exitosas com os resultados obtidos pelos geneticistas Mario R. Capecchi (1937), ítalo-americano, Oliver Smithies (1925), anglo-americano, e Martin J. Evans (1941), britânico. Os três cientistas receberiam o Prêmio Nobel de Fisiologia ou Medicina, de 2007, por suas descobertas, que possibilitam, a partir de células-tronco embrionárias, a criação de animais com modificações em genes específicos. Smithies e Capecchi foram agraciados “pela visão que a recombinação homóloga poderia ser usada especificamente para modificar genes em células de mamíferos”. A pesquisa de Evans, da Universidade de Cardiff, se concentrou no uso de células-tronco embrionárias de camundongos, padronizando metodologias para seu isolamento e manutenção em cultura, o que possibilita a criação de animais formados por conjuntos distintos de células (quimeras) a partir da inserção das células-tronco em blastocistos, os quais eram introduzidos em camundongos fêmeas para desenvolvimento. Dessa forma, o conjunto dessas investigações demonstraria ser possível modificar um ou mais genes específicos numa célula, desenvolvendo metodologia para a seleção específica das células com as modificações desejadas188. A premiação de pesquisa criadora de ratos transgênicos mereceria críticas de certos setores da sociedade, contrários, por motivos éticos, a esse tipo de pesquisa, ainda que muito útil para encontrar tratamento para doenças degenerativas (Alzheimer) e cardiovasculares e outras, como câncer e diabetes. 188 Comunicado de Imprensa – PNFM de 2007. 350 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.6.5 Evolução A Teoria da Evolução por meio da seleção natural, principalmente a partir dos trabalhos de August Weissmann, de refutação da teoria da herança de características adquiridas, viria a ser aceita pela maioria da comunidade científica, tornando-se conhecida como “neodarwinismo”, apesar de notórias resistências, como na França, cujo círculo científico continuava apegado à tradição lamarckista. A redescoberta da obra de Mendel, com suas leis da hereditariedade, que poderia ter contribuído para esclarecer alguns pontos da controvérsia sobre a evolução das espécies, seria interpretada, por alguns geneticistas, como Hugo De Vries, William Bateson e Wilhelm Johannsen, de forma a refutar a seleção natural, pedra de toque da Teoria da Evolução. A Teoria do mutacionismo, que explicaria o surgimento de uma nova espécie por uma grande mutação genética, a qual, num único salto, daria origem a um novo táxon, como proposto por De Vries, poria, aparentemente, em xeque, as ideias da lenta e gradual evolução da espécie, de Darwin, cuja fundamentação paleontológica se baseava em insuficiente comprovação fóssil, enquanto a Geologia ainda não esclarecera a questão da idade da Terra. Assim, nos primeiros anos do século XX, se a ideia evolucionista era compartilhada pela comunidade científica, a Teoria da seleção natural era o divisor que separava os chamados “mendelianos”, como os mencionados Bateson, Johannsen e De Vries, dos “naturalistas”, como Weissmann e Wallace, que eram apoiados pelos “biométricos” Karl Pearson (18571936) e Walter Weldon, que sustentavam serem hereditariedade, seleção e variação assuntos passíveis de estudo estatístico e de haver suficiente prova da evolução lenta e gradual dos organismos. A publicação, em 1915, do The Mechanism of Mendelian Heredity, de Thomas Hunt Morgan (1866-1943), baseada em experimentos com moscasdo-vinagre, ao comprovarem que a maioria das mutações era suficientemente pequena para permitir uma mudança gradual das populações, sem necessidade de saltos, tornaria obsoletas as teses de De Vries, as quais deixariam de receber apoio dos biólogos. A Genética, que, interpretada e utilizada erroneamente, servira de sustentação para teses equivocadas cientificamente, passaria, com a comprovação laboratorial, a ser o principal apoio à seleção natural, a qual, a partir dessa época, se firmaria como o processo válido da Evolução biológica. Ainda nesse ano de 1915, o geneticista inglês, Reginald C. Punnett (1875-1967), que estudava o poliformismo mimético das mariposas, publicou Mimicry in Butterflies, no qual expôs que a herança das borboletas se baseava nas leis de Mendel. Punnett é autor, igualmente, de Mendelism (1905) e Heredity in Poultry, tendo recebido a Medalha Darwin em 1922. 351 CARLOS AUGUSTO DE PROENÇA ROSA No início do século XX, com a descoberta das leis de Mendel, surgiria controvérsia sobre como elas poderiam assegurar a continuidade dos caracteres nas futuras gerações, já que a concepção da herança adquirida fora totalmente abandonada, após os trabalhos de Weissmann. Na mesma época em que se desenvolvia o debate entre o gradualismo darwinista e o saltacionismo de De Vries, estudos estatísticos mostrariam o papel central das leis da hereditariedade, de Mendel, no processo evolutivo. O sangue deixaria de ser o referencial hereditário em favor do gene. Nesse sentido, seria da maior importância a formulação da base da Genética populacional, que é o “princípio do equilíbrio” da chamada Lei de Hardy-Weinberg, de 1908, demonstrada, independentemente, pelo matemático inglês Godfrey Harold Hardy e pelo alemão Wilhelm Weinberg. O enunciado do teorema é o seguinte: “numa população infinitamente grande, em que os cruzamentos ocorrem ao acaso e sobre o qual não há atuação de fatores evolutivos, as frequências gênicas e genotípicas permanecem constantes ao longo das gerações”. Assim, de acordo com esse princípio, numa população mendeliana, dentro de determinadas condições, as frequências alélicas permanecerão constantes ao longo das gerações, isto é, independentemente de um gene ser raro ou frequente, sua frequência permanecerá a mesma, em relação aos outros, desde que as mesmas condições sejam mantidas. Apesar de não existir uma população sujeita a essas condições, a importância do princípio do equilíbrio está no estabelecimento de um modelo para o comportamento dos genes. Hardy e Weinberg demonstraram, matematicamente, esse princípio do equilíbrio, que serviria de fundamento para a formulação da Genética populacional, uma das bases da moderna Teoria da Evolução. Os historiadores da Biologia creditam a três biólogos, dois ingleses e um americano, a fundação da Genética populacional, por suas contribuições decisivas, nos anos 20 e 30, ao demonstrarem a compatibilidade e a complementaridade de Evolução e Genética, e ao estabelecerem novos conceitos, como o de população. Como escreveu Mayr, os biólogos Fisher, Haldane e Wright mostraram que genes com somente pequenas vantagens seletivas podiam ser incorporados, no tempo devido, ao genótipo de populações. A Evolução filética podia agora ser explicada em termos da nova Genética. Desta forma, a Evolução foi definida como mudança nas frequências gênicas em populações, ocasionadas pela seleção natural gradual de pequenas mutações aleatórias189. A grave questão da “adaptação” da Biologia evolucionista estava, assim, solucionada. Pela relevância de seus trabalhos, uma pequena informação sobre 189 MAYR, Ernst. Biologia, Ciência Única. 352 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Fisher, Haldane e Wright se segue. Ronald Aylmer Fisher (1890-1962), biólogo, geneticista e estatístico, formado em 1913, pela Universidade de Cambridge, onde exerceu o cargo de professor de Genética (1943-59), detentor da medalha Darwin (1948), aplicou seus conhecimentos de estatística a suas pesquisas no campo da Genética. Escreveria vários artigos, inclusive o The Correlation between relatives on the supposition of Mendelian Inheritance, publicado em 1918, no qual sustentou que a estatística seria útil para entender o comportamento dos genes e demonstrou que a herança de variações contínuas, que era apresentada como um prova contra a teoria de Mendel, era dirigida por muitos genes adicionais, cada um de pequeno efeito e cada um herdado de acordo com as leis mendelianas. A partir de 1919, Fisher trabalharia na Estação Experimental de Rothamsted, onde desenvolveria intensas pesquisas sobre variabilidade, utilizando-se da estatística para seus estudos. Em 1925, publicaria Statistical Methods for Research Workers, seguido, em 1935, do The Design of Experiments. Suas principais pesquisas constam do The Genetic Theory of Natural Selection (1930), no qual sustenta, ao contrário de muitos da época, não haver contradição entre Darwinismo e Mendelismo, sendo, na realidade, a Genética mendeliana, o elo perdido na Teoria da Evolução por seleção natural. John Burdon Sanderson Haldane (1892-1964) estudou em Eton e no New College (Oxford). Cursou, de 1922 a 1932, a Universidade de Cambridge, e depois, o University College, em Londres, onde exerceria a cátedra de Genética. Recebeu a Medalha Darwin (1953) e emigrou, no final dos anos 50, para a Índia, em protesto pela invasão anglo-francesa do Canal de Suez, e adquiriu, em 1961, a nacionalidade indiana. Comunista na juventude, desligou-se do Partido em 1950, pelo apoio da URSS a Trofim Lysenko, ministro da Agricultura, que se declarou antimendeliano. Sua mais importante contribuição para a Genética populacional foi uma série de artigos sobre a teoria matemática da seleção natural, sob o título A Mathematical Theory of Natural and Artificial Selection, em que mostrou o sentido e a taxa de mudanças das frequências dos genes. Investigou a interação entre a seleção natural e a mutação, e entre aquela e a migração (fluxo gênico). Em 1932, escreveu The Causes of Evolution, no qual reafirmaria a seleção natural como o principal mecanismo da evolução, com apoio na Matemática e na Genética mendeliana, reduzindo a importância da mutação nesse processo. Haldane escreveu, ainda, entre vários importantes livros, A Bioquímica da Genética (1954). O estadunidense Sewall Green Wright (1889-1988), formado em Biologia, no ano de 1912, pela Universidade de Illinois, e doutorado, em 353 CARLOS AUGUSTO DE PROENÇA ROSA 1915, pela Universidade de Harvard, professor da Universidade de Chicago (1925-55), recebeu, em 1980, a Medalha Darwin por suas contribuições ao estudo da Evolução. Pesquisou a genética dos mamíferos para o Departamento de Agricultura, particularmente a Genética populacional das cobaias, e, em 1921, publicou seu trabalho matemático sobre seleção e reprodução, intitulado System of Mating. Wright desenvolveria a teoria matemática de que a variabilidade genética seria devida a pequenas variações genéticas em pequenos grupos populacionais, ao demonstrar, com apoio estatístico, que, em pequenas populações isoladas, certas formas de genes se perdem aleatoriamente, o que poderia levar à formação de novas espécies, sem necessidade do processo de seleção natural. Posteriormente, sua teoria viria a ser conhecida como “deriva genética”. Em meados dos anos 1930, graças, principalmente, às contribuições, entre outros, de Morgan, Fisher, Wright e Haldane, a Genética mendeliana e o novo ramo chamado de Genética populacional reforçaram, pela demonstração e abundância de evidências, as premissas e principais conclusões da Teoria da Evolução biológica pela seleção natural. Certas precisões, algum refinamento e diversos acertos eram, contudo, necessários, na Teoria original de Darwin, de modo a adequá-la ao novo conhecimento, adquirido a partir da Genética, a qual apresentava crescentes e substanciais provas científicas de sua correção. O aparente conflito entre Genética mendeliana e seleção natural estava resolvido. Paralelamente aos avanços nas pesquisas da Genética em apoio à Evolução, investigações nas áreas da Paleontologia e da Filogenia acumulavam evidências que corroboravam e comprovavam a evolução das espécies: I) Evidências da Paleontologia – apesar do registro fóssil continuar muito incompleto, uma grande quantidade de fósseis foi descoberta ao longo do século XX, tornando a contribuição da Paleontologia um testemunho vital para a compreensão e a comprovação da teoria científica da Evolução biológica das espécies. Por meio dos fósseis, é possível constatar mudanças anatômicas progressivas e graduais entre as formas primitivas e as atuais, principalmente nos níveis mais altos da taxonomia. Hoje, está assentado, por exemplo, terem as aves evoluído dos répteis. Assim, o organismo do Archaeopteryx lithographica possuía características dos répteis (dentes nos maxilares, cauda comprida, três dedos livres com unhas curvadas nas extremidades dianteiras) e a plumagem das aves (plumagem); 354 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO II) Evidências da Anatomia, Fisiologia e Embriologia comparadas – o exame comparativo de organismos vivos tem acumulado evidências em favor da evolução das espécies. O estudo dos ancestrais das espécies é a Filogenia, que tem mostrado órgãos com estruturas homólogas (membros dos vertebrados) e análogas. Assim, exemplos de órgãos homólogos com funções diferentes (braço do homem, pata de cavalo, nadadeira da baleia e asa de morcego) e de órgãos análogos (semelhança morfológica entre estruturas com a mesma função), como asas de inseto e asas de aves evidenciam o evolucionismo biológico. Ainda, como indício de ancestralidade comum, biólogos têm mostrado que fendas branquiais ocorrem em diferentes estágios embrionários nos anfíbios, répteis, aves e mamíferos. 7.6.5.1 Síntese Evolutiva A complexa questão da evolução da espécie não estava, no entanto, completamente esclarecida, pois o importante problema da multiplicação da espécie, ou da origem da biodiversidade, não fora resolvido pela Genética populacional, isto é, não fora capaz de resolver a divergência entre Genética matemática e Biodiversidade. Faltava, ainda, desvendar o mistério do mecanismo, ou mecanismos, da Evolução. Como esclareceu Mayr, o grande feito da Síntese Evolutiva, iniciada em 1937, por Dobzhansky, foi o de fornecer uma explicação de como a vida prolifera em tantas formas diversas, a cada momento dado, e como é fundamental o papel desempenhado pela localização geográfica de populações, e por seu isolamento190. Em outras palavras, o problema confrontado pelos cientistas não era a Evolução, aceita como um fato, mas esclarecer os mecanismos que atuam no processo evolutivo, e sobre os quais havia diversas teorias, como a da seleção natural. Douglas Futuyma, em Evolutionary Biology (1986), escreveria que nenhum biólogo, hoje em dia, pensaria em submeter um artigo intitulado “novas evidências para a Evolução”, pois o assunto deixou de ser controvertido há um século. Helena Curtiss e Sue Barnes, em Biology (1989), além de declararem não ser mais a Evolução um problema para a grande maioria dos biólogos modernos, esclareceram que, hoje, as questões centrais e mais fascinantes para os biólogos se referem aos mecanismos pelos quais a Evolução ocorre. Nesse mesmo sentido, se declararam inúmeros importantes cientistas, como Stephen J. Gould, Neil 190 MAYR, Ernst. Biologia, Ciência Única. 355 CARLOS AUGUSTO DE PROENÇA ROSA Campbell e Richard C. Lewontin. Sobre o particular, vale reproduzir a incisiva declaração de Dobzhansky, em seu famoso artigo (1973): ...evolution as a process that has always gone on in the history of the earth can be doubted only by those who are ignorant of the evidence or are resistant to evidence, owing to emotional blocks or to plain bigotry. By contrast, the mechanisms that bring evolution about certainly need study and clarification. There are no alternatives to evolution as history that can withstand critical examination. Yet we are constantly learning new and important facts about evolutionary mechanisms… Há consenso, entre os especialistas na história da Biologia, que, no período 1937-50, foi formulada a Síntese Evolutiva, adotada pela comunidade científica, por expressar, de forma demonstrável, com apoio, principalmente, na Paleontologia e na Genética, a Teoria da Evolução pela seleção natural. Ao integrar a Genética à Evolução e ao incorporar à Biologia uma série de novos conceitos e mecanismos, como os de população, de espécie, de especiação, de variabilidade gênica, de deriva genética e de fluxo gênico (migração), a Síntese Evolutiva representa a formulação mais adequada e mais moderna da Teoria da Evolução. Seus principais autores foram, além de Dobzhansky, o alemão Ernst Mayr (Systematics and the origin of species, de 1942), o inglês Julian Huxley (Evolution, the modern synthesis, 1942), o americano George Simpson (Tempo and mode in evolution, 1944), o alemão Bernhard Rensch (Evolução acima do nível de espécies, 1947) e o americano George Stebbins (Variation and evolution in plants, 1950). A seguir, algumas breves informações biobibliográficas desses acima mencionados cientistas. Theodosius Dobzhansky (1900-1975) formou-se e trabalhou na Universidade de Kiev, de 1917 a 1924, quando se transferiu para Leningrado, onde estudaria e trabalharia com Yuri Filipchenko, que formulara a diferença entre microevolução (nível do indivíduo) e macroevolução (nível das populações). Pesquisaria a drosofila melanogaster, demonstrando que sua variabilidade genética era bem maior que a suposta até então. Em 1927, recebeu bolsa da Universidade de Colúmbia, onde trabalharia com Thomas Hunt Morgan em experimentos genéticos, transferindo-se, com Morgan, em 1930, para o Instituto de Tecnologia da Califórnia, onde permaneceria até 1940. Já nessa época, sustentava que as espécies desenvolvem mecanismos de isolamento de forma a preservar sua integridade. Nesse período, iniciaria (1936) uma série de artigos – A Genética das Populações Naturais – que continuaria pelos próximos 40 anos e publicaria uma das obras consideradas como marco da Genética evolutiva e trabalho pioneiro da Síntese Evolutiva moderna, intitulada Genética e a Origem das Espécies (1937), na qual definiu evolução 356 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO como “uma mudança na frequência de alelos dentro de um pool gênico”. As mudanças cromossômicas e as mutações seriam “o primeiro estágio do processo evolucionário, governado pelas leis da fisiologia dos indivíduos”. Num segundo estágio, a influência da “seleção, migração e do isolamento geográfico moldaria a estrutura genética da população com novas formas, em conformidade com o ambiente secular, a ecologia e, especialmente, com os hábitos reprodutivos da espécie”. E, finalmente, num terceiro estágio, quando se desenvolveriam os mecanismos de preservação das espécies, distintas umas das outras, seja por isolamento geográfico, isolamento sexual ou esterilidade híbrida. Nesse mesmo ano de 1937, naturalizou-se cidadão americano. Nos anos 40, participou de expedições científicas na América do Sul, pesquisando o vale amazônico (Brasil, Peru e Colômbia). De 1949 a 1962, trabalhou na Universidade de Chicago, transferindo-se para a Universidade Rockefeller, onde permaneceria até 1971. Além de seu livro de 1937, outras obras importantes podem ser citadas: Evolução, Genética e Homem (1955), Mankind Evolving (1962) e Genética do Processo Evolutivo (1970). Em 1973, publicaria Dobzhansky seu famoso artigo anticriacionista intitulado Nada em Biologia faz sentido exceto à luz da Evolução. Outro biólogo considerado cofundador da Síntese Evolutiva moderna é o zoólogo alemão, naturalizado americano, Ernst Mayr (1904-2005), que se especializou em Ornitologia, evolução, genética das populações e taxonomia. Formado pela Universidade de Berlim, com doutorado em 1926, participou, nos anos 30, de expedições científicas à Nova Guiné e às Ilhas Salomão, onde estudou a fauna local, em especial os pássaros, publicando, em 1941, Aves da Nova Guiné. Nos EUA desde 1932, trabalharia no Museu de História Natural de Nova York, mudando-se, em 1953, para Harvard, como professor de Zoologia e diretor do Museu da Zoologia Comparada, onde permaneceria até sua aposentadoria, em 1975. Em 1940, propôs uma nova definição, hoje adotada, para espécie (grupo de populações naturais que, real ou potencialmente, se entrecruzam, e que são isoladas de outros grupos do ponto de vista da reprodução). Desenvolveu Mayr, também, o conceito de especiação ou formação de novas espécies, que ocorre quando uma subpopulação, por alguma razão, se isola fisicamente da população paterna. Com o passar do tempo, os genes dessa subpopulação adquirem hábitos e estruturas características, do que resulta uma nova espécie. Além da obra de 1942, escreveu, ainda, Métodos e Princípios da Sistemática em Zoologia (1953), Espécies Animais e Evolução (1963), O Crescimento do Pensamento Biológico (1982), Para uma nova Filosofia da Biologia (1988), Biologia, Ciência Única (2004). Mayr recebeu, em 1984, a Medalha Darwin, da Sociedade Real de Londres. 357 CARLOS AUGUSTO DE PROENÇA ROSA Outro cofundador da Síntese Evolutiva moderna é o paleontólogo americano George Gaylord Simpson (1902-1984), bacharel em 1923 e doutorado em 1926, por Yale, que introduziria métodos quantitativos e base genética para avaliar os restos fósseis e quantificar a hipótese evolucionária. Em 1944, no livro Ritmo e Modo em Evolução (Tempo and Mode in Evolution), Simpson dividiria a mudança evolutiva em tempo (ritmo de mudança) e mode (modo ou maneira de mudança), sendo o ritmo um fator básico do modo, e desenvolveria uma teoria com três tipos de evolução: a especiação é a diferenciação das novas espécies, pela reorganização de um grupo proveniente de uma população maior; a evolução linear ou mudança gradual de uma espécie inteira ou de uma população; e a evolução quântica, relativamente súbita. De 1927 a 1959, trabalhou no Museu de História Natural de Nova York, transferindo-se para o Museu de Zoologia Comparada, exercendo a cátedra de Paleontologia de Harvard. Além de Tempo and Mode in Evolution, escreveu Princípios de Classificação de Mamíferos (1945), O Significado da Evolução (1949), As Maiores Características da Evolução (1954) e Os Princípios da Taxonomia Animal (1961). Com sua esposa, Anne Roe, escreveu, em 1939, o livro Zoologia Quantitativa. Recebeu, em 1962, a Medalha Darwin191. O zoólogo alemão Bernhard Rensch (1900-1990), com doutorado pela Universidade de Halle, pesquisador do Departamento de Zoologia da Universidade de Berlim (1925/37), diretor do Instituto Zoológico da Universidade de Munster (1947/68), ornitólogo, interessou-se pela Biologia evolutiva, concentrando seus estudos nas características zoogeográficas da especiação e na influência de fatores ambientais na Evolução. O resultado de suas pesquisas seria publicado, em 1947, no livro Evolução acima do nível de espécies. O biólogo e humanista inglês Julian Sorell Huxley (1887-1975), primeiro Diretor-Geral da UNESCO (1946-48), formou-se por Oxford, e foi professor no Rice Institute, em Houston, Texas (1912-16), em Oxford (1919-1925), e no King’s College, em Londres (1925-1935). Secretário da Sociedade Zoológica de Londres, Huxley demonstrou interesse especial por Ornitologia, e pesquisou em diversas áreas como Embriologia, Genética, Biologia molecular e Antropologia. Recebeu, em 1956, a Medalha Darwin. Em 1940, escreveu The New Systematics, e, em 1942, Evolution: the modern synthesis, no qual apresenta sumário de pesquisas em todos os tópicos relevantes para a Evolução biológica, e adotou a Genética mendeliana, a Genética populacional e a Paleontologia como elementos essenciais da moderna Síntese Evolutiva. Dentre suas inúmeras obras sobre o tema, 191 SIMMONS, John. Os Cem Maiores Cientistas da História. 358 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO podem ser citadas a Evolution in Action (1953) e The Wonderful World of Evolution (1969). Outra contribuição considerada importante no período da formulação da Síntese Evolutiva se deve ao botânico americano George Ledyard Stebbins (1906-2000), com doutorado, em 1931, por Harvard, professor no Departamento de Genética de Berkeley. Na Universidade da Califórnia (Berkeley), trabalharia com o geneticista Ernest B. Babcock (1877-1954) e um grupo de geneticistas evolucionistas, conhecido como Bay Area Biosystematists, o que o levaria a incorporar a Genética em suas pesquisas sobre a evolução das plantas. O gênero crepis, por suas características especiais (poliploidia – mais de dois conjuntos de cromossomos, e apomixia – produção de semente sem fertilização), seria o escolhido para as investigações. Stebbins e Babcock publicariam duas monografias, uma, em 1937, sobre o crepis asiático, e outra, em 1938, sobre a espécie americana. Em 1940, escreveria artigo sobre O significado da poliploidia na evolução das plantas, e, em 1947, outro intitulado Tipos de poliploides: sua classificação e significado. Sua mais importante obra seria publicada, em 1950, sob o título Variação e Evolução nas Plantas, seguida por Processos de Evolução Orgânica (1966), As Bases da evolução progressiva (1969), Evolução cromossômica em plantas (1971) e Flowering Plants: Evolution above the Species Level (1974); com Dobzhansky e outros, escreveu, em 1977, o livro Evolução. A Síntese Evolutiva se baseia em três conceitos que devem ser definidos de imediato: o de população, que tem sua origem na Genética das populações; o de espécie, cujo texto, hoje em dia aceito, é de autoria de Ernst Mayr; e o de especiação, origem de duas ou mais espécies a partir de um ancestral comum. População é entendida como um grupamento de indivíduos de uma mesma espécie que ocorre numa mesma área geográfica num mesmo intervalo de tempo. O conceito biológico de espécie, para os organismos de reprodução sexuada (Mayr – a reproductive community of populations (reproductively isolated from others) that occupies a specific niche in nature), é o grupamento de populações naturais que, real ou potencialmente, se entrecruzam e que são reprodutivamente isoladas de outros grupos de organismos. Para os organismos de reprodução assexuada, as características morfológicas definem os grupamentos em espécies. A especiação é o processo pelo qual uma espécie se transforma em outra (anagênese) ou se divide, dando origem a outras duas (cladogênese). A especiação ocorre, ou novas espécies surgem, por isolamento geográfico (separação de subpopulações por barreiras físicas), diversificação gênica (progressiva diferenciação do conjunto gênico de 359 CARLOS AUGUSTO DE PROENÇA ROSA subpopulações isoladas – por mutação e por seleção natural), e isolamento reprodutivo (incapacidade reprodutiva de descendência fértil por parte de membros de duas subpopulações). A subpopulação sofre mutações cumulativas, com o passar do tempo, que alteram seu genótipo (conjunto de genes de um indivíduo), e, consequentemente, sua expressão fenotípica (características físicas). Para a Síntese, a unidade evolutiva é a população. A grande diversidade de fenótipos numa população é uma clara indicação de sua variabilidade genética. As variabilidades genéticas e fenotípicas explicam a evolução ao longo do tempo, devida, assim, a alterações na frequência dos genes de uma população, que são determinadas por fatores evolutivos. Cada população apresenta um conjunto gênico que pode ser alterado por fatores evolutivos. Quanto maior a população, maior o conjunto gênico, e, assim, maior a variabilidade genética A variabilidade genética da população, sobre a qual atuam a seleção natural, a migração ou fluxo gênico, e a deriva genética, pode aumentar aleatoriamente por mutação gênica e mutação cromossômica (ambas, mudanças no material genético) e por recombinação genética (intercâmbio de genes entre os cromossomos das células sexuais). A mutação só é passada para os descendentes quando ocorre em células germinativas. A Síntese Evolutiva moderna se baseia, portanto, em duas conclusões fundamentais: a de que a evolução gradual se explica por pequenas mutações aleatórias (mudança no material gênico) e recombinação genética (intercâmbio de genes entre os cromossomos na formação das células sexuais), as quais estão sujeitas a posterior seleção natural, e a de que todos os fenômenos evolutivos podem ser explicados por mecanismos genéticos. Nos anos de 1970, surgiu uma alternativa quanto à variação morfológica, conhecida como “equilíbrio pontuado”, de autoria dos paleontólogos americanos Stephen Jay Gould (1941-2002) e Niles Eldredge (1943). A teoria sustenta não ter sido gradual o ritmo da evolução da espécie, que, após breves acelerações de mudanças morfológicas, teriam ocorrido poucas mudanças durante longos períodos de tempo, conforme atestaria o registro fóssil, que não é incompleto. 7.6.5.2 Criação X Evolução A Evolução se constituiria num dos temas mais polêmicos e controversos da Ciência, na atualidade, por sua direta confrontação 360 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO com tradicionais ensinamentos dogmáticos baseados em preconceitos enraizados na cultura das sucessivas gerações, desde o início do período histórico. A Origem das Espécies (1859) e a Descendência do Homem (1871) seriam os dois livros principais de Charles Darwin que introduziriam um tratamento científico para um assunto considerado da alçada exclusiva dos textos religiosos e da doutrina teológica. A obra de Darwin significava a rejeição da criação divina do Homem e do consequente fixismo das espécies. A Biologia, que se estruturara como ramo científico, na segunda metade do século XIX, seria, assim, o primeiro campo do conhecimento humano a entrar em choque conceitual com dogmas religiosos firmemente estabelecidos. Sua fundamentação na seleção natural, com o abandono de explicações e argumentação de ordem sobrenatural, para a evolução dos seres vivos, representa um marco decisivo na história da Ciência, mas ao mesmo tempo um ponto crucial e fundamental de discórdia com todos os ensinamentos e crenças até então dominantes, e irrefutáveis, no imaginário humano. A intervenção sobrenatural, a única justificativa conhecida e permitida para a presença das espécies animais e vegetais na Terra, seria substituída por um mecanismo que dispensava qualquer ação milagrosa e divina como explicação para existência dos seres vivos. O pressuposto teleológico da causa final, que conduziria o processo natural a um fim previamente definido e que justificaria a origem, o desenvolvimento e o funcionamento dos seres vivos, era, assim, rejeitado, pela primeira vez, por uma teoria científica, no caso, pela Biologia. Tratava-se, portanto, de duro golpe na tradição cultural ocidental judaico-cristã, cujo ensinamento era o do criacionismo e do fixismo. Darwin, o grande responsável por essa revolucionária mudança na explicação da origem das espécies, seria por essa razão, objeto de violenta campanha difamatória, com o intuito de desmoralizá-lo, por meio de artigos e caricaturas, advindos de prestigiosos setores e personalidades, interessados em manter o conhecimento atrelado a mitos e preconceitos. Apesar da aceitação quase unânime, pela comunidade científica, da Teoria da Evolução pela seleção natural, principalmente, a partir da década de 1940, com a elaboração da chamada Síntese Evolutiva moderna, o tema continuaria a suscitar debates e controvérsias no mundo ocidental, em vista da resistência de setores conservadores ligados às Igrejas cristãs. A questão da imutabilidade das espécies, ou fixismo, perderia muito de sua conotação emocional, diante das numerosas evidências surgidas pelas experiências e pesquisas, permanecendo, contudo, como crucial, a questão da origem ou da criação da espécie. Como o dogma da criação 361 CARLOS AUGUSTO DE PROENÇA ROSA impossibilita aos crentes religiosos a aceitação de qualquer teoria científica sobre o processo da origem ou formação da Vida, a teoria de Darwin foi e tem sido rejeitada por esse segmento da sociedade de grande influência no processo decisório político de muitos países. Dada a importância de seus signatários, parece relevante apresentar os principais pontos da recente decisão do Interacademy Panel (IAP), rede internacional de Academias de Ciências, sobre a ingerência religiosa no ensino científico, em particular sobre a Evolução biológica. A entidade julgou conveniente, inclusive, reafirmar, de forma incisiva, o entendimento do círculo científico mundial sobre o método científico e as evidências acerca da formação e evolução da Terra e da Vida. Em 26 de junho de 2006, a IAP aprovaria, com o apoio de 67 Academias de Ciências (como as do Brasil, Argentina, México, China, Polônia, EUA, Marrocos, Chile, Cuba, Áustria, Austrália, França, Alemanha, Dinamarca, Grécia, Índia, Irlanda, Itália, Japão, Suécia, Irã, Egito), mais a Junta Executiva do Conselho Internacional de Ciência (ICSU), uma Declaração sobre a sonegação, negação e confusão de evidências, informações e teorias científicas sobre a origem e a evolução da Vida na Terra com teorias não testáveis pela Ciência, que estaria ocorrendo em vários países nos cursos de Ciência em sistemas públicos de ensino. A Declaração exorta autoridades, educadores e pais a educarem as crianças segundo os métodos e descobertas científicas, e promover o conhecimento da Ciência da Natureza: “o conhecimento do mundo natural no qual eles vivem dá poder ao povo para enfrentar as necessidades humanas e proteger o planeta”. Em seguida, o documento relaciona quatro fatos baseados em evidências sobre a origem e evolução da Terra e da Vida no planeta, os quais foram estabelecidos por numerosas observações e confirmados por experimentações em diversas disciplinas científicas. Ainda que alguns pormenores possam ser postos em dúvida, as evidências científicas, de acordo com o documento, não contradisseram nunca: i) a atual configuração do Universo evoluiu num período entre 11 e 15 bilhões de anos, e a Terra foi formada há cerca de 4,5 bilhões de anos; ii) desde sua formação, a Terra, do ponto de vista geológico e de meio ambiente, tem mudado, e continua a mudar, sob efeito de numerosas forças físicas e químicas; iii) a Vida surgiu na Terra há, pelo menos, 2,5 bilhões de anos. A evolução dos organismos fotossintéticos, tão logo foi possível (2 bilhões de anos), permitiria a lenta transformação da atmosfera, que passaria a conter quantidade substancial de oxigênio; além da liberação do oxigênio que respiramos, o processo de fotossíntese é a fonte primordial de energia e alimento da qual depende a 362 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO sobrevivência da Vida no Planeta; e iv) desde seu primeiro aparecimento, a Vida adquiriu muitas formas, que continuam a evoluir, como a Paleontologia e as modernas Ciências biológicas e bioquímicas descrevem e confirmam com precisão crescente. O aspecto comum da estrutura do código genético de todos os organismos vivos, inclusive o humano, indica claramente sua origem comum primordial. A Declaração subscreve ainda a afirmativa sobre a natureza da Ciência quanto ao ensino da Evolução, pela qual o conhecimento científico deriva do método de conhecer a natureza do Universo por meio da observação do mundo natural e da formulação de hipóteses testáveis e refutáveis, das quais se inferem explicações sobre fenômenos observáveis. Quando as evidências são suficientemente fortes e determinantes, são formuladas teorias científicas para explicá-las. Finalmente, o documento reconhece limitações da Ciência, cuja agenda não está esgotada, e está sujeita a correções e expansões, no caso de novo conhecimento teórico e empírico emergir. Evidentemente que o antagonismo dos criacionistas a qualquer ensinamento contrário ao seu dogma prosseguirá pelas próximas décadas, ou séculos, uma vez que não é plausível supor que a Ciência venha a se impor, definitiva e completamente, em futuro próximo e previsível, sobre considerações teológicas, ensinamentos religiosos e tradições metafísicas. A posição firme e independente do meio científico sobre a questão assegura, contudo, seu continuado tratamento, segundo a metodologia própria da Ciência biológica, em especial da Biologia Evolutiva. 7.7 Sociologia A evolução da Sociologia na Época Contemporânea seria direta e grandemente influenciada pelos acontecimentos políticos, ideológicos e culturais que predominaram no período, em especial na Europa e nos EUA. Ciência de origem e influência francesa (Comte, Durkheim), a Sociologia continuaria a despertar interesse nos meios intelectuais europeus, em especial na Alemanha, com importantes pesquisas teóricas e de campo, objetivando entender e interpretar a realidade do momento histórico e social. Várias contribuições importantes marcariam a fase atual do desenvolvimento desta nova Ciência, como, entre outras, as de Max Weber, Ferdinand Tonnies, Georg Simmel, Robert Michels, Karl Mannheim e Norbert Elias, na Alemanha; de Vilfredo Pareto e Gaetano Mosca, na Itália; e de Celestin Bouglé, Maurice Halbwachs, René Worms, 363 CARLOS AUGUSTO DE PROENÇA ROSA Marcel Mauss, Raymond Aron, Pierre Bourdieu, Raymond Boudon e Alain Touraine, na França. Outros países, como a Grã-Bretanha e a Áustria, procurariam, igualmente, incentivar estudos e pesquisas sociológicas, mas teriam pouca influência no pensamento sociológico europeu. No entanto, devido à Primeira Guerra Mundial e aos problemas econômicos, sociais e políticos decorrentes do conflito armado; devido às confrontações ideológicas, que redundariam no surgimento de regimes fascista, nazista e comunista; devido à fuga de intelectuais e cientistas sociais, principalmente para os EUA; e devido à redefinição de prioridades de investigação científica, a Europa perderia sua posição tradicional de principal centro de estudos e formulação teórica no campo da Sociologia. O herdeiro seria os EUA, que assumiria, então, incontestável liderança mundial. A Segunda Guerra Mundial, com todas as suas graves consequências de toda ordem para os países europeus, agravaria, ainda mais, a precária situação da pesquisa sociológica na Europa, postergando sua recuperação até os anos 80. Nos EUA, o desenvolvimento da Sociologia se faria à luz da sua realidade social, política, cultural e econômica, com ênfase em pesquisa de campo e menos interesse no estudo teórico. A Escola de Chicago, a Escola de Colúmbia e a Escola de Harvard seriam os grandes centros de irradiação dos estudos sociológicos no país. Nesse sentido, dariam significativas contribuições, entre outros, Lester Ward, Albion Small, Franklin Giddings, Robert Park, Talcott Parsons, Pitirim Sorokin, William Ogburn, Thorstein Veblen, William Thomas, Robert K. Merton, Ernest Burgess, Florian Znaniecki, Robert Lynd, Edward Frazier, Paul Lazarsfeld, Anselm Strauss e Wright Mills. Em seu processo de desenvolvimento, a institucionalização da Sociologia seria uma das suas características principais, inicialmente nos EUA, e, pouco depois, na Europa e América Latina. O modelo americano de envolvimento dos grandes centros acadêmicos, com a ajuda e cooperação de grandes organizações e corporações industriais e financeiras, públicas e privadas, na pesquisa de campo, abrindo, assim, espaço para a atividade profissional dos sociólogos, seria, após a Segunda Guerra Mundial, copiado em outros países. Departamentos de Sociologia seriam criados nas universidades, publicações especializadas divulgariam estudos teóricos e pesquisas de campo, sociedades nacionais de Sociologia seriam fundadas, ao longo do período, nos diversos países. Acontecimentos que revelam o grande impulso ocorrido na afirmação da Sociologia como disciplina científica para o estudo da Sociedade humana. A institucionalização da Sociologia, que resultaria na profissionalização do sociólogo, e a crescente presença de entidades 364 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO financiadoras, interessadas em estudos sociológicos de apoio à ordem vigente, seriam, em boa medida, responsáveis por uma preferência a trabalhos de campo em detrimento de estudos teóricos. A universidade, até então desvinculada dos interesses estatais e das grandes empresas privadas, abandonaria tal postura para estabelecer vínculos com o centro do poder, cujo objetivo seria de legitimar os interesses dominantes e preservar a ordem existente. A orientação empirista da pesquisa de campo, amplamente adotada, importaria na marginalização da aplicação do método histórico na questão social em favor de uma técnica refinada de procedimentos quantitativos e estatísticos do trabalho de campo, o qual passaria a ser um fim em si mesmo. Ao tempo em que se deslocava o eixo das pesquisas sociológicas da Europa para os grandes centros acadêmicos americanos (Chicago, Harvard, Nova York), a nova Ciência adquiria dimensão mundial, com sua inclusão no currículo universitário da maioria dos países das Américas, Ásia e África, com o estabelecimento de institutos, sociedades e associações nacionais de divulgação, centros de investigação, e com a criação de revistas especializadas de difusão de estudos sociológicos. Passado histórico distinto do europeu e problemas sociais e econômicos bastante diferentes dos enfrentados pelos países industrializados, os estudos sociológicos nesses países em desenvolvimento seriam direcionados, principalmente, a partir da segunda metade do século XX, no sentido de entender e interpretar suas próprias dificuldades e problemas específicos, e propor soluções que melhor atendessem os anseios da população e as reivindicações nacionais. Ainda que conceitos e valores sociológicos (liberdade de expressão, democracia, representação política, opinião pública, cidadania, relação Estado/Religião) continuassem objetos de estudo, a linha da pesquisa empírica, quantitativa, nesses países, tenderia a se concentrar em suas particularidades. A problemática nacional (inserção das populações indígenas, imobilismo social, rápida urbanização, alta taxa de desemprego, ineficiente previdência social, deficiente instrução pública, independência econômica, representação política, conflitos sociais, problema fundiário, inadequada saúde pública) seria objeto de exame da parte dos sociólogos, vinculados, em sua maioria, a centros de pesquisas, fundações, universidades e entidades públicas e privadas. Essa situação ambígua dos sociólogos os tornaria, em muitos casos, comprometidos com os interesses dessas entidades a que serviam. Como nos demais ramos científicos, a Sociologia se beneficiaria, também, do processo de internacionalização que se intensificaria na segunda metade do século XX. Nesse sentido, devem ser mencionadas 365 CARLOS AUGUSTO DE PROENÇA ROSA a cooperação entre os institutos de pesquisa e centros acadêmicos dos diversos países, a frequente realização de congressos nacionais, regionais e internacionais com a participação de sociólogos de variadas origens, a crescente concessão de bolsas de estudos a estudantes estrangeiros, e convites a professores estrangeiros para participarem de cursos universitários. Um grande número de revistas especializadas nos diversos temas da Sociologia se encarregaria de divulgar amplamente os estudos e pesquisas realizadas, bem como de apresentar comentários críticos sobre livros recém-publicados. Segue, a título exemplificativo, uma pequena relação dessas publicações: American Journal of Sociology (bimestral, desde 1895), American Sociological Review (da Associação Sociológica Americana), Année Sociologique (fundada por Durkheim, em 1898), Contemporary Sociology (bimestral, da ASA), Sociological Methodology (revista anual da ASA) e Sociological Theory (trimestral, da ASA), Rural Sociology, (desde 1937, pela Rural Sociological Society), Qualitative Sociology (desde 1997, pela editora holandesa Springer), Mobilization (publicação acadêmica desde 1996, atualmente a cargo da Universidade de Notre Dame), Berliner Journal fur Soziologie, Qualitative 1991, (publicação trimestral do Instituto de Ciências Sociais da Universidade Humboldt de Berlim), Canadian Journal of Sociology (bimestral), Archives Européennes de Sociologie, Cahiers Internationaux de Sociologie (semestral, da Presses Universitaires de France), Revue Française de Sociologie (publicação trimestral, fundada em 1960, por Jean Stoetzel), Revista Brasileira de Ciências Sociais (publicação quadrimestral, desde 1986, pela Associação Nacional de Pós-Graduação e Pesquisa em Ciências Sociais), Revista Mexicana de Sociologia (do Instituto de Investigações Sociais), Revista Colombiana de Sociologia (da Faculdade de Ciências Humanas da Universidade Nacional da Colômbia), Revista Argentina de Sociologia (do Conselho de Profissionais em Sociologia), Japanese Sociological Review (publicação da Sociedade Japonesa de Sociologia, desde 1924), Journal of Sociology (da Associação Australiana de Sociologia), Revista Internacional de Sociologia (do Conselho Superior de Investigações Científicas da Espanha), International Journal of Comparative Sociology (desde 1950, publicação bimestral da Universidade de Utah), Current Sociology e International Sociology (publicações trimestrais da Associação Sociológica Internacional,), e Revue Internationale des Sciences Sociales, publicada pela UNESCO. Inúmeras sociedades e associações nacionais e regionais foram criadas, como, na Ásia, Associação Coreana de Sociologia, Associação Australiana de Sociologia, Sociedade Japonesa de Sociologia, Sociedade 366 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Sociológica da Índia, Associação Chinesa de Sociologia, Associação Sociológica Ásia-Pacífico; na Europa, Sociedade Alemã de Sociologia, Sociedade Britânica de Sociologia, Instituto de Sociologia da Bulgária, Associação Sociológica Helênica, Associação Dinamarquesa de Sociologia, Associação Nacional de Sociologia da Itália, Associação Portuguesa de Sociologia, Federação Espanhola de Sociologia, Sociedade Russa Sociológica Maxim Kovalevski, Sociedade Austríaca para Sociologia, Associação Sociológica Europeia; nas Américas, Sociedade Brasileira de Sociologia, Associação Colombiana de Sociologia, Sociedade Chilena de Sociologia, Associação Mexicana de Sociologia, Associação Venezuelana de Sociologia, American Sociological Association, Associação Latino-Americana de Sociologia; na África, Sociedade Etíope de Sociólogos, Associação Nigeriana Antropológica-Sociológica, Associação Sociológica Sul-Africana, Association Tunisienne de Sociologie, Association Arabe de Sociologie. Deve ser registrado que todas as sociedades e associações nacionais e regionais foram fundadas ao longo do século XX. Em 1949, seria criado, pela UNESCO, a International Sociological Association (ISA), organização não governamental e membro do Conselho Internacional de Ciências Sociais, cujo objetivo declarado é o de representar sociólogos de todos os países, independentemente de sua escola de pensamento, e o de avançar no conhecimento sociológico. São membros da ISA tanto professores e pesquisadores da área da Sociologia quanto sociedades e associações diretamente vinculadas ao estudo e à pesquisa sociológica. 7.7.1 A Sociologia na Alemanha Três fases caracterizam a evolução da Sociologia na Alemanha. A primeira se estende até o conflito mundial de 1914-18 e é dominada pela contribuição de Max Weber. Outros sociólogos importantes dessa fase, de expansão econômica e comercial, e de grande atividade cultural e científica do país, seriam Ferdinand Tönnies, Werner Sombart, Georg Simmel, Alfred Weber, Alfred Vierkandt e Robert Michels. A segunda fase corresponde ao período entreguerras, caracterizada pela depressão econômica, galopante inflação, queda da Monarquia e instauração da República de Weimar, instabilidade política e social, sentimento de revanchismo pela derrota na Guerra e pelas condições impostas pelos aliados, descrédito das Forças Armadas, ascensão de Hitler ao poder, fuga de intelectuais e cientistas para outros países europeus e EUA. Apesar da Sociologia passar a ser ensinada 367 CARLOS AUGUSTO DE PROENÇA ROSA nas universidades como disciplina independente, seu prestígio seria declinante, sendo, mesmo, antagonizada durante os anos do III Reich, pelo que muitos sociólogos se exilariam no exterior. O mais brilhante sociólogo dessa fase na Alemanha seria o húngaro Karl Mannheim, mas que também se exilaria, em 1933, na Inglaterra, onde fixaria residência em definitivo. A obra do sociólogo Norbert Elias permaneceria praticamente desconhecida até os anos 70, quando passaria a ter reconhecimento internacional e influência no pensamento moderno. Uma terceira fase, a atual, em que o país esteve ocupado por tropas estrangeiras, e depois, dividido em dois, com regimes antagônicos, situação que se manteria até o início dos anos 90, seria, também, o da reconstrução econômica e o da participação ativa na Comunidade Econômica Europeia, depois União Europeia. A plena recuperação do ensino e da pesquisa de campo em Sociologia só ocorreria a partir dos anos 70, com as atividades dos Departamentos de Sociologia das diversas universidades e de vários centros e institutos de estudos, período em que seria reconhecido o valor das obras dos anos 30 de Karl Mannheim e Norbert Elias. Deve-se assinalar como da maior relevância o fato de vários intelectuais, que haviam fugido da Alemanha para escapar do regime nazista, terem regressado ao país, o que permitiria, inclusive, a reabertura do Instituto de Pesquisa Social de Frankfurt (e a retomada das atividades da Escola de Frankfurt). Antes, porém, de examinar a evolução da Sociologia na Alemanha, em suas três fases, é indispensável tratar, em separado, da obra de Max Weber, sem dúvida o mais importante sociólogo alemão desde Marx. 7.7.1.1 Max Weber O sociólogo alemão Maximiliano Weber é considerado por muitos estudiosos da Sociologia moderna como um de seus fundadores, ao lado de Durkheim e Pareto. Apesar da pouca repercussão, nos meios intelectuais e acadêmicos, de sua obra, nos primeiros anos do século XX, e de não ter criado uma escola alemã de Sociologia, sua influência cresceria com o tempo, sendo, atualmente, bastante citado e reconhecido como tendo dado importantes contribuições ao desenvolvimento desta nova Ciência, particularmente nas áreas da Sociologia da religião e da Sociologia política. No exame da Sociologia atual, Weber ocupa, assim, uma posição de especial relevo que ultrapassou a fronteira alemã e adquiriu uma dimensão mundial, pelo que sua obra merece um exame mais detido e amplo, prévio aos itens relativos ao desenvolvimento da Sociologia na Alemanha. 368 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO 7.7.1.1.1 Nota Biográfica e Bibliográfica Max Weber (1864-1920), nascido em Erfurt, na Turíngia, de uma família da alta classe média, cujo pai fora parlamentar (18721884) pelo Partido Liberal-Nacional, estudou Direito, Economia, Filosofia e História nas Universidades de Heidelberg, Göttingen e Berlim, onde obteria (1889) o doutorado em Direito, com a tese A História das Organizações Medievais de Comércio. Em 1891, escreveria A História Agrária de Roma e Seu Significado para o Direito Público e Privado, o que o habilitaria a se candidatar a professor universitário. Em 1894, assumiu a cátedra de Economia da Universidade de Freiburg, época em que escreveria Tendências da Evolução da Situação dos Trabalhadores Rurais na Alemanha Oriental e viajaria à Escócia e à Irlanda. Weber permaneceria em Freiburg até 1896, quando se transferiu para a Universidade de Heidelberg. Acometido de grave crise nervosa (1898), inclusive sendo internado por breves períodos, mas por diversas vezes, obteria uma licença remunerada por motivo de saúde, quando viajaria à Itália e à Suíça, só voltando ao trabalho intelectual em 1903, na qualidade de coeditor da importante e prestigiosa publicação Arquivo de Ciências Sociais. Em 1904, publicaria a primeira parte de A Ética Protestante e o Espírito do Capitalismo, na qual procuraria estabelecer um estreito vínculo entre o protestantismo e o capitalismo, e o ensaio A objetividade do conhecimento nas ciências e políticas sociais. Viajaria aos EUA, onde pronunciaria conferências (Problemas Agrícolas da Alemanha. Passado e Presente) e recolheria material para prosseguir seus estudos sobre a Sociologia da Religião. Em seu retorno, publicaria (1905) a segunda parte de A Ética Protestante e o Espírito do Capitalismo, que viria a ser seu mais conhecido livro. Em 1906, escreveria dois ensaios sobre a Rússia (A Situação da Democracia Burguesa na Rússia e A Transição da Rússia para o Constitucionalismo de Fachada) e As Seitas Protestantes e o Capitalismo. Financeiramente independente, com o recebimento de uma herança (1907), Max Weber abandonaria definitivamente a atividade acadêmica e política para se dedicar a pesquisas históricas e sociológicas, ainda que pronunciasse conferências nas Universidades de Viena e Munique, e desse aulas particulares. Em janeiro de 1909, seria cofundador, ao lado de Ferdinand Tönnies, Werner Sombart e Georg Simmel, da Sociedade Alemã de Sociologia, e publicaria As Relações de Produção na Agricultura no Mundo Antigo. No período de 1915-17, seriam publicados os capítulos da Sociologia da Religião. Após o final da Primeira Guerra Mundial, escreveria Política 369 CARLOS AUGUSTO DE PROENÇA ROSA como Vocação (1918), ingressaria no recém-fundado Partido Democrático Alemão (DDP), de cunho liberal, participando ativamente das eleições de janeiro de 1919, e colaboraria na elaboração da Constituição de Weimar. Weber daria um curso na Universidade de Viena (1918) sob o título de Uma Crítica Positiva da Concepção Materialista da História, e, em Munique (1919), faria conferências que seriam publicadas com o título de História Geral da Economia. Em 1919, participaria como conselheiro da delegação alemã da Conferência de Versalhes (Tratado de Paz de Versalhes), vindo a falecer, em Munique, de pneumonia, em 14 de junho de 1920. Sua viúva, Marianne, publicaria, em 1922, Economia e Sociedade, obra póstuma de Sociologia em que Max Weber rebate a visão materialista e o determinismo histórico de Marx, por incompatíveis com a natureza da Ciência histórica e social, incapaz de prever o futuro, que não é predeterminado, ou seja, o curso da História não está determinado por antecipação. 7.7.1.1.2 Sociologia Weberiana Max Weber escreveu diversos artigos, ensaios e opúsculos sobre sua teoria sociológica, mas seu principal livro sobre o tema, intitulado Economia e Sociedade, cuja elaboração iniciou em 1909, seria publicado postumamente, em 1922. Para muitos autores, essa é sua principal obra, apesar de não ser a mais conhecida. Sociologia para Weber é a “ciência que pretende entender, interpretando-a, a ação social para, desta maneira, explicá-la causalmente em seu desenvolvimento e efeitos”192; é, pois, a Ciência do estudo e da interpretação da ação social, “a captação da relação de sentido da ação humana”. Assim, conhecer o fenômeno social é interpretar o sentido da ação ou das ações que o configuram. Em outras palavras, o indivíduo e suas ações são objetos da investigação da Sociologia, que pretende compreender e interpretar o sentido que o ator atribui à sua conduta. A Sociologia deve entender ou compreender o sentido da ação do indivíduo e não apenas o aspecto exterior de sua ação, pois nem toda ação é social. A mera entrega de um papel por um indivíduo a outro não tem significado para um cientista social, se não contiver algum sentido, como, por exemplo, o de saldar uma dívida, ação que não se esgota em si mesma por ter inúmeras significações sociais. Weber define, nessa mesma obra, a ação social como “uma ação em que o sentido indicado por seu sujeito, ou sujeitos, refere-se à conduta de outros, orientando-se por esta em seu desenvolvimento”. A Sociologia é, assim, uma ciência da conduta 192 WEBER, Max. Economia e Sociedade. 370 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO humana, que procura compreender como os homens puderam viver em sociedades diversas, com base em crenças diferentes, ao longo da História, ou como, segundo a época, obcecados pela salvação ou pelo desenvolvimento econômico, se dedicaram a esta ou aquela atividade. Não cabe, portanto, à Ciência ensinar ao Homem como viver ou à Sociedade como se organizar, o que coloca Weber em oposição a Comte e a Durkheim. A análise da teoria weberiana pode ter como ponto de partida sua classificação dos tipos de ação social, em número de quatro: i) ação racional em relação a um objetivo determinado – é uma ação concreta com um objetivo específico, como o de um engenheiro que constrói uma ponte, ou de um general que quer ganhar uma batalha; nesse tipo de ação, o ator tem muito claro seu objetivo e prepara os meios disponíveis para atingi-lo; ii) ação racional em relação a um valor – é uma ação baseada na crença consciente do valor (ético, religioso, estético ou qualquer outra forma) absoluto de uma determinada conduta, como a de um capitão que afunda com seu navio; nesse tipo de ação, o ator age racionalmente, consciente dos riscos; iii) ação afetiva – é a ditada pelo estado de consciência do indivíduo, é uma reação emocional, como a da mãe que bate no filho por ter ele agido mal; e iv) a ação tradicional – é a ditada pelo hábito, costumes e crenças, é uma ação que obedece a reflexos adquiridos pela prática, sem que o ator necessite conceber um objeto ou valor, nem precisa ser impelido pela emoção. Weber esclarece não se tratar de uma classificação exaustiva, mas puros tipos conceituais para fins de investigação sociológica. Para as Ciências naturais e sociais, o conhecimento é uma conquista constante, sem fim, pois é sempre possível levar mais longe a investigação e a análise. Conforme a História avança e renova os sistemas de valor e as obras do espírito, o historiador e o sociólogo formulam novas questões sobre os fatos presentes e passados. Não há, portanto, uma História ou uma Sociologia acabada. A validade universal da Ciência exige, também, que o cientista seja isento em suas investigações, não contamine a pesquisa com seus juízos de valor e preconceitos. Weber identifica, então, três características das Ciências Sociais: compreensiva (entendimento), histórica e cultural. A compreensão do sentido da ação social não pode ser realizada pela metodologia aplicada às Ciências naturais, embora o cientista social não possa prescindir da rigorosa observação do fato a ser estudado. Não podendo utilizar a técnica da experimentação numa Ciência histórica, as condutas sociais, de inteligibilidade intrínseca, são reconstruídas gradualmente pelos sociólogos com base em textos e documentos, os quais servem de fundamento para a compreensão do fato social. A característica cultural da Ciência Social estaria evidenciada na 371 CARLOS AUGUSTO DE PROENÇA ROSA influência que as formas culturais, como a religião, têm na Sociedade, inclusive sobre sua estrutura econômica. A diferença entre os dois grupos de Ciências se reflete no tipo de leis gerais, que, no caso das leis sociais, estabelecem relações causais em termos de regras de probabilidades, segundo as quais a determinados processos devem seguir-se, ou ocorrer simultaneamente, outros193. Conforme explicou o já citado Aron, a elaboração característica das Ciências naturais consiste em considerar os caracteres gerais dos fenômenos e estabelecer as relações regulares ou necessárias entre eles. Elas tendem a um sistema de leis cada vez mais gerais, tanto quanto possível de forma matemática. O método é dedutivo e o sistema se organiza a partir de leis ou princípios simples e fundamentais. No caso das Ciências históricas ou da cultura, a matéria não se insere num sistema de relações matemáticas, mas se aplica uma seleção à matéria relacionando-a com valores. Todo relato histórico é uma reconstrução seletiva de ocorrência do passado194. Para tanto, a Sociologia formula conceito de tipos e uniformidades generalizadas de processos empíricos. O sistema de tipos ideais consta da primeira parte da Economia e Sociedade, com a definição de conceitos como os de capitalismo, feudalismo, burocracia, democracia, sociedade e sultanismo. O conceito de tipo ideal é uma conceituação que abstrai de fenômenos concretos o que existe de particular; o tipo ideal não descreveria um curso concreto de ação, mas um desenvolvimento normativo ideal, um curso de ação objetivamente possível. O tipo ideal é um conceito vazio de conteúdo real que depura as propriedades dos fenômenos reais pela análise para depois reconstruí-los195. Os tipos ideais cumprem as funções de selecionar a dimensão do objeto que será analisado e de apresentá-lo de forma pura, despido de suas nuanças concretas; os tipos ideais permitiriam uma abstração que, segundo Weber, converteria a realidade em “objeto categorialmente construído”. Assim, os tipos ideais seriam elaborados “mediante acentuação mental de determinados elementos da realidade”, relevantes para a pesquisa. As definições exageradas da realidade, criadas pelo sociólogo-pesquisador, seriam posteriormente utilizadas num trabalho de comparação com a realidade objetiva, auxiliando no trabalho de compreensão e de imputação causal realizado pela Sociologia e pela História. Cada aspecto concreto da realidade empírica poderia ser compreendido em função de sua maior ou menor distância em relação à definição do tipo ideal196. TRAGTENBERG, Maurício. Coleção Os Pensadores – Max Weber. ARON, Raymond. As Etapas do Pensamento Sociológico. 195 TRAGTENBERG, Maurício. Coleção Os Pensadores – Max Weber. 196 NOGUEIRA, Cláudio. Considerações sobre a Sociologia de Max Weber. 193 194 372 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Aspecto importante a registrar na sociologia weberiana é o de sua teoria da estratificação social, a partir dos conceitos de “situação de classe”, entendida como conjunto de probabilidades típicas de provisão de bens, de posição externa e de sentido pessoal. Tal conjunto deriva, dentro de uma determinada ordem econômica, da magnitude e da natureza do poder de disposição de bens e serviços e das maneiras de sua aplicabilidade para a obtenção de rendas ou receitas, e de “classe” como todo grupo humano que se encontra numa igual situação de classe. Classe e situação de classe indicam, apenas, o fato de situações típicas de interesses iguais, nos quais se encontra o indivíduo juntamente com muitos outros mais. Weber identificaria três classes: a proprietária, em que as diferenças de propriedade determinam de um modo primário a situação de classe; a lucrativa, em que as probabilidades da valorização de bens e serviços no mercado determinam de modo primário a situação de classe; e a social, em que a totalidade daquelas situações de classe é fácil e costuma acontecer de modo típico. As classes proprietárias podem ser positivamente privilegiadas (os que vivem de renda) e os negativamente privilegiados (servos, proletários, devedores, pobres). Entre ambas estão as classes médias, constituídas pelas camadas de toda espécie e incluem os que possuem propriedades ou qualidades de educação (empresários, proletário, camponeses, artesãos, empregados). De acordo, ainda, com Weber, o relacionamento entre as classes proprietárias não conduz necessariamente à luta de classe. As classes lucrativas positivamente privilegiadas (comerciantes, industriais, banqueiros, profissionais liberais, empresários agrícolas) detêm o monopólio da direção da produção no interesse dos fins lucrativos e a garantia das oportunidades lucrativas influindo na política econômica. As classes lucrativas negativamente privilegiadas são os trabalhadores qualificados, semiqualificados e não qualificados. Entre eles se encontram “classes médias”, formadas por camponeses, artesãos independentes, funcionários (públicos e privados). As classes sociais são constituídas pelo proletariado em geral, pela pequena burguesia e pela “elite intelectual” sem propriedade, e os peritos profissionais. 7.7.1.1.3 Sociologia Política Sobre o tema, Weber escreveu vários textos importantes, devendo-se assinalar, em particular, a Economia e a Sociedade e o ensaio Política como vocação. Dois conceitos são básicos para Weber, na sua 373 CARLOS AUGUSTO DE PROENÇA ROSA Sociologia política: dominação e legitimidade. A política é entendida, genericamente, como qualquer tipo de liderança independente em ação, e, de forma mais restrita, como liderança exercida pelo Estado, que tem o monopólio do uso legítimo da força física dentro de seu território. Para que um Estado exista, é necessário que sua população obedeça à dominação exercida pelos detentores do poder, os quais devem possuir uma autoridade legítima reconhecida como tal. Um grau mínimo de vontade de obediência é essencial a toda relação autêntica de autoridade. A política se caracteriza, assim, pela dominação exercida por um ou vários homens sobre outros homens para mandatos específicos. Não consiste, esclarece Weber, “em toda espécie de probabilidade de exercer ‘poder’ ou ‘influência’ sobre outros homens. Esta dominação pode assentar-se nos mais diversos motivos de submissão: desde o hábito inconsciente até o que são considerações puramente racionais segundo fins determinados”. Nenhuma dominação, escreveu Weber, se contenta, voluntariamente, em ter como probabilidade de sua persistência motivos puramente materiais, afetivos ou racionais, segundo valores determinados. Ao contrário, todos procuram despertar e fomentar a crença em sua “legitimidade”. Weber distingue três tipos puros de dominação: a racional, a tradicional e a carismática. A dominação de caráter racional se baseia na crença da legalidade das ordenações instituídas e dos direitos de mando dos que exercem a dominação, isto é, a autoridade legal. O exercício dessa dominação é de ordem impessoal e universalista, e os limites desses poderes são determinados pelas esferas de competência, defendidas pela própria ordem. Seu quadro administrativo, hierarquizado e de estrutura burocrática, é formado por funcionários qualificados profissionalmente, que exercem o cargo como única ou principal profissão, recebem salário fixo e têm ante si uma “carreira”. A dominação de caráter tradicional é fundamentada na crença de que sua legitimidade repousa sobre a santidade de ordenações e poderes de mando, herdados de tempos longínquos, acreditando-se nela em virtude dessa santidade. O soberano não é um superior, mas um senhor pessoal, seu quadro administrativo não é formado por funcionários, mas por servidores, cuja relação com o soberano é de fidelidade pessoal, não funcional. A dominação de caráter carismático se baseia no devotamento fora do cotidiano, justificado pelo caráter sagrado ou pela força heroica de uma pessoa. O carisma é uma qualidade extraordinária (de profeta, feiticeiro, caudilho, chefe militar) graças à qual uma personalidade é considerada de forças sobrenaturais, sobre-humanas ou não acessíveis a qualquer pessoa. A relação dos seguidores com o líder carismático é do tipo pessoal. O quadro administrativo não é nenhuma burocracia, não há nomeação, destituição, 374 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO hierarquia e carreira. A pessoa é escolhida e exercerá as funções para as quais foi determinada, enquanto merecer o apoio do líder carismático. 7.7.1.1.4 Sociologia da Religião A contribuição sociológica mais célebre de Max Weber, e que lhe daria fama e prestígio nos meios intelectuais, principalmente protestantes e anglosaxão, seria no campo da chamada Sociologia da religião. Sobre o tema, seriam escritos A Ética Protestante e o Espírito do Capitalismo (1ª parte em 1904 e a 2ª em 1905), Introdução e Confucionismo e Taoismo, em 1915, Hinduísmo e Budismo, em 1916, e O Judaísmo Antigo, em 1917, que seriam reunidos, posteriormente, em Sociologia da Religião (três tomos). Um estudo sobre o Islã, projetado por Weber, não chegou a ser escrito. Deve-se acrescentar que alguns capítulos da obra Economia e Sociedade tratam, igualmente, da Sociologia da Religião. Autores alemães anteriores a Weber, como Wilhelm Dilthey (1833-1911), Ernst Troeltsch (1865-1923) e Werner Sombart, já haviam tratado da influência das convicções religiosas e concepções éticas na conduta econômica dos homens e de uma nova mentalidade espiritual no final da Idade Média europeia, a qual teria sido instrumental para o surgimento do capitalismo ocidental. No entanto, somente a partir da contribuição de Weber, por meio de seus trabalhos de cunho histórico e sociológico, fartamente documentados, é que o tema seria reconhecido como fundamental para a compreensão da influência das concepções religiosas no comportamento econômico das diferentes sociedades. O propósito de Weber com sua obra era demonstrar que a conduta dos homens nas diversas sociedades só poderia ser compreendida por sua visão do mundo, a qual é determinada pelos dogmas religiosos e sua interpretação. Por outro lado, Weber procuraria provar que as concepções religiosas são uma determinante da conduta econômica do Homem, e, em consequência, uma das causas das transformações econômicas das sociedades197. Conforme Weber, houve, em todos os países civilizados (China, Índia, Babilônia, Egito, Grécia, Roma, Europa medieval) capitalismo e empreendimentos capitalistas baseados numa racionalização aceitável das avaliações de capital. Nos tempos modernos, o Ocidente conheceu outra forma de capitalismo, baseada na organização racional capitalista do trabalho, associada às particularidades da separação entre a família, a empresa e a contabilidade racional. O problema central numa história universal da civilização, do ponto de vista puramente econômico, não 197 ARON, Raymond. As Etapas do Pensamento Sociológico. 375 CARLOS AUGUSTO DE PROENÇA ROSA será, em última análise, o desenvolvimento da atividade capitalista em si mesma, diferente de forma segundo as civilizações, mas o desenvolvimento do “capitalismo de empresa burguês”, com sua organização racional do trabalho livre, ou seja, o do nascimento da classe burguesa ocidental, com seus traços distintivos. A burocracia, na definição de Weber, está presente na empresa burguesa capitalista, por meio da cooperação entre os indivíduos, em que cada um exerce uma função especializada separada de sua vida familiar. Nesse sentido, sua definição de capitalismo é o da empresa trabalhando para a acumulação indefinida de lucro e funcionando segundo a racionalidade burocrática, pelo que seu desenvolvimento se deveu em grande parte à acumulação de capital, a partir da Idade Média. Instaurado o capitalismo, já não haveria necessidade de motivação metafísica ou moral para que os indivíduos se conformem com lei do capitalismo; “o capitalismo vitorioso já não tem necessidade desse apoio, uma vez que se sustenta sobre uma base mecânica”198. A questão a ser respondida é a de saber como o regime capitalista foi instituído. A tese de Weber a essa questão é a de que certo protestantismo (calvinista, batista, puritano, quaker, metodista) teria criado algumas motivações que teriam favorecido a formação do capitalismo ocidental (combinação da busca do lucro com a racionalidade do trabalho), isto é, haveria uma relação causal entre capitalismo e protestantismo, uma adequação significativa do espírito capitalista e do espírito do protestantismo. Conforme explica Aron, ajusta-se ao espírito do protestantismo a adoção de certa atitude em relação à atividade econômica, que é, ela própria, adequada ao espírito do capitalismo. Há uma afinidade espiritual entre certa visão do mundo e determinado estilo de atividade econômica199. Contrário ao misticismo e à idolatria, o protestantismo, que sustenta a crença na predestinação, propiciaria uma ética pragmática, de valorização do trabalho, para vencer a angústia pela incerteza da salvação da alma, e do ganho de dinheiro legal, já que o sucesso econômico seria uma bênção divina, um sinal dessa escolha de Deus. Ao mesmo tempo, a ética protestante seria um exemplo do ascetismo que não busca prazeres materiais ou espirituais, mas simplesmente o cumprimento de um dever terreno. Assim, a dedicação ao trabalho e o acúmulo de bens materiais da parte de um indivíduo se explicam pela motivação da salvação de sua alma, de uma possível demonstração de ter sido escolhido por Deus, e não por um interesse de qualquer outra ordem, como de uma eventual recompensa, ou para gozar a vida. 198 199 WEBER, Max. A Ética Protestante e o Espírito do Capitalismo. ARON, Raymond. As Etapas do Pensamento Sociológico. 376 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A riqueza é condenável eticamente só na medida em que constituir uma tentação para a vadiagem e para o aproveitamento pecaminoso da vida. Sua aquisição é má somente quando é feita com o propósito de uma vida posterior mais feliz e sem preocupações. Mas como empreendimento de um dever vocacional, ela não é apenas moralmente permissível, como diretamente recomendada200. Só o trabalho sem descanso e o êxito econômico dissipam a dúvida religiosa e dão a certeza da graça. A perda de tempo, escreveu Weber, é o primeiro e o principal de todos os pecados, daí não ter valor e ser condenável a contemplação passiva. A falta de vontade de trabalhar é um sintoma da ausência do estado de graça. A afinidade espiritual entre a atitude protestante e a atitude capitalista surge, assim, de acordo com Weber, pois o capitalismo pressupõe que a maior parte do lucro de um empreendimento não seja consumida, mas poupada, a fim de ser reinvestida e permitir o desenvolvimento dos meios de produção. A ética protestante, por sua vez, explica e justifica esse comportamento, de que não há exemplo nas sociedades não ocidentais, de busca do lucro máximo para a satisfação de produzir cada vez mais. Com o objetivo de comprovar sua tese sobre a influência religiosa na origem do capitalismo, Max Weber examinaria as condições históricas de civilizações não ocidentais para estabelecer a razão de não ter sido possível o surgimento de uma economia capitalista nos moldes ocidentais. Em seus estudos de Sociologia da Religião sobre as civilizações da China e da Índia, Max Weber reconhece que não houve o mesmo conjunto de circunstâncias exatamente iguais nas culturas não ocidentais e na ocidental, na qual o único fator diferencial fosse a ausência de uma ética religiosa do tipo da protestante. Weber sustentaria, contudo, por meio de comparações históricas, a tese de que a ausência do antecedente religioso, presente no Ocidente, explicaria não se ter desenvolvido nessas sociedades não ocidentais o regime econômico capitalista. No caso da China, por exemplo, haveria várias condições necessárias (burocracia) para o surgimento do capitalismo, mas a ausência da variável religiosa teria impedido seu desenvolvimento. Quanto à Índia, sua religião ritualista, cujo tema central é a transmigração das almas, estabeleceria uma sociedade conservadora, dividida em castas, que desvalorizava o destino terreno dos indivíduos e acenava, para os desvalidos, com compensação numa outra vida às injustiças e sofrimentos atuais. Assim, a falta de uma 200 WEBER, Max. A Ética Protestante e o Espírito do Capitalismo. 377 CARLOS AUGUSTO DE PROENÇA ROSA adequada visão religiosa do mundo teria sido uma das principais causas de não ter surgido nessas civilizações o capitalismo. 7.7.1.2 Desenvolvimento da Sociologia na Alemanha Por suas contribuições para a teoria sociológica, e pela qualidade de seus estudos de campo, Ferdinand Tönnies é, depois de Max Weber, um dos mais conceituados sociólogos alemães da primeira metade do século XX. Pertenceu à chamada “escola formalista”, que entende a Sociologia como uma ciência autônoma, cujo âmbito próprio seriam as relações sociais consideradas formalmente, abstração feita de todo fator psíquico e de todo conteúdo cultural e histórico. Tönnies distinguia, ainda, três categorias de Sociologia: pura, aplicada e empírica. A pura teria como objetivo estabelecer os conceitos teóricos necessários para interpretar e compreender a sociedade em abstrato; a aplicada analisaria dedutivamente a dinâmica dos eventos sociais; e a empírica se basearia no enfoque indutivo para estudar as variáveis das condições sociais. As sociologias pura, aplicada e empírica deveriam, no entender de Tönnies, mutuamente se comunicar. Escritor prolífico, de extensa obra publicada, com sua famosa distinção entre dois tipos básicos de organização social: comunidade e sociedade. As relações de comunidade adviriam de pequenos grupos cuja união social se baseia em laços de parentesco, práticas herdadas dos antepassados, solidariedade e forte sentimento religioso, enquanto as relações da Sociedade, agrupamento urbano, organizado em Estado e complexa divisão de trabalho, teriam sua origem na noção de contrato social. Ferdinand Tönnies (1855-1936), após estudar nas Universidades de Jena, Bonn, Leipzig, Berlim, formou-se em Tubingen, com doutorado em 1877, sendo, já em 1881, conferencista da Universidade de Kiel, posição que manteria até 1913 quando seria nomeado professor, cargo que manteria por três anos. Tönnies voltaria a Kiel em 1921, como “professor emérito” em Sociologia, mas seria destituído da Universidade em 1933, por suas convicções antinazistas. Em 1887, escreveu sua importante obra intitulada Comunidade e Sociedade. Em 1909, foi um dos cofundadores da Sociedade Alemã de Sociologia. Dentre suas outras obras, caberia citar Opinião Pública (1922), Estudos e Críticas Sociológicas, em três volumes (1924/26/29); Introdução à Sociologia (1931); Conceitos Fundamentais de Sociologia (1935). Em sua homenagem foi fundada, em Kiel, em 1956, a Sociedade Ferdinand Tönnies, dedicada à pesquisa sociológica201. O economista e sociólogo Werner Sombart (1863-1941) estudou Direito e Economia nas Universidades de Pisa, Roma e Berlim, sendo que 201 CUIN, Charles-Henry; GRESLE, François. Histoire de la Sociologie. 378 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO nesta última obteve, em 1888, seu doutorado. Por seu ativismo social e político de cunho socialista, não conseguiria ensinar nas mais prestigiosas Universidades alemãs (Heidelberg, Friburgo), mas obteria uma cátedra na Universidade de Breslau. Em 1902, escreveria sua principal obra, intitulada O Capitalismo Moderno, completada, em 1928, com o livro O Alto Capitalismo. Em 1906, aceitaria o cargo de professor da Escola de Comercio de Berlim, ano em que escreveria Por que não há Socialismo nos Estados Unidos?. Em 1911, publicaria Os Judeus e o Capitalismo Moderno, em que ressaltava a contribuição judaica ao surgimento e desenvolvimento do capitalismo, e, em 1915, A Quintessência do Capitalismo. Sombart dividiria o desenvolvimento do capitalismo em três etapas: a primeira, primitiva, abrangeria os séculos XV, XVI e metade do XVII; a segunda, do alto capitalismo, se estenderia até a Primeira Guerra Mundial; e a terceira, do capitalismo decadente, correspondente ao período atual, que só poderia ser salvo pelo planejamento econômico. Em 1917, obteria Sombart a posição de professor da prestigiosa Universidade de Berlim, onde ensinaria até 1940. Durante a República de Weimar, passaria a uma posição crítica do socialismo e dos movimentos de esquerda, vindo a ser acusado de assumir posições pró-nazistas, por defender governos autocráticos e intervenção estatal na economia, a fim de debelar as crises crônicas do sistema capitalista. Nessa fase, escreveu O Socialismo Alemão (1934) e Uma Nova Filosofia Social (1937). Georg Simmel (1858-1918) estudou História e Filosofia na Universidade de Berlim, onde, em 1881, obteve seu doutorado em Filosofia, e onde permaneceria como conferencista, cuja remuneração dependia das taxas pagas pelos estudantes. Suas conferências abarcavam diversas disciplinas (Filosofia, Lógica, História, Sociologia, Psicologia social). Bastante conhecido nos meios intelectuais da Alemanha e da Europa, com vários artigos traduzidos para diversas línguas e com seis livros já publicados, não conseguiria Simmel, contudo, ser aceito, por preconceito cultural, como professor das principais universidades alemãs. Com Weber e Tönnies, seria um dos cofundadores da Sociedade Alemã de Sociologia. Além de Problemas da Filosofia da História e Ciência da Ética, ambos de 1892-93, e Filosofia do Dinheiro (1900), Simmel é autor, ainda, de Sobre a Diferenciação Social (1890), Questões Fundamentais de Sociologia (1917) e Sociologia: Investigações sobre as formas de associação (1918). Alfred Weber (1868-1958), economista e sociólogo, irmão de Max Weber, foi professor da Universidade de Heidelberg, de 1907 até 1933, quando seria destituído por suas críticas ao nazismo. Autor de Teoria da localização industrial (1909), Ideen zur Staats als Kultursoziologie (1927) 379 CARLOS AUGUSTO DE PROENÇA ROSA e Kulturgeschichte als Kultursoziologie (1935), Weber é conhecido por sua contribuição à Geografia moderna com suas análises sobre localização industrial (custos de transporte e mão de obra, e proximidade de outras indústrias), e à Sociologia da cultura. Alfred Vierkandt (1867-1953) estudou nas Universidades de Leipzig e Brunswick, onde se formou. Foi professor de Sociologia da Universidade de Berlim (1913) e um dos cofundadores da Sociedade Alemã de Sociologia. Robert Michels (1876-1936) estudou na Inglaterra, na Sorbonne, em Munique, em Leipzig, em Halle e em Turim. Quando professor na Universidade de Marburg tornou-se socialista ativo, membro do Partido Social Democrático, do qual se afastaria, contudo, em 1907, vindo, posteriormente, a aderir ao fascismo. Na Itália, ensinaria, em Turim, Economia, Ciência Política e Sociologia, transferindo-se, em 1914, para a Universidade da Basileia como professor de Economia, onde permaneceria até 1926. De volta à Itália, Michels ensinaria Economia na Universidade de Perugia. Sua obra mais importante foi Os Partidos Políticos (1911), na qual descreveu “as leis de ferro da oligarquia” (todas as organizações, democráticas ou autocráticas, tendem a se desenvolver em oligarquias), sendo autor, igualmente, de Sindicalismo e Socialismo (1908), Socialismo e Fascismo na Itália (1925) e Patriotismo (1929). 7.7.1.2.1 Segunda Fase Em 1923, o milionário Félix Weil (1898-1975), ativista político, participante de vários movimentos para a implementação do socialismo, financiaria a fundação, em Frankfurt, do Instituto de Pesquisa Social (Institut fur Socialforschung), que congregaria um grupo de intelectuais e sociólogos dedicado à Pesquisa social e ao estudo e análise de questões sociais, sob uma perspectiva marxista. Seus integrantes seriam bastante influentes nos EUA, nos anos 30-40, onde foram atuantes nos meios acadêmicos, e, posteriormente, na Alemanha (anos 50-70). Seu primeiro diretor, até 1927, foi o economista austríaco Carl Grunberg, professor de Ciência Política da Universidade de Viena, que contribuiria para o Arquivo de História do Socialismo e Movimento Operário, publicações de orientação marxista. O marxista Max Horkheimer, seu segundo diretor, daria grande impulso aos trabalhos do Instituto, que publicaria muitos de seus escritos na Revista de Pesquisa Social, que contava, também, com a colaboração, entre outros, de Benjamin, Lowenthal e Pollock. Por defender ideias 380 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO marxistas, e por vários de seus integrantes serem judeus, o Instituto seria fechado em 1933, com a ascensão do nacional-socialismo, transferindo--se, inicialmente, para Genebra, e depois, para Paris, e finalmente, para Nova York. Vários de seus principais participantes se refugiariam no exterior (Horkheimer, Adorno, Pollock e Lowenthal trabalhariam nos EUA durante a Guerra Mundial), mas vários retornariam, mais tarde, à Alemanha, onde reinstalaram (principalmente Horkheimer e Adorno) o Instituto. Se as principais teses de Horkheimer e Adorno, nos anos 30, se relacionavam com a teoria do conhecimento, na década de 40, seus trabalhos se distanciariam das teses marxistas, como a luta de classes, para se concentrar na crítica de uma civilização técnica. Seus mais proeminentes membros nessa fase foram Theodor Ludwig Adorno (1903-1969), crítico do Iluminismo e da cultura de massa, e Max Horkheimer (1895-1973), autor, com Adorno, de A Dialética do Iluminismo (1947) e de Filosofia Burguesa da História (1930), Um Novo Conceito de Ideologia (1930), Materialismo e Metafísica (1930), Materialismo e Moral (1933), O Último Ataque à Metafísica (1937) e Teoria Tradicional e Teoria Crítica (1937). Devem ser também mencionadas as contribuições de Leo Löwenthal (1900-1993), autor de Sociologia da Literatura (1932 e 1948), Friedrich Pollock (1894-1970), autor de Tentativas de Economia Planejada na União Soviética (1929), e Walter Benjamin (1892-1940), que publicou, em 1936, A obra de arte na época da reprodutibilidade técnica. Em 1937, em sua obra Teoria Tradicional e Teoria Crítica, verdadeiro manifesto do Instituto, Horkheimer procuraria estabelecer as diferenças essenciais entre o que denominou de teoria crítica, que está em consonância com o idealismo alemão, e o que chamou de teoria tradicional, fundamentada no Discurso do Método, de Descartes. Horkheimer voltaria a tratar do tema em sua conferência Sobre o Conceito de Razão (1951) e em seu ensaio Filosofia e Teoria Crítica (1968), no qual retomaria suas críticas ao positivismo, ao funcionalismo e à metodologia científica de equiparação das Ciências Naturais às Ciências Sociais, sem se ocupar da origem social dos problemas202. Hans Freyer (1887-1969), formado pela Universidade de Leipzig, em 1911, professor das Universidades de Kiel (1920) e Leipzig (1925), onde criou o Departamento de Sociologia, que dirigiria até 1948, é considerado o principal representante da escola de Leipzig, que desenvolveria uma sociologia com base histórica. Participavam deste grupo, entre outros, Arnold Gehlen (1904-1976), Gotthard Gunther (1900-1984), Helmut Schelsky (1912-1984) e Gunther Ipsen (1899-1984). Freyer é autor de 202 HORKHEIMER, Max. Teoria Tradicional e Teoria Crítica. 381 CARLOS AUGUSTO DE PROENÇA ROSA O Estado (1926), Sociologia como Ciência da Realidade (1929), Einleitung in die Soziologie (1931), Die Revolution Von Rechts (1931) e Herrschaft und Planung (1933). Simpatizante do regime nazista, Freyer seria responsável pelo fechamento da Sociedade Alemã de Sociologia. Após a Guerra, trabalhou alguns anos numa editora, em Wiesbaden, foi conferencista da Universidade de Munster (1953/55), e, em 1954, contribuiu para a criação de um instituto de Sociologia em Ancara. O húngaro Karl Mannheim (1893-1947), que estudara em Budapeste, Berlim, Heidelberg e Paris, mantivera estreito contato com Gyorgy Lukacs. Transferiu-se para a Alemanha, onde seria professor na Universidade de Heidelberg (1923) e Frankfurt (1930). Nesse período, escreveria sua mais importante obra, intitulada Ideologia e Utopia (1929), na qual expôs sua Sociologia do conhecimento, relativa ao estudo das condições sociais de produção do conhecimento. Com a ascensão do nazismo, em 1933, emigrou para a Inglaterra, onde, a convite de Harold Laski, seria, por 10 anos, conferencista da Escola de Economia de Londres (LSE), sendo nomeado, em 1943, professor de Sociologia da Educação da Universidade de Londres. Outras obras de Mannheim são O Homem e a Sociedade na Época de Crises (1935), Diagnóstico de nosso tempo (1943) e a póstuma Liberdade, Poder e Planejamento Democrático (1951). Mannheim faleceria aos 53 anos de idade, sendo considerado por muitos como o último dos fundadores da Sociologia clássica. A grande contribuição de Mannheim à Sociologia, à Ciência e à Filosofia seria sua formulação da Sociologia do conhecimento, que, ao abordar tema considerado do âmbito exclusivo da Filosofia, traria ao debate questões da maior relevância, ampliando, inclusive, seu campo da investigação e dando uma dimensão social à formação do conhecimento em geral e científico, em particular. De acordo com Mannheim, o conhecimento seria fruto não apenas de fatores puramente teóricos, mas também de elementos de natureza não teórica, provenientes da vida social e das influências e vontades a que o indivíduo está sujeito, ou seja, suas ideias sociais e políticas são inspiradas pela sua situação social. Assim, cada período histórico seria influenciado por pensamento ou formulações teóricas tidas como relevantes. Em cada período histórico, tendências conflitantes, tanto para a conservação da ordem, quanto para sua transformação, surgiriam em função dos interesses ideológicos, sociais e políticos dos agentes envolvidos na prática da produção do conhecimento. A conservação produz ideologias, a transformação utopias. Apesar de reconhecida sua importância e inovação, a obra de Mannheim não teria impacto significativo nos meios intelectuais, ainda predominantemente 382 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO favoráveis à epistemologia ou teoria do conhecimento, ramo da Filosofia que examina a natureza do conhecimento203. A obra de Mannheim voltaria a ter grande curso nos meios intelectuais a partir dos anos 60, graças à sua influência na obra de Thomas Kuhn. Leopold Von Wiese (1876-1969), professor da Universidade de Colônia (1919), teve como principais obras Sistema de Sociologia Geral (1924-29) em dois volumes, Sociologia: História e principais problemas (1932), e Ética na perspectiva do Homem e da Sociedade (1947). Seguindo a mesma orientação formalista de Simmel e Tönnies, sustentaria Von Wiese que os homens vivem dentro de uma rede de processos sociais que dão origem às relações sociais que têm caráter estático, em contraposição ao dinamismo dos processos sociais, os quais, por sua vez, poderiam ser associativos ou dissociativos. Em seu esforço analítico e sistemático, e em seu rigor lógico, chegaria a especificar 650 formas diferentes de relações humanas. Em abril de 1946, quando a Sociedade Alemã de Sociologia (dissolvida em 1934) foi restabelecida, Von Wiese seria eleito para sua presidência, cargo que ocuparia até 1955. Theodor Geiger (1891-1952) estudou Ciência Política nas Universidades de Munique (1910/12) e Wurzburg (1912/14). Em 1920, ingressou no Partido Socialista Social Democrata (SPD). Em 1929, ensinou Sociologia na Universidade de Brunswick, emigrando, em 1933, com a subida do nazismo ao poder, para a Dinamarca, onde seria o primeiro professor de Sociologia (1938-40) na Universidade de Arhus. Com a invasão da Dinamarca pelas tropas alemãs em 1940, refugiou-se na cidade de Odense, onde permaneceria até 1943, quando, já com a nacionalidade dinamarquesa, fugiria para a Suécia, onde daria aulas nas Universidades de Estocolmo, Lund e Uppsala. Após a Guerra, retornou a Arhus, onde lecionaria e publicaria Estudos Nórdicos sobre Sociologia (1948/52). Em 1947, escreveu Estudos preliminares para uma Sociologia do Direito, importante contribuição, na Alemanha, para esta disciplina, e avançou o conceito de estratificação social na análise de estruturas sociais. 7.7.1.2.2 Terceira Fase O desenvolvimento da Sociologia na Alemanha (República Federal da Alemanha), nessa fase, esteve condicionado à reconstrução de um país dividido em dois, arrasado pela Guerra, e ocupado, vários anos, por tropas estrangeiras, num contexto de Guerra Fria e de formação da 203 GIRAUD, Claude. Histoire de la Sociologie. 383 CARLOS AUGUSTO DE PROENÇA ROSA Comunidade Econômica Europeia. Somente a partir da década de 60 com a restauração da infraestrutura acadêmica, a normalização das atividades universitárias e o retorno de intelectuais emigrados (Horkheimer, Adorno, Pollock, Fromm) ao país, a Sociologia voltaria a ser objeto de estudos teóricos e pesquisa de campo. Nesse contexto, a reinstalação do Instituto de Pesquisa Social, conhecido como Escola de Frankfurt, a partir dos anos 60, teria um grande impacto no meio cultural, acadêmico e estudantil alemão, ocupando posição de relevo na Sociologia desta fase. O Instituto é, atualmente, dirigido por Axel Honneth (1949), ex-aluno de Habermas. A convivência com a realidade americana e com sua comunidade acadêmica teria, necessariamente, grande influência no pensamento filosófico e sociológico de Theodor Adorno e Max Horkheimer. Analisando a expansão do cinema e do rádio, bem como a importância da técnica nesse desenvolvimento, considerariam que ambos não deveriam ser considerados como arte, mas como negócio e indústria, por se tratar de meros negócios programados para a exploração de bens culturais. A essa exploração, dariam o nome de indústria cultural, expressão que usariam em 1947, em A Dialética do Iluminismo, que substituiria cultura de massa, que induz ao erro de se tratar de uma cultura surgida espontaneamente das próprias massas. Segundo Adorno, se a indústria cultural adapta seus produtos ao consumo de massa, ela igualmente determina o próprio consumo e exerce seu papel de portadora da ideologia dominante. Dentre as importantes obras de Adorno, caberia, ainda, citar Personalidade Autoritária (1950), Minima Moralia (1951), Para a Metacrítica da Teoria do Conhecimento – Estudos sobre Husserl e as Antinomias Fenomenológicas (1956), Dialética Negativa (1966), Teoria Estética (1968) e Três Estudos sobre Hegel (1969). Quanto a Horkheimer, além das obras já mencionadas dos anos 30 e 40, devem ser citadas Eclipse da Razão (1955) sobre o pensamento ocidental e a barbárie da Segunda Guerra Mundial e Teoria Crítica: Ontem e Hoje (1970), na qual sustenta que Filosofia e Religião, Teologia e Evolução devem ser coadjuvantes204. O mais importante integrante da nova geração da Escola de Frankfurt seria o filósofo e sociólogo alemão Jurgen Habermas (1929), que colaborou estreitamente com Adorno e Horkheimer no Instituto de Pesquisa Social, de 1956 a 1959, e nos anos 70 e 80. Formado em 1954, pela Universidade de Bonn, seu primeiro ensaio, com repercussão nos meios intelectuais, seria A Transformação Estrutural da Esfera Pública, de 1962, uma história social do desenvolvimento da esfera pública burguesa desde o século XVIII até sua transformação pela comunicação de massa, 204 ARANTES, Paulo Eduardo. Coleção Os Pensadores – Benjamin, Habermas, Horkheimer, Adorno. 384 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO influenciada pelo capital. Em 1961, seria professor na Universidade de Marburg, e publicaria Entre a Filosofia e a Ciência, e em 1962 assumiria a cátedra de Filosofia em Heidelberg, retornando a Frankfurt em 1964, por insistência de Adorno, para substituir Horkheimer como professor de Filosofia e Sociologia. Em 1971, assumiria Habermas o cargo de diretor do Instituto Max Planck, em Stamberg (perto de Munique), onde permaneceria até 1983. Nesse período escreveria sua principal obra, Teoria da Ação Comunicativa (1981), na qual procura restabelecer a relação entre democracia e socialismo. De retorno a Frankfurt, reassumiria sua cadeira de professor de Filosofia e Sociologia, e assumiria a direção do Instituto de Pesquisa Social, aposentando-se em 1994, o que não o impediu de continuar a proferir conferências e a escrever livros. Além de A Teoria da Ação Comunicativa, podem ser citados seus livros Teoria e Práxis (1963), Entre os Fatos e as Normas e Técnica e Ciência como Ideologia (1968). As principais teses contidas em seus livros e ensaios são de crítica ao cientificismo e tecnicismo, que reduzem todo o conhecimento ao domínio da técnica e ao modelo das ciências empíricas, limitando, assim, a razão humana a todo conhecimento objetivo e prático. Para Habermas, as Ciências Naturais seguem uma lógica objetiva, enquanto as Ciências Humanas, por serem a sociedade e a cultura baseadas em símbolos, seguem uma lógica interpretativa. Em sua obra A Teoria da Ação Comunicativa, Habermas sustenta que a comunicação deve ser clara a fim de permitir que a linguagem possa assumir seu papel de garante da democracia, que pressupõe a compreensão de interesses mútuos e o alcance de um consenso. A distorção de sua interpretação impede uma comunicação efetiva, o consenso, e, portanto, a prática efetiva da democracia. Para tanto, haveria que abandonar o uso da razão instrumental, ou iluminista, isto é, o uso da razão para conhecer e dominar a natureza, o que significa confundir conhecimento com dominação, exploração, poder. A razão se torna, assim, um instrumento de uma ciência que deixa de ser acesso ao verdadeiro conhecimento para se limitar a um meio de dominação da natureza e os próprios seres vivos. É necessária, portanto, uma razão que não seja instrumento de exploração, mas de democracia, ou seja, a razão comunicativa, a qual, além de compreender a esfera instrumental de conhecimentos objetivos, alcança a esfera da interação entre sujeitos. Rompe-se, dessa forma, com a razão comunicativa, o diálogo baseado em conhecimentos instrumentais resultantes da relação entre sujeito e um objeto cognoscível (a partir do qual o consenso, se possível, não seria democrático). Ao mesmo tempo, se estabelece um diálogo entre sujeitos capazes de compartilhar, pela 385 CARLOS AUGUSTO DE PROENÇA ROSA linguagem, um universo simbólico comum, e de interagir, criando um conhecimento crítico fundamentado em argumentação submetida a critérios de validade, sem ser orientada por domínios rígidos científicos. As ideias de Habermas teriam grande divulgação no meio acadêmico nos anos 70 e 80 e amplo apoio nos círculos esquerdistas alemães. Outro intelectual, cujo reconhecimento só se daria a partir dos anos 70, seria o sociólogo Norbert Elias (1897-1990), formado pelas Universidades de Breslau e Heidelberg, amigo de Karl Mannheim, desde o início dos anos 30, quando trabalharia, como seu assistente, por algum tempo, no Instituto de Pesquisa Social. Nessa época, escreveria Sociedade de Corte, tese que o habilitaria a assumir cátedra na Universidade de Frankfurt. Com a subida de Hitler ao poder, Elias se exilaria na França, por dois anos, mas, em 1935, se mudaria para a Inglaterra, onde, devido a seu pobre conhecimento da língua inglesa, teria limitadas suas atividades acadêmicas. De 1945 a 1954, Elias daria aulas particulares na London School of Economics (LSE). Em 1954, assumiria cargo de professor na Universidade de Leicester, tornando-se, dois anos mais tarde, Professor de Sociologia, cargo que manteria até 1962. De 1962 a 1964, seria professor emérito de Sociologia na Universidade de Gana, retornando ao continente europeu, mais precisamente a Amsterdã, mas se deslocaria a muitos centros universitários para ministrar cursos e proferir conferências. Sua mais importante obra, O Processo Civilizador, escrito em alemão, e publicado na Basileia, em 1939, seria reeditado em 1969, quando o projetaria no cenário intelectual da Alemanha, mas seria traduzido para francês somente em 1975, e para o inglês em 1978, o que permitiria maior divulgação de suas ideias nos principais meios acadêmicos. De 1978 a 1984, Elias trabalharia no Centro de Pesquisa Interdisciplinária da moderna Universidade de Bielefeld. Admirador de Marx, Weber e Mannheim, a obra de Elias inovaria na análise da Sociedade atual e passada, inclusive com um enfoque original, pelo que não pode ser considerado seguidor desses sociólogos. Na Sociedade de Corte (1933), Elias estudaria, tendo como modelo o reinado de Luiz XIV, a evolução da sociedade europeia, desde os tempos medievais até o século XVII, e o significado de uma sociedade regulada pela etiqueta, intriga, linguagem polida, gostos refinados, vestuário extravagante, boas maneiras, bajulação e ócio, e na qual o cortesão substituiu o nobre guerreiro de outras épocas. O Processo Civilizador, de 1939, é um estudo ampliado e mais profundo da evolução da civilização ocidental, em que retoma sua tese da mudança de uma Europa guerreira 386 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO para cortesã, em vista da criação e generalização de controles e tabus que permitiram sufocar e reprimir os indivíduos. Trata-se, assim, de um estudo histórico-sociológico no qual examina a contenção individual, as regras inibidoras, as normas que sociabilizam, os freios que reprimem a violência particular, temas que escaparam às análises, por exemplo, de Durkheim e Weber. Além dessas duas mencionadas obras, caberia citar, ainda, O que é Sociologia? (1970), Contribuições à Sociologia do Conhecimento (1983), A Solidão dos Moribundos (1983), Envolvimento e Alienação (1983), Mozart, a Sociologia de um Gênio, Condição Humana (1985), Sobre o Tempo, A Sociedade de Indivíduos (1987), A Dinâmica do Ocidente e seu último livro Os Alemães. Elias escreveu também vários ensaios sobre a Sociologia do esporte, como A Dinâmica do Esporte de Grupo, em especial o Futebol, Desporte e Ócio no processo da civilização (com Eric Dunning), Futebol na Inglaterra medieval e moderna, e Gênese do esporte como um problema sociológico. Helmut Schelsky (1912-1984), inicialmente um nacional-socialista, e muito próximo de Hans Freyer, formado em 1939, pela Universidade de Königsberg, assumiria a cátedra de Sociologia na Universidade de Estrasburgo em 1944. Em 1953, na Universidade de Hamburgo, e em 1960, na Universidade de Munster. Em 1970, assumiria a direção da recém-fundada Universidade de Bielefeld, onde permaneceria por cerca de três anos, retornando a Munster em 1973. Crítico da Escola de Frankfurt, escreveu diversos livros sobre sociologia da família, sociologia da sexualidade, sociologia industrial, sociologia da educação, sociologia da juventude, como Sobre a estabilidade das instituições (1952), Mudanças na atual família alemã (1953), Sociologia da sexualidade (1955), O Resultado social da automação (1957) e Escola e educação na sociedade moderna (1957) René König (1906-1992), com doutorado em 1930, pela Universidade de Berlim, por suas convicções políticas contrárias ao nacional-socialismo não obteria pós-doutorado para ensinar na Alemanha, o que o forçou a emigrar, em 1937, para a Suíça, onde, no ano seguinte, foi aprovado no exame na Universidade de Zurique. Em 1949, assumiu a cátedra de Sociologia da Universidade de Colônia, que ocuparia até o final, recebendo, em 1974, o título de professor emérito. Muito influenciado pela Sociologia francesa, em particular por Durkheim, Mauss e Halbwachs, fundaria a chamada Escola de Colônia. Seria muito ativo na Associação Sociológica Internacional. O sociólogo e antropólogo Dieter Claessens (1921-1997), que fora prisioneiro de Guerra dos russos, ao regressar à Alemanha estudaria na Universidade Livre de Berlim, onde obteve seu doutorado em 1957. 387 CARLOS AUGUSTO DE PROENÇA ROSA Com um pós-doutorado em Sociologia, da Universidade de Munster, aí assumiria a cátedra de Sociologia em 1962, retornando à Universidade Livre em 1966, onde permaneceria até sua aposentadoria, em 1986. Claessens é mais conhecido por seus trabalhos sobre a ontogênese e a filogênese do Homem. Niklas Luhmann (1927-1998) participou da Guerra por dois anos, tendo sido feito prisioneiro pelos americanos. Após a Guerra, estudaria Direito na Universidade de Friburgo, e ingressaria, temporariamente, no serviço público. Em 1961, estudaria em Harvard, com Talcott Parsons, influente teórico americano de sistemas sociais. Luhmann seria conferencista (1962/65) da Universidade Alemã para Ciências Administrativas, transferindo-se para o Centro de Pesquisa Social da Universidade de Munster, sob a direção de Helmut Schelsky. Em 1968-69, proferiu conferências na Universidade de Frankfurt, vindo a ocupar a cadeira de Sociologia da Universidade de Bielefeld até 1993. Já aposentado, Luhmann completaria o que viria a ser seu livro principal, intitulado Sociedade da Sociedade (1997). É autor, também, entre outros, de Sistemas Sociais (1984), Comunicação Ecológica (1986) e Arte como um sistema social (1995). Crítico da teoria de Parsons, Luhmann formularia o que é conhecido como a teoria dos sistemas dinâmicos. Ralf Dahrendorf (1929), sociólogo, cientista político e político alemão, formado pela Universidade de Hamburgo (1952), prosseguiria seus estudos na London School of Economics (1953-54), doutorando-se em 1956. Exerceria a cátedra de Sociologia em Hamburgo (1957-60), Tubingen (1960-64) e Konstanz (1966-69). Dahrendorf foi membro (1969/70) do Parlamento alemão pelo Partido Democrático Livre, e Comissário alemão na Comissão Europeia, em Bruxelas, de 1970 a 1974. Assumiria a direção da LSE (1974-84) e retornaria à Alemanha para assumir o cargo de professor de Ciência Política na Universidade de Konstanz (1984-86). Transferiu-se definitivamente para a Inglaterra em 1968, assumindo a cidadania inglesa em 1988, e de 1987 a 1997 esteve vinculado à Universidade de Oxford. Seu mais importante livro foi escrito em 1957, com o título Classes e Luta de Classes na Sociedade Industrial, no qual critica o conceito de classe, de Marx, baseado na propriedade, para sustentar que a origem das diferenças de classes estaria no poder, portanto a Sociedade estaria dividida entre os que recebem ordens e os que “dão ordens”. 7.7.2 A Sociologia na França A Sociologia pós-Durkheim, na França, pode ser dividida em 388 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO dois períodos: o primeiro, que corresponderia aos anos entre as duas Grandes Guerras, e o segundo, situado após o segundo conflito, e que se estenderia até os tempos atuais. O primeiro se caracterizaria pela continuada presença influente da chamada Escola sociológica francesa, de Émile Durkheim, nos meios acadêmicos e culturais, e o segundo, pela reconstrução e criação de instituições de altos estudos e pela retomada de pesquisas de campo e de estudos teóricos. A perda prematura de Durkheim e a fragilidade institucional da Sociologia, tanto na pesquisa quanto no ensino, seriam desastrosas para a Sociologia na França, que deixaria, inclusive, de ser uma das principais referências mundiais neste domínio. A deterioração das condições sociais, políticas e econômicas nos anos 30, e as nefastas consequências do conflito mundial retardariam a recuperação da Sociologia no país, que só se daria a partir dos anos 60, com a modernização, criação e expansão dos centros universitários e dos institutos de Ensino superior e de pesquisa. 7.7.2.1 Primeiro Período O pensamento sociológico de Émile Durkheim contaria com a divulgação por meio da revista Année Sociologique, fundada em 1898, e com uma eficiente e dedicada equipe de cerca de 40 competentes colaboradores (sociólogos, juristas, economistas, geógrafos). Apesar da grande perda que significaria a morte de Durkheim, em 1917, o grupo continuaria a trabalhar segundo a orientação de seu mestre, e a publicar, semestralmente, sua revista, com ensaios, artigos e crítica bibliográfica. O trabalho, segundo o tema, estava atribuído a seis seções: a primeira, Sociologia geral, a cargo de Bouglé; a segunda, Sociologia religiosa, sob a supervisão de Mauss e Hubert; a terceira, Sociologia Moral e Jurídica, sob a responsabilidade de Fauconnet; a quarta seção, Sociologia econômica, a cargo de Simiand e Halbachs; a quinta, Morfologia social, sob a supervisão direta de Halbachs; e uma sexta seção de Diversos, para tratar de Sociologia estética, linguagem e tecnologia. Dos vários colaboradores da revista Année Sociologique, seguem breves comentários sobre a vida e a obra daqueles mais representativos do grupo. Célestin Bouglé (1870-1940), professor de Sociologia na Sorbonne (1901), diretor da Escola Normal Superior (1935), autor, entre outras obras, de Les Idées Egalitaires. Étude sociologique (1899), Le Solidarisme (1907), Qu’est-ce que la Sociologie? (1907), De la Sociologie à l’Action Sociale 389 CARLOS AUGUSTO DE PROENÇA ROSA (1923), Leçons de Sociologie sur l’évolution des valeurs (1922), Bilan de la Sociologie Française Actuelle (1935), Inventaires I - La crise sociale et les idéologies nationales (1936), Inventaires II - L‘Économique et le politique (1937), Inventaires III – Classes moyennes (1939) e Humanisme, Sociologie, Philosophie: Remarques sur la conception française de la culture générale (1938). Bouglé, um dos idealizadores da revista e do círculo mais íntimo de Durkheim, foi defensor de uma Sociologia baseada numa moral laica e liberal, e como uma Ciência positiva, na linha de Comte. Maurice Halbwachs (1877-1945), professor de Sociologia da Faculdade de Estrasburgo (1919) e da Sorbonne (1935), presidente do Instituto Francês de Sociologia (1938), eleito para uma cadeira no Colégio de França (maio de 1944), não chegaria a ocupá-la, pois foi preso pela Gestapo, em julho, e deportado para Buchenwald, onde morreria. Autor de muitas obras, caberia citar La classe ouvrière et les niveaux de vie (1913), Les cadres sociaux de la mémoire (1925), Les causes du suicide (1930), L‘Évolution des besoins dans les classes ouvrières (1933), Morphologie sociale (1938), e as póstumas La mémoire collective (1950) e Classes sociales et morphologie (1972). Marcel Mauss (1872-1950), aluno e sobrinho de Durkheim, fundador (com Levy-Bruhl e Paul Rivet) do Instituto de Etnologia (1925), e com Jean Jaurès, do jornal Humanité, incorporou-se, em 1901, à equipe da Année Sociologique, criou a noção de fato social total (com dimensão econômica, jurídica e religiosa) e ensinaria na Escola Prática de Altos Estudos “história das religiões dos povos não civilizados”. Dentre suas obras, devem ser citadas o Ensaio sobre o Dom (1924), Sociologia e Antropologia e Sociologia: objeto e método (com Paul Fauconnet). Henri Hubert (1872-1927), arqueólogo e sociólogo, especialista em religiões comparadas, professor da Escola do Louvre (1906), é conhecido por seus estudos sobre os celtas Les Celtes depuis l‘époque de la Tène et la civilisation celtique (1932), e Les Germains (1952), ambas publicações póstumas. Colaborou na Année Sociologique, desde 1898, e foi encarregado da seção Sociologia da Religião, ano de sua nomeação como conservador-adjunto do Museu de Antiguidades Nacionais, em Saint-Germain-en-Laye. Escreveu Ensaio sobre o tempo: um curto estudo sobre a representação do tempo na religião e na mágica, e com Marcel Mauss, Ensaio sobre a natureza e função social do sacrifício (1899) e Esboço de uma teoria geral da mágica (1904). Georges Davy (1883-1977), professor de Letras na Faculdade de Dijon (1922/31) e na Faculdade de Rennes (1931-38), Inspetor-geral de Instrução Pública (1938-44), professor na Sorbonne (1945-55), que seria sucedido por Raymond Aron, autor de La foi jurée (1922) e Éléments de Sociologie appliquée à la morale et à l‘éducation (1924). 390 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Paul Fauconnet (1874-1938), professor da Universidade de Toulouse (1907), e depois, da Faculdade de Direito de Paris (1921), autor, em 1920, de La Responsabilité. Com Marcel Mauss escreveu, em 1901, A Sociologia: objeto e método. Louis Gernet (1882-1964), filólogo e sociólogo, especialista em Grécia antiga, obteve seu doutorado em Letras em 1917, com a tese Recherches sur le développement de la pensée juridique et morale en Grèce. Escreveria, ainda, Le Génie grec dans la réligion (1932), Anthropologie de la Grèce Antique. Secretário-geral da revista Année Sociologique de 1949 a 1961, colaborou com a revista sob rubrica Sociologia Jurídica e Moral. Gernet colaboraria com Levy-Bruhl na École Pratique des Hautes Études (EPHE), a partir de 1948, no ensino da Antropologia histórica da Grécia antiga. Robert Hertz (1882-1915), aluno e amigo de Marcel Mauss, que coligiria seus escritos e anotações na publicação póstuma Mélange de Sociologie religieuse et de folklore (1928) e A Preeminência da Mão Direita (1909). Sua morte prematura seria lamentada por Durkheim. François Joseph Charles Simiand (1873-1953), sociólogo, economista e historiador, aluno de Henri Bergson, escreveu, em 1908, La méthode positive en sciences économiques, no qual expôs seus métodos de análise dos fenômenos econômicos, Le salaire: l‘évolution sociale et la monnaie (1932), no qual procurou estabelecer uma teoria sobre salários, na base das observações estatísticas. Simiand colaborou no jornal L‘Humanité, criou uma revista, Notas Críticas, e, como historiador, manteve célebre controvérsia com Charles Segnobos, da linha tradicional. Paul Huvelin (1873-1924), especialista em Direito romano, professor de Direito da Universidade de Lyon, dos primeiros colaboradores da Année Sociologique, particularmente da seção jurídica e moral, participaria com vários artigos (Histoire du Droit, Magie et Droit Individuel, Les Cohésions Humaines) para a revista. Paul Lapie (1869-1927), professor na Faculdade de Letras de Bordeaux, Rennes e Toulouse, colaborador da Année Sociologique desde sua fundação, autor de A Lógica da vontade, Pedagogia Francesa (1920), A Escola e Os Alunos (1923), Moral e Ciência (1923) e Moral e Pedagogia (1927), seria atuante na área da educação. Diretor do Ensino Elementar do Ministério de Instrução Pública, Lapie trabalhou na reforma do ensino elementar e superior e na reorganização das Escolas normais, e foi reitor, em 1925, da Academia de Paris. Charles Lalo (1877-1953), especialista em Estética e Arte, com estudos sob o ponto de vista sociológico, seria o principal integrante da revista Année Sociologique. Sobre o tema, escreveu Esquisse d‘une esthétique 391 CARLOS AUGUSTO DE PROENÇA ROSA musicale scientifique (1908), Les Sentiments esthétiques (1910), Programme d‘une esthétique sociologique (1914) e L‘Art et la vie sociale (1921). Além dos estudos efetuados pelos seguidores de Durkheim, as pesquisas de vários sociólogos na França devem ser igualmente registradas, uma vez que tais contribuições refletem influências de outras Escolas sociológicas, como a de Frédéric Le Play, e, igualmente, o interesse pelo tratamento científico de certos temas da atualidade. Seguem curtas referências da vida e obra de alguns desses sociólogos. René Worms (1869-1926), professor de Direito em Caen (1897-1902) e do Instituto Comercial de Paris (1902); de Sociologia na Escola de Altos Estudos Sociais; auditor do Conselho de Estado; fundador da Revista Internacional de Sociologia (1893), é considerado adepto da Escola organicista (o organismo como modelo para caracterizar a estrutura, as funções e a evolução sociais). Worms é autor, entre outros, de Organismo e Sociedade (1896), Filosofia das Ciências Sociais, em três volumes (1903-07), e La Sociologie: sa nature, son contenu, ses attaches (1921). René Maunier (1887-1946), jurista e etnólogo, atuante no Instituto Internacional de Sociologia, foi autor de L‘Origine et la fonction économique des villes (1910), Sociologie et Économie Politique (1910), La Localisation des industries urbaines, Les formes primitives de la ville, Vie Religieuse et Vie Économique. La division du Travail, Introduction à la Sociologie (1929), Essai sur les Groupements Sociaux. Na Escola Prática de Altos Estudos (1907-11), manteve contatos com diversos colaboradores (Mauss, Halbachs) da revista Année Sociologique e daria curso, a partir de 1925, de Introdução à Sociologia. Associado a Worms, colaboraria (1907/12) na Revista Internacional de Sociologia. Paul Descamps (1873-1946), adepto da Escola de Le Play, autor dos estudos: As Três Formas Essenciais da Educação e A Educação nas Escolas Inglesas, e dos livros La Sociologie Expérimentale (1924), L‘Etat social des peuples sauvages (1930), Le Portugal: La vie sociale actuelle (1935). Lucien Lévy-Bruhl (1857-1939), professor de Filosofia, de 1879 a 1882, no Liceu de Poitiers, e de 1882 a 1885 do Liceu de Amiens, doutor em Filosofia, com a tese A Ideia da Responsabilidade. Professor do Liceu Louis le Grand (1885/95), foi nomeado diretor de estudos da Sorbonne em 1900, assumindo, em 1902, a cadeira de História da Filosofia. Sob a influência do pensamento sociológico de Durkheim, procurou elaborar uma ciência dos costumes, em que a moral, relativa, seria determinada pelas épocas históricas. Para tanto, estudou as sociedades primitivas. De suas obras, podem ser selecionadas: A Filosofia de Augusto Comte (1900), A Moral e a ciência dos costumes (1903), As Funções mentais nas sociedades inferiores (1910), A Mentalidade Primitiva (1922), 392 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO A Alma primitiva (1927), O Sobrenatural e a mentalidade primitiva (1931) e A Experiência mística e os símbolos entre os primitivos (1938). Albert Bayet (1880-1961), professor na Sorbonne, defensor e propagandista do movimento laico na França, autor de La Morale Laïque et ses Adversaires (1925) e La Science des faits moraux (1925). Após a Guerra, Bayet contribuiria para a criação de centros de estudos, tornando-se professor da recém-criada Escola Prática de Altos Estudos (EPHE), e escreveria Laïcité aux XXème siècle (1958). Uma rua no XIII arrondissement de Paris tem seu nome. Jean Stoetzel (1910-1987), professor em Bordeaux, introdutor, na França, do método de aferição de sondagem de opinião, fundador do Instituto Francês de Opinião Pública e da Revista Sondage, escreveria sobre o assunto Théorie des Opinions (1943). Georges Gurvitch (1894-1965), nascido na Rússia, e naturalizado francês em 1928, especialista em Sociologia do conhecimento, bastante atuante e muito influente no Pós-Guerra, escreveu, neste primeiro período, Essais de Sociologie (1938), Éléments de Sociologie Juridique (1940), e Sociologia do Direito (1942). 7.7.2.2 Segundo Período Diante de uma nova realidade social e política de uma França Pós-Guerra, a tarefa prioritária seria identificar e remover os obstáculos sociais a seu crescimento e à sua modernização, de forma a permitir a reconstrução da Sociologia francesa, por meio da criação de uma nova estrutura de ensino e pesquisa e do início da edificação institucional que permitisse e favorecesse seu desenvolvimento. Os primeiros anos deste período seriam dedicados a essa obra de reconstrução: em 1945, foram criados o Instituto Nacional de Estudos Demográficos (INED) e a Fundação Nacional de Ciências Políticas (FNSP). Em 1946, o Instituto Nacional de Estatística e de Estudos Econômicos (INSEE), e, em 1947, a sexta seção (Ciências Econômicas e Sociais) da Escola Prática de Altos Estudos (EPHE). Na mesma época, seriam fundados, por Jean Stoetzel, o Instituto Francês de Opinião Pública (IFOP); por Georges Gurvitch, em 1946, o Centro de Estudos Sociológicos (CES), anexo ao Centro Nacional de Pesquisa Científica (CNRS), criado pouco antes da Guerra, e lançada a revista Cahiers Internationaux de Sociologie (1946); e por Georges Friedmann, o Instituto de Ciências Sociais do Trabalho (ISST), em 1953205. Ainda nos 205 CUIN, Charles-Henry; GRESLE, François. Histoire de la Sociologie. 393 CARLOS AUGUSTO DE PROENÇA ROSA anos 50, além da cooperação da UNESCO, contariam os centros de estudo de Sociologia com o financiamento de instituições francesa (Renault) e americanas (Ford, Kodak, Rockefeller), o que lhes permitiria assegurar condições de estudos e pesquisa. Numerosos estudantes franceses do CES, sob direção de Friedmann, seriam contemplados com bolsas de estudos para cursos nos EUA (Crozier, Boudon, Mendras). Nessa fase de reconstrução, contundentes críticas à influência americana e à pretensão da Sociologia de se emancipar da Filosofia e da História, por parte de importantes e significativos segmentos dos meios acadêmicos, conturbariam o ambiente universitário e seriam um óbice para o desenvolvimento das pesquisas. Nesse sentido, os estudos mais representativos seriam do domínio do trabalho, como Problèmes humains du machinisme industriel, de Georges Friedmann (1947), Les Syndicats en France, de J. D. Reynaud, L’Évolution du travail ouvrier aux usines Renault, de Alain Touraine (1955), e da religião, como Études de Sociologie religieuse, de Gustave Le Bras (1955). Uma nova etapa se abriria, a partir do final dos anos 50, com a maior participação do Estado no processo de reconstrução e a iniciativa de algumas personalidades. Em 1958, graças aos esforços do sociólogo Raymond Aron, seria instituído o doutorado de Sociologia nas novas Faculdades de Letras e Ciências Sociais. Três publicações científicas seriam lançadas: em 1959, a revista Sociologia do Trabalho (Friedmann, Stoetzel), e, em 1960, a Revista Francesa de Sociologia (Stoetzel) e Arquivos Europeus de Sociologia (Aron, de Dampierre). Em 1962, seria fundada a Sociedade Francesa de Sociologia (depois Instituto Francês de Sociologia). Adicionalmente, pode ser citada, ainda, a criação de institutos de pesquisa, como o Laboratório de Sociologia Industrial (1958), por Alain Touraine, o Centro de Sociologia Europeia (1959), por Raymond Aron, e o Grupo de Sociologia das Organizações (1966), por Michel Crozier. Em 1968, já havia 26 centros de pesquisa, com 582 pesquisadores e auxiliares. A exemplo do que ocorreria em outros países, a profissionalização do sociólogo e o crescente e continuado interesse público e privado nas pesquisas de campo seriam um incentivo à expansão da atividade sociológica, a qual se transformaria, em muitos casos, num instrumento de exame de problemas sociais, segundo a ótica dos interesses dos agentes financiadores das pesquisas. Sociologia do trabalho, Sociologia das organizações e Sociologia urbana seriam as áreas mais estudadas, em vista das questões sociais mais prementes da sociedade francesa no período. Além de Albert Bayet, autor de Laïcité au XXème siècle e de Georges Gurvitch (1894-1965), sociólogo importante no Pós-Guerra, quando dirigiria o Centro de Estudos Sociológicos, embrião da sexta seção 394 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO da Escola Prática de Altos Estudos (EPHE), depois chamada de Escola de Altos Estudos Sociais (EHES), e escreveria La vocation actuelle de la Sociologie (1950), Le concept de classes sociales de Marx à nos jours (1954), Determinismes sociaux et liberté humaine (1955), Dialectique et Sociologie (1962) e Traité de Sociologie (1960), outro importante sociólogo no processo de institucionalização da Sociologia na França foi Georges Friedmann. Georges Friedmann (1902-1977), um dos iniciadores da Sociologia do trabalho na França com sua tese (1947) Problemas Humanos do Maquinismo Industrial, dedicou a maior parte de seus estudos ao exame das relações trabalhistas e do homem com a máquina na Sociedade industrial. Ingressou na Escola Normal Superior em 1921. Nos anos 30, estudou russo e visitou (1932 e 1936) a URSS, e durante a Guerra, participou da resistência aos invasores. Intelectual marxista, mas crítico do stalinismo, demonstraria sua decepção e suas críticas à União Soviética em La Sainte Russie à l’URSS (1938). Teve importante papel na institucionalização da Sociologia na França, dirigindo o Centro de Estudos Sociológicos, criado por Gurvitch. Fundou, em 1953, o Institut des Sciences Sociales du Travail, e, em 1955, a Revue Sociologie du Travail. Friedmann é autor, entre outros livros, de Crise du Progrès (1936), Où Va le Travail Humain? (1950), Villes et Campagne (1953), Le Travail en miettes (1956), Traité de Sociologie, Traité de Sociologie du Travail (em colaboração com Pierre Naville, 1961-62), Sete Estudos sobre o Homem e a Técnica (1966) e La Puissance et la Sagesse (1970). Maurice Duverger (1917), professor da Faculdade de Direito e Ciências Econômicas de Paris, em seus estudos sociológicos procurou inserir os problemas jurídicos no processo político e social. Assim, estudou temas políticos, como os partidos, as constituições, os regimes políticos. Escreveu Les Partis Politiques (1951), Méthodes de la Science Politique (1959), De la dictadur (1961), Introduction à la Politique (1964), Les Regimes Politiques e Les Constitutions de la France. Roger Bastide (1898-1974) estudou no Liceu de Nîmes de 1908 a 1915, mas os estudos seriam interrompidos por seu ingresso no exército, no qual atuou como telegrafista durante a Guerra. Em 1919, concluiu os estudos para a Escola Normal Superior e obteve bolsa da Universidade de Bordeaux, onde seguiria o curso de Sociologia, de Gaston Richard. Em 1921, escreveria seu primeiro artigo: Patronat social et christianisme social. Permaneceria anos como professor de liceus: Clamec, Cahors, Lorient e Valence, período em que escreveu Mysticisme et Sociologie e Les Problèmes de la vie mystique, ambos de 1931, e Éléments de sociologie religieuse. Em 1937, ensinaria em Versailles, quando escreveu Les équilibres socio-religieuses. 395 CARLOS AUGUSTO DE PROENÇA ROSA Convidado para substituir Lévy-Strauss, ocuparia a cadeira de Sociologia na recém-criada Universidade de São Paulo, onde ensinaria desde o início do ano letivo de 1938 até final de 1951. De 1952 a 1954 voltaria ao Brasil para cursos e conferências. Sobre a cultura brasileira, Bastide escreveu um grande número de artigos e livros, como O Candomblé da Bahia, As religiões africanas no Brasil e As Américas negras: as civilizações africanas no Novo Mundo. Claude Lévy-Strauss (1908-2009), belga de nascimento, estudou Direito e Filosofia na Sorbonne. Em 1935, aceitou o convite para integrar missão cultural francesa, na qual serviria como professor-visitante da Universidade de São Paulo. Lévy-Strauss permaneceria no Brasil quatro anos, visitaria a Amazônia e o Pantanal, e estudaria algumas tribos indígenas, o que seria determinante para sua resolução de se dedicar à Antropologia. De regresso à França, em 1938, permaneceria no país até o armistício, viajando para os EUA (1940-44), quando se familiarizaria com a Antropologia americana, por meio de Roman Jakobson, Franz Boas e outros antropólogos americanos. Em 1948, recebeu o doutorado da Sorbonne, com suas teses As Estruturas Elementares do Parentesco e A Vida familiar e social dos índios Nambikwara. Professor de Antropologia social do Collège de France (1959/82), é considerado o fundador da Antropologia estrutural ao introduzir o método estruturalista na Antropologia, isto é, descobrir as estruturas que sustentam os valores e costumes de uma sociedade, os quais explicam as semelhanças e as diferenças entre as culturas, sendo autor de Les Structures élémentaires de la parenté (1949), Race et Histoire (1952), Anthropologie structurale (1958), Le Totemisme aujourd’hui (1962) e Anthropologie structurale deux (1973). Os estudos relacionados diretamente com sua experiência no Brasil são A Vida familiar e social dos índios Nambikwara, Tristes Tropiques (1955), La Pensée sauvage (1962), Le Cru et le Cuit (1964), Du Miel aux Cendres (1966), L’ Origine des manières à la table (1968) e L’ Homme Nu (1971), nos quais procura retratar uma sociedade sem o romantismo e a exaltação que caracterizaram pesquisadores e viajantes do passado. Raymond Aron (1905-1983), após terminar seus estudos no Liceu Condorcet, ingressou na Escola Normal Superior, onde estudaria (1924/28) Filosofia, concluindo seu doutorado. Prosseguiria, de 1930 a 1933, seus estudos na Alemanha (Colônia e Berlim) e permaneceria em Paris até o início da Grande Guerra. De volta à França, lecionou na Escola Nacional de Administração (1945-47) e no Instituto de Estudos Políticos de Paris (1948-54). De 1955 a 1968, foi professor de Sociologia da Sorbonne. De 1960 a 1983, diretor de estudos da Escola Prática de Altos 396 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO Estudos (EPHE). E, a partir de 1970, professor do Colégio da França. Aron é autor de Introduction à la Philosophie de l’Histoire (1938), Les Guerres en chaine (1951), L’ Opium des Intelectuels (1955), de crítica ao totalitarismo dos regimes marxistas, La Tragédie Algérienne (1957), em defesa da independência da Argélia, Dix-Huit Leçons sur la Société Industrielle (1962), Paix et guerre entre les nations (1962), La Lutte de Classes, Nouvelles Leçons sur les Societés Industrielles (1964), Démocratie et Totalitarisme (1965), Trois Essais sur l’âge industriel (1966), As Etapas do Pensamento Sociológico (1967) e Republique Impériale: Les États Unis dans le Monde 1945-1972 (1973), contra as críticas da esquerda francesa aos EUA. Pierre Naville (1904-1993), sociólogo engajado politicamente na linha trotskista, que abandonaria antes da Guerra, procuraria criar, na França, uma esquerda marxista, sem os desvios stalinistas, com a criação do Partido Socialista Unificado. No campo da Sociologia, escreveu bastante sobre a área do trabalho e das relações laborais. Dentre suas obras sociológicas, caberia mencionar La Vie de Travail et ses problèmes (1954), Essai sur la qualification du travail (1956), L’Automaion et le travail humain (1961), Traité de Sociologie du Travail (1961/62), Vers l’automatisme social (1963), Sociologie d’aujourd’hui (1981) e La maîtrise du travail (1984). Jean Cazeneuve (1915-2005), pesquisador do Centro Nacional de Pesquisa Científica (CNRS), de 1959 a 1966, professor de Sociologia da Sorbonne (1966), membro da Academia de Ciências Morais e Políticas, primeiro presidente da ORTF (1964-74) e da TF1 de 1974 a 1978, integrante do Centro de Estudos Diplomáticos e Estratégicos, do qual foi Presidente, autor de L’Avenir de la morale (1998), Sociologie de la radiotélévision (1963), Du Calembour, du mot d’esprit (1996), La Sociologie (1970), Les Pouvoirs de la télévision (1970), Sociologie du rite (1971), Dix grands notions de la Sociologie (1976), Les Communications de masse (1976) e La Personne et la Société (1995). Paul-Henri Chombart de Lauwe (1913-1998), conhecido por sua Sociologia urbana e da vida quotidiana, formulou a chamada teoria da aspiração coletiva, e é autor de Paris et l’agglomération parisienne (1952), La Vie Quotidienne des Familles Ouvrières (1963), La Femme dans la Société (1963), Pour une Sociologie d’Aspirations (1969), Aspirations et Transformations Sociales (1970), Des Hommes et des Villes (1970), Transformations Sociales et Dynamique Culturelle (1981). Julien Freund (1921) obteve seu doutorado na Sorbonne, em 1965, no que foi escolhido para professor de Sociologia na Universidade de Estrasburgo, onde assumiria depois da Faculdade de Ciências Sociais. Freund ensinaria de 1973 a 1975 no Collège d’Europe, em Bruges, e 397 CARLOS AUGUSTO DE PROENÇA ROSA contribuiria para a revista de extrema-direita Nationalisme et République. Sua obra está influenciada principalmente pelo pensamento de Weber e Pareto, tendo escrito sobre esses sociólogos: La Sociologie de Max Weber (1966), que fez muito sucesso e foi traduzido para o inglês, Max Weber (1969), Pareto: la théorie de l’ équilibre (1974), e Études sur Max Weber (1990). Escreveu, ainda, entre outro livros, Utopie et Violence (1978), Philosophie et Sociologie (1984) e D’ Auguste Comte à Max Weber (1992). Michel Crozier (1922), doutor em Direito, em 1949, professor de Sociologia na Universidade de Paris X – Nanterre (1967-68), estágios na Universidade de Stanford (1959-60 e 1973-74), membro da Academia de Ciências Morais e Políticas, fundador, em 1961, do Centro de Sociologia das Organizações (transformado, em 1976, em laboratório do Centro Nacional de Pesquisa Social – CNRS), formulador, com Erhard Friedberg, da análise de estratégia em Sociologia das Organizações (aplicação da Sociologia ao estudo das organizações). Crozier é autor de Petits fonctionnaires au travail (1955), Le Phénomène bureaucratique (1963), Le Monde des employés de bureau (1965), La Société bloquée (1971), L’Acteur et le système (1977, em colaboração com Erhard Friedberg), Le Mal américain (1980), État modeste, état moderne, Stratégies pour un autre changement (1986), L’Entreprise à l’écoute (1989), La Crise de l’intelligence (1995) e A quoi sert la Sociologie des Organisations? (2000). Jean Daniel Reynaud (1926) ingressaria como pesquisador no Centro Nacional de Pesquisa Científica (CNRS) em 1950, trabalhando no Centro de Estudos Sociológicos, dirigido por Georges Friedmann, sob a influência metodológica americana. Em 1944, fundaria, com Crozier e Touraine, a revista Sociologie du Travail. Professor de Sociologia do trabalho, Reynaud, particularmente interessado na análise do processo de barganha e de resolução de conflito nas relações industriais, elaboraria, nos anos 70-80, sua teoria da regulação social, sobre a criação e transformação das regras sociais por meio da ação coletiva, isto é, como as regras podem permitir a um grupo social se estruturar e preparar uma ação coletiva. Les Syndicats en France (1963/75), Tendances et volontés de la societé française (1966), Les Syndicats, les patrons et l’État (1978), Sociologie des conflits du travail (1982), Les Règles du Jeu. L’action collective et la régulation sociale (1989) são algumas de suas obras mais conhecidas. Pierre Bourdieu (1930-2002), professor de Filosofia, Diretor da Escola de Altos Estudos Sociais (1964-80), diretor da revista Actes de la Recherche en Sciences Sociales, catedrático de Sociologia no Collège de France (1981), fundaria, em 1996, editora para a divulgação de livros de críticas 398 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO ao neoliberalismo. Com grande influência no meio intelectual e estudantil, Bourdieu analisaria, em suas obras, os mecanismos de reprodução das hierarquias sociais, em que reconhece a importância dos fatores culturais e simbólicos. Crítico da teoria marxista do primado dos fatores econômicos, aplicaria sua Teoria dos campos sociais aos diversos setores da sociedade, como Arte, Banca, Igreja, Patronato. Três conceitos básicos de sua obra: poder simbólico (mecanismo para a imposição da dominação), campo (espaço da competição social) e habitus (princípio da ação dos atores). Bourdieu é autor de Les Héritiers (1964), La Reproduction (1970) com Jean-Claude Passeron, de crítica ao sistema de ensino superior francês, La Distinction, Critique sociale du jugement (1979), considerada sua obra principal, Le Sens Pratique (1980), La Noblesse d’État (1989), Langage et Pouvoir Simbolique (1989), La Misère du Monde (1992), de denúncia da desigualdade social, Les Règles de l’ Art (1992) sobre o contexto social do autor e La Domination Masculine (1998). Raymond Boudon (1934), professor da Sorbonne (2002), diretor do Grupo de Estudos dos Métodos de Análise Sociológica (GEMAS), membro do Instituto de França (1990) e do recém-criado Alto Conselho da Ciência e da Tecnologia (2006). Nos anos 60, nos EUA, colaboraria com Paul Lazarsfeld. Influenciado pelas correntes teóricas da sociologia americana, de análise quantitativa, publicaria, em 1967, sua tese A Análise Matemática dos Fatos Sociais. Outras obras: À quoi sert la notion de structure? (1968), La Méthode en Sociologie (1969), Les Mathématiques en Sociologie (1971), L’Inégalité des Chances (1973), La Mobilité sociale dans les sociétés industrielles (1973), Effets Pervers et Ordre Social (1977), La Logique du Social (1979), Dictionnaire Critique de la Sociologie (1982) com François Bourricaud, La Place du desordres, Critique des théories du changement social (1984), L’Idéologie (1986), Le Juste et le Vrai (1995) e Le Sens des Valeurs (1999). Jean Baudrillard (1929-2007), intelectual, participante do movimento estudantil de maio de 1968, ficou conhecido por suas críticas à sociedade de consumo em seus estudos sobre o impacto da comunicação e da mídia na sociedade e nas culturas contemporâneas, bem como do desenvolvimento da tecnologia. Professor de Sociologia em Nanterre (1968), sustentaria que produtos, tecnologia e mídia criam um universo de ilusão e fantasia, no qual os indivíduos são dominados por valores do consumidor, ideologias da mídia e tecnologias sedutoras. Baudrillard é autor de Le Système des objets (1968), La Société de consommation (1970), Le Miroir de la production (1973), La Consommation des signes (1976), À l’Ombre des majorités silencieuses (1978), Simulacre et simulation (1981), La Guerre du golf n’a pas eu lieu (1991), La Pensée radicale (1994). 399 CARLOS AUGUSTO DE PROENÇA ROSA Henri Mendras (1927-2003), fundador da Sociologia rural na França, ingressou, em 1949, no Centro de Estudos Sociológicos. Bolsista na Universidade de Chicago, se entusiasmou com o Ensino superior americano e com a metodologia sociológica. De regresso à França, retornou ao CES e escreveu Éléments de Sociologie (1967). Ainda em 1967, escreveu La Fin des Paysans, no qual acentuou futuros aspectos negativos do fenômeno tecnológico e econômico, e esboçou quadro negativo sobre a realidade da sociedade camponesa ocidental. A partir de 1980, se dedicaria mais ao estudo da sociedade global europeia, e, em 1988, escreveria La Seconde révolution française 1965-1984. Alain Touraine (1925) permaneceria nos anos 1952-53 nos EUA (Universidades de Harvard, Nova York e Chicago) como bolsista da Fundação Rockefeller. Touraine criou o Fundo de Pesquisa para a Sociologia do trabalho, da Universidade do Chile (1956), e, em 1958, o atual Centro para o Estudo de Movimentos Sociais. Em 1960, ingressou como pesquisador da Escola de Altos Estudos em Ciências Sociais. Dos mais influentes sociólogos franceses da segunda metade do século XX, Touraine, numa primeira etapa, dedicou-se à Sociologia do trabalho, na base de pesquisas de campo na América Latina, seguindo-se estudos sobre os acontecimentos de maio de 1968 nas universidades francesas, golpes militares em diversos países latino-americanos e o movimento de solidariedade na Polônia; numa terceira etapa, a estudos sobre os movimentos sociais. Seus trabalhos se baseiam na sociologia da ação, que sustenta a sociedade evoluir por meio de mecanismos estruturais e suas próprias lutas sociais. Suas mais conhecidas obras são: L’Évolution du travail aux Usines Renault (1955), Sociologie de l’Action (1965), La Conscience Ouvrière (1966), La Société Post-Industrielle (1969), Production de la Société (1973), Pour la Sociologie (1974), Lutte étudiante (1978), La Voix et le Regard (1981), em que desenvolveu seu método de pesquisa de intervenção sociológica, Le Mouvement ouvrier (1984), Le Retour de l’ Acteur: Essai de Sociologie (1984), Solidarité: Analyse d’ un mouvement social (1993), Comment sortir du libéralisme? e Un nouveau paradigme: Pour comprendre le monde d’aujourd’hui. Henri Lefebvre (1901-1991), membro do Partido Comunista Francês (1928-58), participou da resistência francesa durante a Segunda Guerra Mundial. Em 1961, assumiu a cátedra de Sociologia da Universidade de Estrasburgo, e, em 1965, a da Faculdade de Nanterre. Dentre suas diversas obras, caberia ressaltar Critique de la vie quotidienne. Fondements d’une Sociologie de la quotidianneté (1961), La vallée de Campan – étude de Sociologie Rurale (1963), Sociologie de Marx (1968), Le Droit à la ville (1968), La Révolution urbain (1970), The Survival of Capitalism (1973) e La Production de Space 400 A CIÊNCIA E O TRIUNFO DO PENSAMENTO CIENTÍFICO NO MUNDO CONTEMPORÂNEO (1974), sendo estas duas últimas as mais representativas do pensamento de Lefebvre. Em suas obras, tratou das questões da vida quotidiana, dos problemas urbanos e da urbanização da sociedade. Michel Foucault (1926-1984), licenciado em Filosofia (1948) e em Psicologia (1949) pela Sorbonne. Das suas obras com dimensão sociológica, em que aborda o tema do poder, podem ser citadas A História da Loucura (1981), As Palavras e as Coisas (1966), A Arqueologia do Saber (1969), A Sociedade Punitiva (1972), Vigiar e Punir (1975) e Do Governo dos vivos (1979). Nicos Poulantzas (1936-1979), grego de nascimento, membro do Partido Comunista Grego, exilou-se na França em 1960, onde lecionaria, até sua trágica morte (suicídio). Escreveu Lógica dialética e Lógica moderna (1966), Fascismo e Ditadura (1971), As classes sociais no capitalismo contemporâneo (1974), A Crise da Ditadura (1975) e Estado, Poder e Socialismo (1978). Renaud Sainsaulieu (1935-2002