UNIVERSIDADE DE SÃO PAULO Observatório Dietrich Schiel TEXTOS PARA O PROFESSOR - Textos de apoio e atividades - Ano letivo de 2012 - CURSO: Parceria entre professor e centro de ciências: inserção de tópicos de física moderna a partir da física solar no ensino médio. Este texto é parte integrante da tese de doutoramento de Pedro Donizete Colombo Junior (Processo FAPESP #2010/16843-9). Programa de Pós Graduação Interunidades em Ensino de Ciências da Universidade de São Paulo. Citação (Tese): COLOMBO JUNIOR, P. D. Parceria entre professor e centro de ciências: inserção de tópicos de física moderna a partir da física solar no ensino médio. Apostila com sínteses dos textos utilizados no curso de aperfeiçoamento docente. Tese de doutoramento (Apêndice), Observatório Dietrich Schiel, São Carlos, Maio a Agosto, 2012. Disponível em: <http://www.cdcc.usp.br/cda/producao/index.html>. Acesso em: __ de _____ de 20__. São Carlos - 2014 1 ÍNDICE Tema 1: Centros de Ciências e Educação Não Formal .............................................................. 3 Tema 2: Inovações Curriculares e Sequências de Ensino Aprendizagem. ................................ 7 Tema 3: Transposição Didática de Conteúdos Científicos. ..................................................... 11 Tema 4: Radiação de corpo negro ........................................................................................... 17 Tema 5: Radiações - α, β e γ .................................................................................................... 27 Tema 6: O átomo de Bohr e a Espectroscopia ......................................................................... 33 Tema 7: Aspectos gerais de Física Solar ................................................................................. 46 Tema 8: Energia Solar ............................................................................................................. 53 Tema 9: Dimensões e Distâncias Relativas Sol-Terra............................................................. 55 2 Tema 1: Centros de Ciências e Educação Não Formal Pedro Donizete Colombo Junior [email protected] 1. Alguns aspectos da história dos museus Em geral, há um preconceito muito grande com relação à palavra museu, que é geralmente associada a coisas do passado. O termo museu vem do latim Museum que por sua vez, deriva do grego Mouseion, denominação, na Grécia Antiga, do templo ou santuário das musas, um local de inspiração para artistas, onde se podia desligar do mundo cotidiano (WITTLIN apud GASPAR 1993, p. 6). Presume-se que a primeira instituição do gênero foi o Museu de Alexandria criado por Ptolomeu, onde trabalharam vários estudiosos, tais como: Euclides, Arquimedes, Apolonius de Perga e Eratóstenes. A associação do termo museu com a ideia de local onde há coleções ocorreu alguns séculos depois. Algumas destas coleções eram voltadas para pesquisas científicas, por exemplo, as coleções de espécimes animais e vegetais obtidas durante as campanhas de Alexandre e utilizadas por Aristóteles. Durante a Idade Média, ao menos na Europa Ocidental, as coleções passaram a ser muito valiosas, atestando fortuna e garantindo poder, em uma época em que não se tinha sistema bancário e uma moeda estável. As coleções não eram exibidas ao público, que somente podia apreciar as obras de arte exibidas na igreja, que tinham forte cunho religioso embutido. Com o aumento das coleções, surgiu a necessidade de um local para exposição, aparecendo então às galerias, as quais eram salas compridas e estreitas (GASPAR 1993, p. 8). Na época renascentista, estas galerias se tornaram local de estudos e reflexões. Hoje em dia designamos estas galerias pela palavra museus provavelmente por este tipo de local ter a mesma função que os templos das musas do período helênico (LEWIS apud GASPAR 1993). No decorrer da história, o aumento do número de museus e consequentemente das coleções (obras de arte, quadros...), trouxeram consigo a ideia de depósito de antiguidade, local onde as obras podiam ser guardadas com segurança. Nesta época e por muito tempo, não se tinha uma preocupação com a educação nestes locais. No início do século XX, com a expansão dos museus pelo mundo (Europa, Ásia, EUA) começou a se tornar explícita, a necessidade de haver uma abordagem educacional nos museus, uma vez que o número de visitantes aumentava consideravelmente (MAURÍCIO 1992). Como aponta Gaspar (1993), o aumento do número e a maior proximidade dos museus com o público leigo em geral, fez com que passassem também a ser espaços de divulgação científica. Com isso, muitos museus adotaram a denominação centros de ciência ou denominação equivalente, como: museu vivo, museu de ciências. Uma possível explicação para este crescente aumento na procura aos centros de ciências deve-se ao fato de se tentar buscar alternativas para o ensino de ciências. Uma vez que em um centro de ciências, dispõe-se um ambiente rico em experimentos, demonstrações e informações, os quais muitas vezes, se perdem em situações de ensino formal (JULIÃO 2004). Os centros de ciências surgiram com o intuito de apagar a ideia de que a ciência esta afastada do cotidiano, que é de difícil compreensão. Possibilitaram ao público falar, ouvir, visualizar e tocar objetos e aparatos experimentais, ou seja, possibilitaram uma interação ativa com o público visitante. São também janelas onde se vislumbram imagens de como poderia ser o mundo, em um futuro cada vez mais tecnológico. Enfim, como afirma Blanco (apud MARANDINO 2008) às pesquisas com 3 público em museus e centros de ciências são recentes, tendo início em vários países na primeira metade do século XX. Hoje vemos que um grande desafio para os museus e centros de ciências da atualidade é desenvolver estratégias de comunicação das ciências que entusiasme o visitante e ao mesmo tempo promova a difusão da ciência para todos. 2. Refletindo sobre a parceria entre centros de ciências e ambiente escolar. Não é difícil perceber que a escola sozinha não consegue dar conta da crescente gama dos progressos científicos e tecnológicos atuais. Não há tempo e nem espaço em seus limitados currículos e programas. Em geral a ciência ensinada nas escolas é vista pelos alunos como ultrapassada e sem graça, sendo frequentemente desmotivados pela forma com que ela é apresentada. Para Falk e Dierking (2000), o aprendizado compreende um diálogo entre o indivíduo e os contextos pessoal, sociocultural e físico em que está inserido. Como na escola muitas vezes não existe este diálogo, nem mesmo contextualização do que é ensinado, o aluno acaba não incorporando o que está sendo estudado e esquece rapidamente o que lhe foi ensinado. A inconformidade com esta realidade tem levado muitos indivíduos e instituições de ensino a procurarem outras formas de ensinar ciências. Assim a educação formal, ou escolar, vem sendo crescentemente complementada por outros ramos de educação, como educação não-formal e informal. Os PCN+ evidenciam a necessidade de o professor constantemente promover e interagir com meios culturais e de difusão científica, seja por meio de visitas a museus científicos ou tecnológicos, planetários ou exposições (BRASIL 2002). Visitas a museus e centros de ciências oferecem a possibilidade de suprir, pelo menos em parte, algumas das lacunas deixadas pela escola tradicional e pela formação inicial dos professores. As relações entre professores e centros de ciências podem possibilitar inúmeras transformações no trabalho escolar, seja por meio de uma interpretação mais crítica de conteúdos curriculares específicos ou pelo viés de formas diferenciadas de se abordar determinado conceito científico (JACOBUCCI 2006). O preparo das atividades de visitação em parceria com professores aumenta as chances de aprendizado dos alunos e ainda promove um maior envolvimento dos estudantes durante as visitas (GRIFFIN 2004). Neste contexto, é fundamental que o professor adquira o hábito de preparar suas atividades em parceria com educadores dos locais em que deseja visitar. Hoje, ainda existe pouca comunicação entre professor e educador de centro de ciências, o que torna difícil incorporar o que foi mostrado nestes locais ao currículo escolar (TRAN 2007). Pesquisas sobre centro de ciências mostram que as atitudes dos professores e educadores de museus uns com os outros são bastante relevante para o desenvolvimento da visita de grupos escolares a centros de ciências (COLOMBO JR. et. al 2007). Os centros de ciências seduzem e causam provocações raramente vivenciadas em salas de aula. Por abordarem na maioria das vezes de modo particular os conteúdos científicos, seja por meio de exposições interativas ou atividades “hand on”, estes locais passaram a ser vistos por educadores e professores da área de ensino de ciências como instituições capazes de propiciar um importante suplemento ao ensino promovido nas escolas. Centros de ciências são instituições que vêm sendo caracterizadas como locais que possuem uma forma própria de desenvolver sua ação educativa. No Brasil grande parte dos pesquisadores classifica os centros de ciências como locais de educação nãoformal. Por outro lado, em muitos países de língua inglesa o termo ensino não-formal não é muito conhecido e os pesquisadores adotam outras denominações, como educação 4 informal, educação comunitária ou pedagogia social (SMITH apud AROCA 2009). A educação formal (ou escolar) está bem definida, entretanto, a definição de educação não-formal e informal é muito discutida, sendo muitas vezes utilizados de modo não consensual. Mas afinal quais seriam as características básicas, ou como definir, cada categoria de educação? Para responder a esta questão, um documento clássico da UNESCO (1972) intitulado “Aprendendo a ser”, levou à categorização tri-partidária do sistema educacional. • A educação formal está hierarquicamente estruturada. É um sistema de educação cronologicamente graduado, indo desde a escola primária à universidade, incluindo os estudos acadêmicos e uma variedade de programas especializados e de instituições de treinamento técnico e profissional. • A educação não-formal pauta-se de uma atividade organizada fora do sistema formal de educação, operando separadamente ou como parte de uma atividade mais ampla (complementar), que pretende servir a clientes previamente identificados como aprendizes e que possui objetivos de aprendizagem. • A educação informal pode ser entendida como um verdadeiro processo realizado ao longo da vida, em que cada indivíduo adquire atitudes, valores, competências e conhecimentos a partir da experiência cotidiana e as influências educativas e de recursos em seu ambiente – a partir da família, do trabalho, do lazer e das diversas mídias de massa. Em meio a tantas definições para a educação que ocorre em centros de ciências, muitos pesquisadores têm buscado maneiras de avaliar a aprendizagem nestes espaços. Dentre eles, Falk e Dierking (1992, 2000) elaboraram um modelo de aprendizagem, o “Modelo Contextual de Aprendizagem” que considera a aprendizagem sob a perspectiva dos visitantes. Neste sentido os autores estabelecem que todas as visitas a um museu de ciência envolvem três contextos: o pessoal, o sociocultural e o físico (Figura 1). Para eles estes contextos são a janela através da qual podemos visualizar a perspectiva do visitante durante uma visita a um centro de ciências. Perfazendo os contextos, encontramos também a dimensão temporal, a qual sugere que, ainda que no momento da visita algo fique incompreensível para o visitante, as recordações de suas experiências durante as visitas podem contribuir para o aprendizado futuro. Figura 1: O Modelo Contextual de Aprendizagem (FALK e DIERKING 2000, p. 12). 5 O contexto pessoal é único para cada indivíduo, cada visitante chega ao centro de ciências com uma agenda pessoal, com um conjunto de expectativas e motivações próprias, que serão decisivas e irão influenciar seu aprendizado dentro deste espaço. O contexto social se faz importante no caminhar dos visitantes por dentro das exposições, onde na maioria das vezes ocorrem diálogos entre os mediadores e visitantes e entre os próprios visitantes, sempre na busca de um sentido pessoal para o que estão vendo, ouvindo ou lendo. Por fim, o contexto físico é decisivo no comportamento dos visitantes, pois tudo que o visitante observa e guarda na memória é fortemente influenciado pelo contexto físico. Em determinados momentos, devido à história de vida do visitante e de outros fatores intrínsecos, um ou outro contexto pode assumir maior importância e influenciar mais o visitante. 3. Bibliografia Consultada AROCA, S.C., Ensino de física solar em um espaço não formal de educação, Tese de Doutorado, Instituto de Física de São Carlos, USP, São Carlos, 2009. BIANCONI, M. L. e CARUSO, F. Educação não-formal. Ciência e Cultura, Temas e Tendências, v.54, n.4, p.20, 2005. BRASIL, PCN+ Ensino Médio: Orientações Educacionais Complementares aos Parâmetros Curriculares Nacionais para o Ensino Médio. Ciências da natureza, Matemática e suas tecnologias. Ministério da Educação/Secretaria da Educação Média e Tecnológica, Brasília, 2002. FALK, J.; DIERKING, L. The museum experience, Washington: Whalesback Books, 1992. ___________. Learning from Museums. Visitor Experiences and the Making of Meaning, Lanham: Altamira Press, 2000, 288 p. FALK, J. Free-choice science education: how we learn science outside of school, New York: Teachers College Press, 2001, 226 p. GASPAR, A. Museus e Centros de Ciências – conceituação e proposta de um referencial teórico. Tese de doutorado. São Paulo: Faculdade de Educação, Universidade de São Paulo, 1993. GRIFFIN, J. Research on students and museums: looking more closely at students in school groups, Science Education 88 (Sup. 1): S59-S70, 2004. JACOBUCCI, D. F. C. A formação continuada de professores em centros e museus de ciências no Brasil. Tese de Doutorado, Faculdade de Educação, Universidade Estadual de Campinas, Campinas, 2006. MARANDINO et. al. A educação não formal e a divulgação científica: o que pensa quem faz? In: Atas do IV Encontro Nacional de Pesquisa em Ensino de Ciências - ENPEC, Bauru, 2003. TRAN, L. Teaching science in museums: the pedagogy and goals of museum educators. Science Education, v. 91, n. 2, p. 278-297, 2007. SMITH, M. Non formal education. The encyclopaedia of informal education, 1996. Disponível em: <http://www.infed.org/biblio/b-nonfor.htm>. Acesso em: 05 dezembro de 2011. 6 Tema 2: Inovações Curriculares e Sequências de Ensino Aprendizagem. Pedro Donizete Colombo Junior [email protected] 1. Inovações Curriculares e Sequências de Ensino e Aprendizagem (SEA) Quando se pensa em um processo de inovação curricular não se deve apenas considerar os conteúdos específicos a serem trabalhados, mas também as práticas docentes, visto que inovações curriculares podem produzir perturbações da ordem préestabelecida dos saberes, levantando indagações como: “Por que ensinar?”, “O que ensinar?”, “Como ensinar?” (BROCKINGTON e PIETROCOLA 2005). Em geral o saber docente é a chave para qualquer processo de inovação curricular, sendo, portanto, fundamental o envolvimento dos professores neste processo. Assim, para que uma inovação seja plenamente aceita no contexto escolar é necessário cuidar para que esta possa ser adaptada em função das restrições locais e também das limitações docentes. É fato que a inovação curricular carrega consigo riscos e dificuldades, uma vez que envolve a adequação e pertinência dos saberes ao sistema de ensino pré-estabelecido, muitas das vezes historicamente. Na última década do século XX e início deste século começaram a surgir no cenário das pesquisas em educação em ciências, uma série de propostas visando inovações de conteúdo curriculares, particularmente nos do âmbito da física (MÉHEUT e PSILLOS 2004, BROCKINGTON e PIETROCOLA 2005, SIQUEIRA 2006, VALENTE 2009). Méheut e Psillos (2004), por exemplo, enfatizam o fato de que as inovações de conteúdo são particularmente importantes no contexto dos currículos de ciências. Neste sentido, uma linha de pesquisa que remonta a década de 1980 envolve a concepção e implementação de estudos de pequena e média escala de tempo ao invés de concentrar em estudos tradicionais de longa duração. A característica destes estudos é tratar ao mesmo tempo pesquisa e desenvolvimento de atividades de ensino. Assim, a implementação desses estudos concentrados permitem gerar inovações curriculares em ensino de ciências e envolvimento de professores e pesquisadores por meio das chamadas Sequências de Ensino e Aprendizagem (SEA). A menção ao perfil de pesquisas em ensino de ciências relacionadas a Sequências de Ensino Aprendizagem encontra sua gênese nos trabalhos de Piet Lijnse (1994). Os trabalhos de Lijnse chamaram a atenção da comunidade européia quanto ao caráter de pesquisas em sequência de ensino. Lijnse argumenta que este tipo de atividade pauta-se de estudos de tópicos específicos que duram poucas semanas, em um processo de ciclo evolutivo iluminados por dados de pesquisa. Uma característica notável de uma Sequência de Ensino Aprendizagem, com fins de inovação curricular, é a sua inclusão em um processo de investigação baseado no processo evolutivo gradual, com o intuito de ligar o conhecimento científico à perspectiva do estudante, tentando preencher a lacuna existente entre os modelos científicos e as pré-concepções dos alunos quanto aos fenômenos naturais. Sequência de Ensino Aprendizagem pode ser usada como ferramenta de pesquisa e inovações curriculares, pois permite produzir conteúdos diferenciados dos encontrados em livros didáticos, englobando tanto o conhecimento científico quanto o saber docente. Os resultados obtidos com Sequências de Ensino Aprendizagem podem também ajudar 7 a superar obstáculos didático-pedagógicos presentes no ensino de física, resultando na distinção entre o que é essencial e periférico no ensino de um determinado tópico (LIJSNE e KLAASSEN 2004). Isto pode ser feito na medida em que conteúdos essenciais ganham uma nova abordagem a partir do momento de sua apresentação aos alunos em diferentes contextos, trazendo um significado do conteúdo para o aluno ao invés de ser visto apenas em sala de aula dentro de uma matéria específica. Na visão de Méheut e Psillos (2004) o processo de elaboração de Sequências de Ensino Aprendizagem aponta para dois pólos de interesse, dentro de um modelo que define quatro componentes básicos interligados: professor, alunos, mundo material e conhecimento científico. Os pólos igualmente importantes são classificados como: dimensão epistêmica e dimensão pedagógica, formando então o que as autoras denominaram de “losango didático” (Figura 2). A dimensão epistêmica considera os processos de elaboração, os métodos e a validação do conhecimento científico, já a dimensão pedagógica considera os aspectos relacionados ao papel do professor, às interações entre o professor e o aluno e entre o aluno e seus pares (VILELA et al 2007). Figura 2: “Losango didático” (MÉHEUT e PSILLOS 2004, p. 517). “[...] ao longo do eixo epistêmico, por exemplo, encontramos os pressupostos sobre os métodos científicos [...] a validação dos conhecimentos científicos que fundamentam a concepção da sequência. Ao longo do eixo pedagógico, encontramos opções sobre o papel do professor, tipos de interação entre professor e alunos [...] Ao longo do lado “Estudantes Mundo Material” colocamos as concepções de fenômenos físicos. [...] Atitudes dos alunos em relação ao conhecimento científico serão colocado ao longo do lado “Estudante Conhecimento Científico” (MÉHEUT e PSILLOS 2004, p. 518). A concepção de uma Sequência de Ensino Aprendizagem não é uma atividade instantânea, mas um esforço a longo prazo, um produto do qual muitas vezes é uma representação de conteúdos inovadores, diferindo-se daqueles historicamente presentes nos livros e currículos tradicionais. É importante enfatizar que Sequências de Ensino Aprendizagem evoluem progressivamente, ou seja, tem como uma de suas características a inclusão dentro de um gradual processo de pesquisa com base evolutiva, visando sempre o entrelaçamento da ciência e da perspectiva do aluno (MÉHEUT e PSILLOS 2004). Méheut e Psillos (2004) expressam que alguns fatores podem (e devem) ser explicitamente levados em consideração quando do design de uma Sequência de Ensino Aprendizagem, por exemplo, deve-se tornar público fatores contextuais e particularmente as restrições educacionais encontradas. Neste contexto, as autoras 8 acreditam ser esta uma tarefa difícil sobre a viabilidade de Sequências de Ensino Aprendizagem para além de uma pequena escala inovação, além de poucas semanas. Outro fator a considerar é o gerenciamento da interação social em sala de aula, fator este que “só recentemente começou ser explicitado e levado em conta na concepção das Sequências de Ensino Aprendizagem” (MEHEUT e PSILLOS 2004, p. 527). Buty, et al. (2004) colocam que a validação de uma Sequência, dentro de um sistema educativo, remete-nos a três indagações: É viável? (ou seja, será possível ao professor ensinar a sequência em uma classe real?); É extensível? (ou seja, os professores que não participaram da elaboração da sequência, conseguem ensiná-la?); É reprodutível? (ou seja, o professor pode ensinar a mesma sequência por vários anos consecutivos?). Para refletir sobre estas questões apresentamos, de modo sucinto, as conclusões a que chegaram uma equipe formada por professoras e pesquisadoras pernambucanas a partir de uma pesquisa usando SEA. A partir do losango didático proposto por Méheut (2004) (Figura 2), Vilela et al. (2007) desenvolveram, aplicaram e analisaram uma Sequência de Ensino Aprendizagem sobre o tema “Aquecimento Global” com uma turma da 1ª série do Ensino Médio de uma escola de Pernambuco. As autoras buscaram analisar a Sequência de Ensino Aprendizagem sob dois vieses: design e a aplicação da sequência. Como resultados, as autoras esclarecem que a análise, visando à validação da Sequência de Ensino Aprendizagem, apresentou vários aspectos positivos, porém também apresentou aspectos negativos. Quanto aos aspectos positivo as autoras destacam: a motivação e interesse dos alunos; o debate mais significativo na aula; a organização dos alunos em grupos estabelecendo uma dinâmica de aprendizagem que transcende o limite do conteúdo estudado. Por outro lado, os aspectos negativos podem ser sintetizados pela dificuldade inerentes à aprendizagem dos conceitos, a não familiaridade de alunos com um processo mais participativo. De modo geral, as autoras consideram que a eficácia global da sequência aplicada foi satisfatória, no entanto fazem um alerta: “[...] Pareceu-nos que há uma expectativa muito limitada da coordenação pedagógica da escola com relação ao retorno de aprendizagem dos alunos e, dessa forma, eles parecem desobrigados de alguns compromissos escolares. No entanto, é importante marcar que mesmo em um contexto desfavorável, um grupo significativo de alunos se sobrepôs aos obstáculos e foram participativos em todas as atividades, fazendo valer a esperança de mudar alguns cenários [...] da educação brasileira, e de vencer os desafios” (VILELA et al. 2007, p. 11). Esperamos que as breves colocações apresentadas até o momento nos sirvam de guia, e fomentem algumas reflexões a respeito das Sequências de Ensino Aprendizagem no decorrer de nosso curso. 2. Bibliografia Consultada BROCKINGTON, G. A e PIETROCOLA, M. Serão as regras da transposição didática aplicáveis aos conceitos de física moderna? Investigações em Ensino de Ciências. v. 10, n. 3, pp. 387-404, 2005. BUTY, C.; TIBERGHIEN, A. e LE MARECHAL, J. Learning hypotheses and an associated tool to design and to analyse teaching–learning sequences. International Journal of Science Education, Special Issue, v. 26, n. 5, 2004, 579-604. 9 FAZIO, C. Educational reconstruction of the physics content to be taught and pedagogical content knowledge implementation by using information and communication technologies. Dissertation, Faculty of Informatics, Mathematics and Physics, Comenius University Bratislava, Slovakia, 2006. LIJNSE, P. L. La recherche-développement: une voie vers une "structure didactique" de la physique empiriquement fondée. Didaskalia, v. 3, 1994, p. 93-108. MEHEUT, M. Designing and validating two teaching–learning sequences about particle models. International Journal of Science Education, Special Issue, v. 26, n. 5, 2004, 605-618. PSILLOS, D.; TSELFES, V.; KARIOTOGLOU, P. An epistemological analysis of the evolution of didactical activities in teaching-learning sequences: the case of fluids. International Journal of Science Education, Special Issue, v. 26, n. 5, 2004, 555-578. SIQUEIRA, M. R. P. Do Visível ao Indivisível: uma proposta de Física de Partículas Elementares para o Ensino Médio, Dissertação de Mestrado, Instituto de Física e Faculdade de Educação da Universidade de São Paulo, São Paulo, 2006. VILELA, C. X.; GUEDES, M. G. M.; AMARAL, E. M. R. e BARBOSA R. M. N. Análise da elaboração e aplicação de uma sequência didática sobre o aquecimento global. VI Encontro Nacional de Pesquisa em Educação em Ciências, Florianópolis/SC, 2007. 10 Tema 3: Transposição Didática de Conteúdos Científicos. Pedro Donizete Colombo Junior [email protected] 1. Transposição Didática: uma leitura introdutória. Não é difícil perceber que muito dos avanços científicos e tecnológicos ocorridos a partir do início do século XX não se encontra presente nos currículos das salas de aula brasileiras, mais especificamente no ensino de física. É evidente também que tais avanços, comumente presentes em revistas especializadas necessitam de uma “transformação” de linguagem e profundidade para se adequarem aos nichos das salas de aula. Este processo transformativo é complexo e não requer apenas a mera simplificação de conteúdos ou “deixá-los mais fáceis”. Na verdadeira este processo decorre de um intenso trabalho didático e epistemológico de transposição do novo saber à sala de aula. Buscando entender como ocorre esta transposição, este texto inicia uma discussão a respeito dos caminhos percorridos pelo saber desde sua origem no âmbito acadêmico até a chegada à sala de aula. Para esta tarefa apoiamos nas ideias da transposição didática do francês Ives Chevallard (1991). É importante ressaltar que usaremos a noção de transposição didática na produção de Sequências de Ensino Aprendizagem sobre tópicos de física moderna, a partir da física solar, no ensino médio visando à inovação curricular e a parceria ambiente escolar - centro de ciências. A noção de transposição didática vem ganhando cada vez mais espaço nos debates na área educacional, principalmente quando se trata das relações entre ‘disciplinas a ensinar’ e ‘ciências de referência’. Tanto que vários documentos oficiais, PCN, PCN+ e Orientações Curriculares, apontam para a necessidade do professor saber efetuar a transposição didática dos conteúdos a ensinar. O conteúdo escolar não é o saber sábio original tão pouco a mera simplificação do mesmo, devendo ser entendido como um objeto didático fruto de sua produção original. A transposição didática propõe a existência de três níveis ou esferas do saber: o Saber Sábio; o Saber a Ensinar; e o Saber Ensinado. Cada uma destas esferas do saber elenca sua própria comunidade, seus representantes ou grupos, de modo que intimamente ligado aos saberes encontramos em Chevallard (1991) a noção de Noosfera, sumariamente entendida como uma esfera de ação onde diversos atores atuam na transformação do saber. A transposição didática é para o professor, “[...] uma ferramenta que permite recapacitar, tomar distância, interrogar as evidências, pôr em questão as idéias simples, desprender-se da familiaridade enganosa de seu objeto de estudo. [...] é precisamente o conceito de transposição didática que nos permite a articulação da análise epistemológica com a análise didática, e torna-se então em um bom guia do uso da epistemologia para a didática” (CHEVALLARD 1991, p.23). 2. As esferas do saber. Saber sábio 11 O saber sábio diz respeito ao saber original, aquele que é ostentado como referência na definição de determinada disciplinar escolar. Tal saber é construído no interior da comunidade científica. A busca por respostas a questões de pesquisa, juntamente com diálogos entre os pares caracteriza-se o contexto da descoberta do conhecimento científico. Este é o momento em que o ser humano trabalha na produção de determinado saber, que por ser novo, também o desconhece. Ao passo que encontre respostas satisfatórias à sua inquietação, busca socializá-lo com a comunidade científica, momento conhecido como da justificação, da elaboração de artigos para submissão a periódicos, ao crivo das normas pré-estabelecidas pela comunidade a qual o cientista participa. Ao final, o texto produzido adquire uma forma impessoal. Não apresentando dúvidas, recomeços, conflitos e principalmente o tempo necessário a sua produção e aceitação. Não é incomum passar-se anos até que um saber sábio seja aceito e compartilhados pela comunidade científica. Momento em que o saber ainda encontra-se longe das salas de aula. Assim, o “novo” ao denominar-se pronto, encontra-se calejado do processo a qual fora submetido. Este saber ao ser publicado está limpo, depurado e apresenta uma linguagem impessoal, que não retrata características de sua construção (SIQUEIRA e PIETROCOLA 2006). Enfim, o saber sábio é fruto da aceitação científica e já se encontra “purificado” das inúmeras idas e vindas que fizeram parte de sua construção (AZEVEDO 2008). Saber a ensinar O saber a ensinar é a primeira transformação sofrida pelo saber sábio depois de ser estabelecido e aceito pela comunidade científica em que está inserido. Este é o momento de sua materialização na produção de “manuais didáticos”, como livros (didáticos e paradidáticos), jornais de divulgação e fascículos. Na ocorrência deste processo ocorre o que Chevallard (1991) chama de descontextualização, ou seja, o saber ao extrapolar a fronteira imaginária do saber sábio para o saber a ensinar perde sua essência contextual, sendo reestruturado para uma linguagem mais simples (porém não menos importante) e adequada ao nível de ensino que fará parte. Em outras palavras, o saber é “desmontado e reorganizado novamente de uma maneira lógica e atemporal” (SIQUEIRA e PIETROCOLA 2006). “[...] a linguagem utilizada na publicação do saber a ensinar é uma linguagem nova. Termos e situações, não presentes no saber sábio, são utilizados nos livros textos para racionalizar as sequências didáticas, demonstrando um cenário de artificialismo” (PINHO-ALVES 2000, p. 227). Ao focalizar os atores constituintes do saber a ensinar, ver-se-á que este é constituído por um grupo bem mais heterogêneo e eclético do que o do Saber Sábio. Diversas esferas da sociedade fazem parte do saber a ensinar, como: autores e editores de manuais didáticos, professores, representantes do governo, cientistas ligados à educação e pais de alunos, na forma de opinião pública. Saber ensinado A transposição do saber a ensinar em saber ensinado talvez seja uma das tarefas mais árduas e complexas de toda a transposição didática, pois se encontra no âmbito do ‘Sistema Didático’, o qual por natureza é revestido de dificuldades e conflitos inerentes a prática docente. O saber ensinado é fruto de escolhas que muitas das vezes é guiada 12 pela a elaboração de sequência de aulas intimamente ligadas à adaptação do saber ao tempo didático. Sobre este aspecto algumas ressalvas são válidas. Na transposição didática o agente “tempo” é tratado de maneira bastante particular, denotando-se as noções de tempo real, tempo lógico, tempo didático e tempo de aprendizagem (PIETROCOLA 2011). Tempo real está intimamente relacionado à ideia de tempo histórico no qual determinado saber se desenvolveu. O tempo lógico relaciona-se à maneira de transpor a apresentação desse conhecimento para fins de ensino. Tempo didático talvez seja a causa de muitas das angústias dos professores, uma vez que está vinculado aquilo que de fato poderá ser feito no contexto de sala de aula. É o momento de fazer escolhas. Por fim, o tempo de aprendizagem, em sua essência é relativo, pois depende das ações de cada aluno. Alguns alunos aprendem durante as próprias aulas, aproximando muito o tempo didático do tempo de aprendizagem. Outros, porém, talvez aprendam semanas, meses depois. Extrapolando, a aprendizagem de determinados tópicos, para alguns talvez nunca ocorra. Enfim, o saber ensinado requer adaptações ao tempo didático, planejamento e organização do programa escolar, atenção ao número de aulas que se dispõe para trabalhar determinado conteúdo, etc. A noção de noosfera É fato que nem todo saber sábio fará parte do sistema didático. A difícil tarefa de adequar o tempo didático aos currículos escolares, os parâmetros institucionais para a seleção de conteúdos e a falta de materiais adequados a esta transposição, são alguns dos entraves que justificam esta constatação. Surge então a noção de noosfera atuando como fator seletivo da transposição didática em todas as esferas. A noosfera é considerada a central gerenciadora do processo de transposição didática, tanto que Chevallard (1991) a coloca como essencial para o entendimento da transposição didática. “A noosfera é o centro operacional do processo de transposição, que traduzirá nos fatos a resposta ao desequilíbrio criado e comprovado (expresso pelos matemáticos, pelos pais, pelos professores mesmos). Ali se produz todo conflito entre sistema e entorno e ali encontra seu lugar privilegiado de expressão. Neste sentido, a noosfera desempenha um papel de “tapón”. Inclusive em períodos de crise, esta mantém dentro dos limites aceitáveis a autonomia do funcionamento didático” (CHEVALLARD 1991, p.34). Figura 3: Representação da Noosfera, evidenciando a periferia do sistema de ensino (sistema de ensino stricto sensu) e seu entorno (CHEVALLARD 1991, p.28). 13 Se ponderarmos a transposição didática como uma linha imaginária na qual os fins culminam-se na produção de saberes que farão parte da sala de aula, logo vislumbraremos que esta produção envolve riscos e dilemas inerentes a qualquer processo transpositivo. Tais dilemas podem ser mais bem interpretados quando da impossibilidade de uma abordagem completa de determinado assunto em detrimento de escolhas necessárias. Por outro lado, a tentativa de contemplar exaustivamente os conteúdos acarreta o risco de se gerar propostas de ensino impossíveis de serem gerenciadas em sala de aula. Neste contexto, o papel da noosfera pode ser mais bem vislumbrado. O principal objetivo da noosfera é otimizar a negociação dos dilemas e riscos inerentes ao processo de transposição didática (PIETROCOLA 2011). Para isto, além de fatores didáticos, muitos outros fatores são levados em conta, por exemplo: interesses políticos, comerciais, editoriais até os anseios que a sociedade julgue necessário estar presente nas escolas. Podemos representar o processo de transposição didática da seguinte forma: Figura 4: Esquema representativo da Transposição Didática. Alguns pontos são interessantes de serem percebidos nesta representação. Um deles é o fato de a transposição didática funcionar como um instrumento de análise capaz de discorrer sobre o trajeto de um saber oriundo do ambiente de sua construção, no âmbito da academia até a sala de aula. Note que o caminho trilhado do saber erudito ao saber ensinado é unidirecional, porém nunca direto, ou seja, passa pelo crivo do saber a ensinar. Perceba também que a noosfera além de englobar, de modo geral, todas as esferas do saber, também perfaz de maneira muito particular cada esfera do saber. Neste caso, atua como pequenas ‘nuvens’, composta de atores e documentos oficiais, que podem ou não sobrepor-se nas diferentes esferas dos saberes. 3. A sobrevivência dos saberes A Transposição Didática, como ferramenta de análise, reflete sobre os caminhos trilhados pelos saberes, deste a sua produção até a sala de aula. Nesta empreitada a noosfera atua como um guia, que seleciona os saberes que farão parte do nicho escolar. Ocorre que alguns saberes não sobrevivem ao crivo do saber a ensinar, de modo que não chegam ao status de saber ensinado. Com o passar dos anos, alguns saberes acabam “envelhecendo” no contexto educacional, deixando de ser objetos de ensino e, sendo, portanto, descartados e/ou substituídos por novos saberes, fruto do progresso científico 14 e tecnológico. Tais colocações nos remetem a ideia de sobrevivência dos saberes escolares. Chevallard (1991) definiu algumas características necessárias para que um determinado saber sobreviva às nuanças da transposição didática. • Ser Consensual. O saber ao chegar à sala de aula não pode apresentar dúvidas de veracidade. Representantes do sistema didático não devem ter dúvida quanto à veracidade daquilo que se ensina. • É pretendido também que o saber esteja em acordo com dois vieses de Atualidade: Moral: um saber que possa ser avaliado e que a sociedade discirna como importante e necessário à composição curricular e, Biológica: o saber deve ser ensinado usando-se de suporte teórico e terminologias que estejam em ressonância com a atual ciência praticada. Hoje, configura-se como uma inadequação biológica ensinar, por exemplo, o “Modelo atômico” tendo como base o modelo proposto por Thomson ou Rutherford, salvo em uma perspectiva histórica. • O saber a ensinar deve ter Operacionalidade. Espera-se que um saber a ensinar seja operacional, no sentido de produção e desenvolvimento de atividades que possibilitem uma avaliação coerente daquilo que foi transposto. Uma sequência didática que não seja operacionável certamente não satisfaz as exigências do saber a ensinar, correndo, portanto, risco de não se adequar ao contexto escolar. • Ter Criatividade Didática. A criatividade didática é um elemento essencial na transposição do saber sábio em saber a ensinar, e está intimamente ligada a criação de um saber com identidade própria. Em eletricidade, por exemplo, as atividades com associação de resistores ensinada na escola não encontram paralelos no domínio do saber de referência, sendo, portanto, fruto da criatividade didática. • A última característica em face à sobrevivência dos saberes é a Terapêutica. O saber a ensinar deve se submeter aos testes in loco, definidos por Chevallard como Terapêutica. Permanece nos domínios escolares aquele saber didatizado e que deu certo, desta forma o incoerente e o que se mostrou errado naturalmente entra no esquecimento, não permanecendo nos domínios escolares. As características descritas acima e, que segundo Chevallard são necessárias para a sobrevivência dos saberes, nos revela fortes indícios dos porquês as inovações curriculares e a manutenção da inserção de física moderna no ensino médio é ínfima, apesar de sua importância ser consensual entre educadores e pesquisadores. Talvez um dos principais motivos deste fosso esteja no fato de que a inovação curricular falhe em algum momento aos critérios descritos por Chevallard e, consequentemente, não “sobreviva” no sistema de ensino. 4. Bibliografia Consultada AZEVEDO, M. C. P. S. Situações de ensino – aprendizagem. Análise de uma sequência didática de física a partir da Teoria das Situações de Brousseau. Dissertação de mestrado, Instituto de Física e Faculdade de Educação da Universidade de São Paulo, 2008. BRASIL. Secretaria de Educação Básica. Orientações curriculares para o ensino médio, v. 2. Ciências da natureza, matemática e suas tecnologias. Brasília: MEC, 2006. CHEVALLARD, Y. La Transposicion Didactica: Del saber sabio al saber enseñado. 1ª ed. Argentina: La Pensée Sauvage, 1991. PIETROCOLA, M. Inovação Curricular e Gerenciamento de Riscos DidáticoPedagógicos: o ensino de conteúdos de Física Moderna e Contemporânea na escola média. Faculdade de Educação, USP, Outubro de 2011. 15 PINHO-ALVES, J. F. Atividades Experimentais: Do método à Prática Construtivista. Tese de Doutorado, UFSC, Florianópolis, 2000. SIQUEIRA M. e PIETROCOLA M. A transposição didática aplicada a teoria contemporânea: a física de partículas elementares no ensino médio. X Encontro de Pesquisa em Ensino de Física, (X EPEF), Londrina, PR, 2006. 16 Tema 4: 4: Radiação de corpo negro Pedro Donizete Colombo Junior [email protected] 1. A física no início do século XX Ao final do século XIX a física parecia ter atingido seu estágio ápice. As leis da mecânica e gravitação enunciadas por Newton já vinham sendo didatizadas e aprimoradas desde o século XVII, é cumpriam bem o papel de descrever os fenômenos e comportamento de corpos celestes e terrestres. Por outro lado, as propriedades elétricas e magnéticas, outrora separadas, agora estavam unificadas pelo eletromagnetismo de Maxwell. Neste contexto, de aparente calmaria científica, Lord Kelvin chegará a sugerir que a física havia atingido seu estágio final. Porém havia ainda “duas pequenas nuvens” no horizonte da física que ainda intrigavam o meio científico da época: os resultados negativos do experimento de Michelson e Morley (que haviam tentado medir a velocidade da Terra através do éter) e a dificuldade em explicar a distribuição de energia na radiação de um corpo aquecido (corpo negro). Talvez, por ironia, foi justamente a tentativa de solucionar estes problemas que estremeceu as bases da física da época e movimentou as primeiras décadas do século XX com duas teorias revolucionárias: a Teoria da Relatividade e a Teoria Quântica. Como enuncia o historiador da ciência Roberto de Andrade Martins, na verdade o final do século XIX estava repleto de “nuvens no horizonte da física” (uma verdadeira tempestade!), as quais, talvez por orgulho de saber muito ou otimismo exacerbado dos cientistas, impedia a maioria dos físicos de perceberem quão grave era a situação que pairava sobre os pilares da física (MARTINS 2001). Neste texto, limitaremos nossa discussão à apenas uma destas “nuvens” física do final do século XIX: a distribuição de energia da luz emitida por cavidades aquecidas - o problema do corpo negro. O intrigante neste fato científico é que ele estava ligado a um fenômeno bem simples: o aquecimento de materiais e a emissão de diferentes colorações luminosas correspondentes às diversas temperaturas de aquecimento. 2. O problema da radiação de corpo negro O conceito “corpo negro” pode ser definido como um objeto que absorve toda a radiação que sobre ele incide radiação esta visível ou não. A noção de corpo negro é uma idealização pautada no fato de que, independente da sua constituição, sua emissão (espectro) seria sempre a mesma (ZANETIC 2007). Reflita: “Por que tamanho interesse em estudar a radiação de corpo negro?” Encontramos uma possível resposta a esta indagação na necessidade tecnológica da época. Como sugere o pesquisador Jun’ichi Osada. Em meados do século passado [século XIX], na Alemanha, [...] a indústria siderúrgica desenvolveu-se rapidamente [...] enormes esforços foram feitos para produzir aço da melhor qualidade. O fator mais importante na produção de aço de primeira qualidade é o controle delicado da temperatura dos altos fornos [...] não se pode usar termômetros comuns para a medição de temperaturas tão altas. A fim de contornas este problema, pesquisas foram feitas no sentido de determinar as temperaturas usando as cores das radiações térmicas, isto é, mais concretamente, foram recolhidas as luzes provenientes 17 dos fornos às diversas temperaturas. Assim. Analisando estas luzes [...] e medindo as intensidades de cada parte espectral, foram obtidas curvas (OSADA apud ZANETIC 2007, p. 133). Assim, uma necessidade tecnológica vinculada a interesses capitalistas levou a construção de curvas empíricas1, as quais provocaram grande interesse de diversos cientistas da época, dentre eles os físicos teóricos: Wilhelm Wien (1864 - 1928), Lord Rayleigh (1842 - 1919), James H. Jeans (1877 - 1946) e Max Planck (1858 - 1947). Uma cavidade com uma pequena abertura pode ser uma grande aproximação para um corpo negro (Figura 1). A energia radiante incidente através da abertura é absorvida pelas paredes em múltiplas reflexões e somente uma mínima proporção escapa (se reflete) através da abertura. Assim, dizemos que toda a energia incidente é absorvida. Figura 1: Radiação de Corpo Negro Fonte: http://www.comciencia.br/repo rtagens/fisica/fisica06.htm Podemos adotar o Sol como sendo um corpo negro, uma vez que este absolve praticamente toda radiação que incide sobre ele. No entanto, é importante ressaltar que na emissão, o Sol não possui espectro contínuo como o de um corpo negro, uma vez que apresenta linhas de absorção, conhecidas como “linhas de Fraunhofer”. Trataremos sobre tais linhas em um texto especialmente redigido para este fim. O estudo sobre radiação de corpos negros tinha algo notável e despertou a curiosidade e interesse de vários cientistas da época. Um destes cientistas foi Max Planck o qual não apenas debruçou sobre a questão, como também propôs uma solução, por volta do ano de 1900, tumultuando o cenário científico da época. É importante que se diga que Planck apoiou-se em trabalhos de vários cientistas da época, os quais já pensavam sobre a questão e direta ou indiretamente colaboraram com seus estudos. Em 1879, Josef Stefan (1835 - 1893) já havia concluído, a partir do aquecimento de materiais a variadas temperaturas, que a emissão total de radiação era proporcional a T4 (Kelvin), levando pouco tempo depois, em 1884, Ludwing Boltzmann (1844 – 1906), a partir de considerações termodinâmicas e eletromagnéticas para o estudo de cavidades isotérmicas, formalizar seus resultados (ZANETIC 2007). Esta formalização é conhecida hoje como lei de Stefan-Boltzmann, a qual nós usaremos na determinação 4 da temperatura da fotosfera solar [a partir de uma simplificação: P = σT onde α é a −8 2 4 constante de Stefan-Boltzmann [ σ = 5,67 x 10 W / m K ] e P e T estabelecem a relação entre a densidade de fluxo energético e a temperatura de determinado corpo]. Muitos físicos aventuraram-se a oferecer uma tentativa coerente de análise teórica relativo ao corpo negro. Um destes foi Wilhelm Wien, em 1894, obtendo uma função de distribuição espectral para a radiação de corpo negro, que ficou conhecida como lei de Wien ou Lei do deslocamento de Wien: 1 λmáx .T = B , onde B uma constante de valor Para visualização acesse o applet: http://astro.unl.edu/classaction/animations/light/meltednail.html 18 2,898 x 10-3 mK (para um corpo negro, o produto do comprimento de onda da radiação mais intensa pela temperatura absoluta é uma constante). Esta lei expressa o fato de que para a distribuição espectral de corpo negro, com o aumento da temperatura, a emissão será máxima para uma frequência maior e vice versa. Em outras palavras, a lei de Wien expressa que o comprimento de onda da emissão de um corpo negro é inversamente proporcional à sua temperatura. As curvas obtidas por Wien concordavam muito bem apenas para pequenos comprimentos de onda (frequências altas), no entanto falhavam para grandes comprimentos de ondas. Paralelamente aos trabalhos de Wien, Rayleigh e Jeans desenvolveram uma nova forma de abordar o problema na tentativa de explicar os fenômenos experimentais a partir do teorema da eqüipartição de energia2. Contrariamente as ideias de Wien, a teoria proposta era muito eficiente para grandes comprimentos de onda, frente a observação experimental. No entanto para pequenos comprimentos de ondas a intensidade da radiação emitida tendia para o infinito, ou seja, não concorda com os experimentos. Esta previsão não verificada experimentalmente ficou conhecida como catástrofe do ultravioleta. No que tange a esta constatação, Zanetic (2007) faz uma ressalva: [...] apesar de seu proeminente papel nos livros-textos de física, a fórmula [de Rayleigh - Jeans] não atuou em nenhuma parte de toda a fase originária da teoria quântica. Planck não aceitou o teorema da equipartição [de energia] como fundamental, e, portanto ignorou-o. Provavelmente nem Rayleigh nem Jeans consideravam o teorema universalmente válido. A “catástrofe do ultravioleta” [...] apenas transformou-se num assunto de discussão numa fase posterior da teoria quântica (ZANETIC 2007, p. 161). Quando se calculava a quantidade total de energia emitida corpo negro ideal em equilíbrio térmico, de acordo com a teoria clássica, observava-se que para λ maiores a teoria clássica concorda com a observação experimental, mas para λ menores a intensidade da radiação emitida tendia para o infinito, não concordando com os experimentos. Surgia assim à denominação catástrofe do ultravioleta, a qual forneceu indicações de que existiam problemas irresolúveis no campo da física clássica. O problema da radiação de corpo negro foi estudado pelo físico Max Planck, e levou a uma revolução na teoria física ao revelar que o comportamento de pequenos sistemas obedece regras que não podem ser explicadas pelas leis das teorias clássicas. Em 1900, Planck solucionou o problema da radiação do corpo negro construindo uma equação que se ajustava perfeitamente com os dados experimentais da época, particularmente os produzidos no decorrer daquele ano (ZANETIC 2007, p. 151). Planck fez uma proposta, que ele próprio considerou desesperadora, porém que se revelou revolucionária. Os mundos atômicos e subatômicos necessitavam de novas interpretações - nossa intuição não se aplicava mais. Planck enunciou a hipótese de que a radiação só seria emitida com valores descontínuos de energia múltiplos de uma unidade mínima. A energia da radiação de frequência f pelo corpo emitida tem sempre um valor E = hf onde h= 6,62x10-34J.s é a constante de Planck. Essa hipótese foi, originalmente, um artifício arbitrário, que 2 O teorema da equipartição de energia diz que num conjunto composto por um grande número de partículas individuais, que se movimentam ao acaso trocando energia entre si através de colisões, a energia total nele contida é igualmente partilhada, em média, por todas as partículas. Ou seja, se a energia total é ‘E’ e se há a presença de ‘N’ partículas, a energia média de cada partícula será E/N (ZANETIC 2007, p. 156). 19 produzia os resultados experimentais, mas era classicamente injustificável, como Planck mesmo admitiu. Tomando como um “número inteiro” a frequência da radiação, ou seja, o número de oscilações que realiza por segundo, a energia transportada por um desses “pacotes”, sua “parte do inteiro de energia”, é esse número multiplicado pela constante de Planck, h (MENEZES 2005). Planck mostrou que a energia deveria ser quantizada, ou seja, as energias não poderiam ter todos os valores, mas deveriam variar em passos. O tamanho de cada passo, ou quantum, é proporcional à frequência dos osciladores e igual a hf , onde h é a constante de Planck. A partir dessa idéia, Planck obteve uma expressão que ajustou completamente a curva espectral da radiação de corpo negro (Figura 2). Figura 2: Comparação entre os dados experimentais e as previsões clássicas e de Planck A partir das observações experimentais, Wien obteve uma fórmula que se aproximava da curva da densidade de radiação em função do comprimento de onda, mas era acurada apenas para pequenos λ . Rayleigh e Jeans partiram das fórmulas da mecânica clássica para um oscilador e obtiveram uma fórmula que funcionava para grandes valores de λ . A fórmula de Planck, utilizando o novo conceito de quantização da energia dos osciladores descreveu os resultados experimentais. http://www.comciencia.br/reportagens/fisica/fisica06.htm O gráfico acima, apesar de muito recorrente nos livros textos, na maioria das vezes traz explicações equivocadas, por exemplo, a de que Planck interpolou as leis de Wien e Rayleigh – Jeans ajustando sua curva. Esta colocação “clássica” não se aplica, uma vez que, como citado acima, Planck não aceitou grande parte das ideias de Rayleigh – Jeans, como a equipartição de energia e ainda estes cientistas trabalharam de modo independente. A hipótese da quantização das energias também não encontrava nenhum análogo na época (final do século XIX). Neste sentido, mesmo reproduzindo uma observação experimental, as ideias de Planck não eram bem vista pela comunidade até que viesse a ser adotada por Einstein em 1905. Einstein revelou que, ao caráter descontínuo da energia, estava associado um caráter granular da radiação. Percebeu que a luz de alta frequência é capaz de arrancar elétrons ao incidir sobre uma placa metálica, fenômeno conhecido como efeito fotoelétrico (MENEZES 2005). Nos primeiros anos do século XX, a teoria quântica começou a resolver diversos problemas. A radiação do corpo negro explicada por Planck, o efeito fotoelétrico de Einstein e o modelo atômico quântico de Bohr foram passos iniciais. A partir de 1920 a 20 teoria quântica ganha novas contribuições com a compreensão mais profunda da dualidade onda-partícula, graças a De Broglie, Schrödinger, Heisemberg, Bohr e outros. A teoria quântica nos permitiu compreender muitos fenômenos importantes, como a estrutura de átomos e moléculas (que forma a base de toda a química), a estrutura de sólidos e suas propriedades, a emissão e absorção de radiações. Apenas através da teoria quântica podemos compreender alguns dos mais importantes fenômenos da Física (MARTINS 2001). Enfim, voltando ao conceito de corpo negro, e tendo como base a atividade “Estimando a luminosidade e a temperatura da fotosfera solar” (item 4 deste texto), adotamos o Sol como sendo um corpo negro (Figura 3) e estipularemos a temperatura da fotosfera solar a partir da aplicação da lei de Stefan-Boltzmann. Figura 3: Curvas de radiação de corpo negro (à dir.) e Fluxo espectral da radiação do Sol (à esq.) Fonte: European Association for Astronomy Education http://skolor.nacka.se/samskolan/eaae/summerschools/SScoolIndex.html É importante destacar que a lei de Wien também permite conhecer a temperatura de um corpo emissor analisando apenas a sua radiação. Se a potência máxima irradiada por uma estrela ocorrer no comprimento de onda de λm=0.5·10-6 m, aplicando a lei e Wien, temos que a temperatura deste “corpo negro” é de 5800 K. Este é o caso da fotosfera solar. A cor amarela do Sol nos dá a indicação da temperatura de sua fotosfera, e é o resultado da radiação visível emitida por esta estrela. Uma estrela mais fria que o Sol apresentará uma cor avermelhada, enquanto que uma estrela mais quente que o Sol apresentará uma cor azulada. 3. Notas para aprofundamento Max Planck propôs a quantização da radiação como forma de problema da emissão de radiação pelos corpos negros. A proposta de Planck (distribuição de Planck), publicada em 1900, foi: 2hc 2 1 I T (λ ) = 5 . hc / λkT λ e −1 Esta equação nos indica que IT (λ ) é a intensidade de radiação com comprimento de onda λ, saída de um corpo com temperatura T. Uma equação aparentemente complicada, mas que, porém só apresenta dois parâmetros variáveis: a temperatura T e o comprimento de onda λ. Para λ muito grande ou para temperaturas muito altas, a exponencial da equação torna-se muito pequena, e podemos aproximar 21 e hc / λkT ≈ 1 + hc λkT e, com isso, obter o que é conhecido como distribuição de Rayleigh - Jeans: 2ckT I T (λ ) = 4 λ Percebe-se que para altas temperaturas as intensidades de radiação parecem aumentar linearmente conforme se aumenta a temperatura, e para bandas do infravermelho e comprimentos mais baixos esse comportamento linear já pode ser visto para amplas faixas de temperatura. Observe que a constante de Planck (h) não aparece na equação de Rayleigh - Jeans. Ela, de fato, não tem nenhuma conexão especial com a teoria quântica, sendo inteiramente dedutível de postulados clássicos. Outra aproximação da distribuição de Planck, para descrever corpos negros, é a obtida para comprimentos de onda muito baixos. Neste caso, quando hc λ >> kT , a segunda fração da equação pode ser bem aproximada por uma exponencial negativa: 1 ≈ e − hc / λkT Obtendo-se a distribuição de Wien, publicada em 1896 na forma: hc / λkT e −1 C C1 − λT2 I T (λ ) = 5 e λ Na época do trabalho de Wien, não existia constante de Planck. A distribuição caía muito bem no ultravioleta, mas para comprimentos mais baixos era pouco acurada. Planck na verdade escreveu sua lei como uma modificação da lei de Wien, para melhorar a descrição dos dados mais ao vermelho. O titulo do artigo em que Planck apresenta sua distribuição, inclusive, é “Sobre um aperfeiçoamento da equação de Wien para o espectro”. A análise das curvas de distribuição de Planck para várias temperaturas mostram que todas as curvas apresentam um máximo, que corresponde a comprimentos de onda diferentes para temperaturas diferentes. Os corpos têm um pico de emissão, e que, quanto maior a temperatura do corpo, menor é o comprimento de onda em que está o pico, resultado conhecido como Lei de Wien. λmaxT = constante ≈ 2,898 × 10 −3 k .m Isso significa que, à medida que você esquenta um corpo negro, ele vai emitindo mais radiação e o pico da emissão se desloca para freqüências mais altas. O fluxo total de luz que um corpo negro emite aumenta com o aumento da temperatura. Calculando essa área, descobrimos a Lei de Stefan-Boltzmann Fs = σ T 4 onde FS é o fluxo na superfície da estrela, e σ = 5,67.10-8 W/m² K4 é a constante de Stefan-Boltzmann. Neste ponto, temos de estabelecer uma distinção importante entre duas grandezas definidas que representam coisas diferentes. O fluxo FS mostrado logo acima, é somente o fluxo na superfície de um corpo que tem seu espectro dado pela luz emitida por ele, tal como um corpo negro: uma estrela. O fluxo de uma estrela, em sua superfície, é dado pela sua luminosidade total, bem como pela sua área superficial e também se relaciona com sua temperatura da superfície da estrela pela lei de Stefan-Boltzmann. L = FS .4π R 2 = 4πσ T 4 R 2 , relacionando raio, luminosidade e a temperatura da superfície de uma estrela. 22 4. Estimando a luminosidade e a temperatura da fotosfera solar O Sol tem forma aproximadamente esférica sendo sua energia irradiada igualmente em todas as direções. Para a determinação da temperatura da fotosfera solar, sugere-se fortemente que se trabalhem inicialmente alguns conceitos relacionados à calorimetria e o conceito de corpo negro, de modo que se trabalhem conceitos da termodinâmica básica e física moderna. A radiação do corpo negro é isotrópica, isto é, não depende da direção. O Sol irradia aproximadamente como corpo negro. Portanto, as leis de radiação dos corpos negros podem ser aplicadas á radiação solar salvo algumas restrições. Descrição experimental Esta atividade baseou-se em um experimento da Experimentoteca do Centro de Divulgação Científica e Cultural da Universidade de São Paulo3, e tem como objetivo estimar a potência irradiada pelo Sol e a temperatura da superfície solar a partir de uma montagem simples utilizando materiais de baixo custo (CANIATO 1990, AROCA 2009). Os materiais necessários para a realização do experimento são: lata de alumínio pintada de preto, termômetro, proveta 100 ml, cronômetro, regra e calculadora. Figura 1: Posição da lata exposta ao Sol e área longitudinal da lata. Neste experimento a lata deve ser exposta ao Sol por algum tempo. A fração de radiação que atinge a lata pode ser considerada proporcional à radiação emitida pelo Sol na distância Terra-Sol. Assim, a partir de alguns cálculos envolvendo conceitos de calorimetria e corpo negro, e tratando o Sol como um corpo negro, torna-se possível estimar a temperatura na fotosfera solar. Inicialmente deve-se determinar a massa de água (m sugerida 250 ml) colocada na lata e sua temperatura inicial (Ti). A lata deve ficar exposta ao Sol por aproximadamente 5 minutos ( ∆t em s), homogeneizando o meio (água) em intervalos de 1 minuto, para então medir a temperatura final da água (Tf). Tomada de dados Eventos mágua (g) Ti (ºC) Tf (ºC) Tempo - ∆t (s) 1 2 3 Energia irradiada pelo Sol (adaptado). Disponível em: http://www.cdcc.usp.br/exper/medio/fisica/kit3_calorimetria/exp6_termo.pdf 23 3 Conhecida a massa de água e a variação de temperatura, torna-se possível Tomada de dados determinar a quantidade de calor recebida Eventos c (cal/gºC) Qágua (cal) água pela água Qágua = m.c.(t f − t i ) . Não há 1,0 1 necessidade de considerar o calor recebido 1,0 2 pela lata, uma vez que a massa da lata é 1,0 3 ínfima em relação à massa de água utilizada e o calor específico da lata também é pequeno em relação o da água. A próxima etapa é calcular a razão entre a quantidade de calor recebido pela água e o tempo Qágua de exposição, a potência (P): Págua = , ∆t transformando o resultado de cal/s em J/s (1 cal equivale a 4,186 J). Tomada de dados Eventos Págua (J/s = W) 1 2 3 Sabendo-se que a energia irradiada pelo Sol se propaga igualmente em todas as direções, ou seja, esta energia é propagada em forma esférica, e sabendo o valor da distância Sol-Terra (r = 1,5x 1013cm ) , calcule a área da esfera que a energia irradiada solar atravessa A = 4πr 2 e área longitudinal da lata Alata = dxh (onde A corresponde à área de uma esfera com o raio igual à distância Terra-Sol e Alata é a área longitudinal da lata, Figura 1). Tomada de dados Eventos dlata (cm) hlata (cm) rTerra-Sol (cm) 1 1,5 x1013 2 1,5 x1013 3 1,5 x1013 Tomada de dados Eventos 1 2 3 A = 4πr 2 (cm2) Alata = dxh (cm2) Figura 2: Distância Sol-Terra. http://pt.wikipedia.org/wiki/Velocidade_da_luz Considerando que a fração de radiação que atinge a lata é proporcional à radiação emitida pelo Sol na distância Terra-Sol, e realizado os cálculos acima, o passo seguinte é calcular a energia total irradiada pelo Sol por unidade de tempo ou potência total solar 24 irradiada. Para tanto a energia absorvida pela lata deve ser dividida pelo tempo em que a mesma foi exposta ao Sol, de modo a obter a potência. Etotal Qágua = ∆t ∆t A Alata A Ptotal = Págua Alata ou seja, Hoje se estima que a energia responsável pela luminosidade do Sol é da ordem de P = 3,8x 10 26W (SILVA 2006). Tabela 1: Resultados Potência total irradiada (x1026 W) Eventos 1 2 3 A partir do cálculo da potência irradiada pelo Sol, e considerando o Sol como um corpo negro, já temos condições de estimar a temperatura da fotosfera solar usando alguns conceitos de corpo negro, particularmente a lei de Stephan-Boltzmann [ P = σT 4 onde σ = 5,67 x 10 −8W / m 2K 4 ]. Para esta estimativa, inicialmente deve-se dividir a potência irradiada encontrada P 2 pela área do Sol P = total , onde ASol = 4πR (raio do Sol é de aproximadamente ASol R = 6,96 x108 m ), de modo a considerar o Sol como sendo uma esférica que irradia igualmente em todas as direções. Tomada de dados Eventos ASol = 4πR 2 (m2) P P = total ASol (W) 1 2 3 Figura 3: Diâmetro do Sol. Enfim, calcula-se a temperatura da fotosfera solar a partir da equação: T = 4 Segundo a literatura, estima-se que a temperatura da fotosfera solar seja da ordem de T = 5780 K (SILVA 2006). O resultado deste experimento depende muito do local onde a experiência é realizada, uma vez que as condições atmosféricas podem interferir. Eventos P σ . Tabela 2: Resultados Temperatura da fotosfera (K) 1 2 3 25 Questão: 1. Qual foi a maior dificuldade que você encontrou para determinar a temperatura da fotosfera solar e a potência irradiada pelo Sol? 2. Tendo como base os valores da “temperatura da fotosfera” (T = 5780 K) e “potência irradiada pelo Sol” ( P = 3,8x 10 26W ) enunciado pela literatura, quais foram os possíveis fatores que levaram a divergências com os resultados obtidos no experimento? 5. Bibliografia Consultada AROCA, S. C., Ensino de física solar em um espaço não formal de educação, Tese de Doutorado, Instituto de Física de São Carlos, USP, São Carlos, 2009. CANIATO, R. O céu. São Paulo: Editora Ática, 1990. MARTINS, R. A. A Física no final do século XIX: modelos em crise. 2001. Disponível em: <http://www.comciencia.br/reportagens/fisica/fisica05.htm>. Acesso em: 14 Set. 2011. MENEZES, L. C. A matéria uma aventura do espírito científico: fundamentos e fronteiras do conhecimento físico. 1ª Ed. São Paulo: Livraria da Física, 2005. ZANETIC, J. Evolução dos Conceitos da Física. Apostila usada em aula, não publicadas, vol. 1, Instituto de Física, USP, São Paulo, 2007. 26 Tema 5: 5: Radiações - α, β e γ Pedro Donizete Colombo Junior [email protected] 1. Radioatividade: breves considerações É muito comum as pessoas associarem a palavra radiação a algo perigoso e destrutivo. No entanto estamos constantemente expostos à radiação. Podemos entender radiação como sendo a emissão e propagação de energia de um ponto a outro, seja no vácuo ou num meio material. Em outras palavras, é a capacidade que alguns elementos fisicamente instáveis possuem de emitir energia na forma de partículas ou ondas eletromagnéticas. Devido à instabilidade nuclear, muitos núcleos atômicos são radioativos, levando a emissão de tais energias. O estudo experimental da radioatividade revelou que os núcleos instáveis emitem três tipos de “raios”, inicialmente de natureza desconhecida e que foram designadas por alfa (α), beta (β) e gama (γ). As duas primeiras são radiações sob a forma de partículas (assim como um feixe de elétrons), já a radiação gama é uma radiação eletromagnética (assim como a luz, micro-ondas, ondas de rádio, radar, raios infravermelho e raios X). Figura 1: Radioatividade: Comissão Nacional de Energia Nuclear (CNEN) - www.cnen.gov.br Dependendo da quantidade de energia, uma radiação pode ser descrita como não ionizante ou ionizante. As radiações não ionizantes possuem relativamente baixa energia, como exemplos, temos as ondas eletromagnéticas, calor e ondas de rádio. Já as radiações ionizantes, altos níveis de energia, são originadas do núcleo de átomos, podem alterar o estado físico de um átomo e causar a perda de elétrons, tornando-os eletricamente carregados. Historicamente vários cientistas contribuíram direta ou indiretamente para o conhecimento e identificação das radiações (partículas e eletromagnética). Dentre estes podemos citar: Wilhem Roentgen,1895; Henri Becquerel, 1896; Maria e Pierre Curie, 1897; Ernest Rutherford e Frederick Soddy, 1902, entre outros4. A figura a seguir ilustra 4 Para aprofundamento sugiro a leitura do texto ”A Descoberta da Radioatividade”. Disponível em: http://www.if.ufrgs.br/tex/fis142/fismod/mod06/m_s02.html, e baseado no artigo de Roberto de Andrade Martins: “Como Becquerel não descobriu a radioatividade”, Caderno Catarinense de Ensino de Física, 7, 1990. 27 um arranjo experimental histórico para a detecção dos três tipos de radiação emergentes de uma caixa de chumbo com amostra radioativa. Figura 2: Emissão de partículas radioativas. Esta figura representa-se o método utilizado para determinar o tipo de carga elétrica dos raios α, β e γ. http://www.educadores.diaadia.pr.gov.br/arquivo s/File/tvmultimidia/imagens/4quimica/7emissaod epartradio.jpg 2. Partícula alfa (α) Um dos processos de estabilização de um núcleo com excesso de energia é o da emissão de um grupo de partículas positivas, constituídas por dois prótons e dois nêutrons, e da energia a elas associada. São as radiações α ou partículas α. A radiação α possui massa e carga elétrica relativamente maior que as demais radiações. É uma radiação constituída por partículas subatômicas com bastante energia cinética, a qual varia de 3 a 7 MeV. São conhecidas também como núcleos de hélio (2α4 = 2He4), um gás chamado “nobre” por não reagir quimicamente com os demais elementos. A chamada Primeira Lei da Radioatividade, enunciada por Frederick Soddy, em 1911, nos indica que quando um radionuclídeo emite uma partícula α, seu número de massa diminui 4 unidades e seu número atômico diminui 2 unidades. 3. Partícula beta (β) Emissão β, consiste de um elétron (β-) ou pósitron (β+) emitido pelo núcleo na Figura 3: Estudo das Emissões Alfa, Beta e busca de sua estabilidade, quando um Gama nêutron se transforma em próton ou um http://quimicasemsegredos.com/radioatividadepróton se transforma em nêutron, parte1.php respectivamente, acompanhado de uma partícula neutra de massa desprezível, denominada de neutrino (ν), o qual não tem carga elétrica e quase não tem massa. A Segunda Lei da Radioatividade, enunciada por Soddy, Fajjans e Russel, em 1913, nos diz que quando um radionuclídeo emite uma partícula β-, seu número de massa permanece constante e seu número atômico aumenta de 1 unidade. Portanto, ao emitir uma partícula β+, o Figura 4: Radioatividade: núcleo tem a diminuição de Comissão Nacional de um nêutron e o aumento de Energia Nuclear um próton, desse modo, o www.cnen.gov.br número de massa permanece constante. 28 4. Figura 5: Estudo Das Emissões Alfa, Beta e Gama http://quimicasem segredos.com/radi oatividadeparte1.php Partícula gama (γ) Após a emissão de uma partícula alfa (α) ou beta (β), o núcleo resultante desse processo, ainda com excesso de energia, procura estabilizar-se, emitindo esse excesso em forma de onda eletromagnética, a qual nós denominamos de radiação gama (γ). Como exemplo desta emissão podemos citar o elemento químico Césio-137, o betaemissor envolvido no acidente de Goiânia. Ao emitir uma partícula β, seus núcleos se transformam em bário137. A emissão de uma onda eletromagnética (radiação γ) ajuda um núcleo instável a se estabilizar. Figura 6: Estudo Das Emissões Alfa, Beta e Gama http://quimicasemsegredos.com/radioatividade-parte1.php Quanto à penetração da radiação, a partícula α, apesar de ser bastante energética, é facilmente barrada por uma folha de papel alumínio. As partículas β são mais penetrantes e menos energéticas que as partículas alfa, conseguem atravessar o papel alumínio, mas são barradas por madeira. E a partícula gama não é tão energética, mas é extremamente penetrante, podendo atravessar o corpo humano. Esta radiação é detida somente por uma parede grossa de concreto ou por algum tipo de metal. Por estas características esta radiação é nociva à saúde humana, ela pode causar má formação nas células. Figura 7: Observando o poder de penetração dos raios alfa, beta e gama em diversos materiais pode-se concluir que os raios gama atravessam todas as barreiras que os raios alfa e beta não conseguem atravessar, e só são contidos por uma parede de concreto, inclusive conseguem penetrar até mesmo uma placa de chumbo. http://www.alunosonline.com.br/quimica/radiacoes-alfabeta-gama.html 29 * massa relativa à massa do elétron (=1) Tabela 1: Tipos de radiação liberada em reações nucleares http://crq4.org.br/default.php?p=texto.php&c=quimicaviva_energianuclear 5. Meia-vida É importante atentar para o fato de que em cada emissão de uma dessas partículas, há uma variação do número de prótons no núcleo, isto é, o elemento se transforma em outro elemento, com comportamento químico diferente. Quando um átomo emite α, β e/ou γ, dizemos que ele sofreu decaimento radioativo, o qual sugere a diminuição gradual de massa e atividade. Das várias ondas eletromagnéticas, apenas os raios γ são emitidos pelos núcleos atômicos. Cada elemento radioativo decai a uma velocidade que lhe é característica. Para se acompanhar a duração (ou a “vida”) de um elemento radioativo foi preciso estabelecer uma forma de comparação, a qual nós chamamos de meia-vida do elemento. Meia-vida, portanto, é o tempo necessário para a atividade de um elemento radioativo ser reduzida à metade da atividade inicial, ou seja, a atividade vai sendo reduzida à metade da anterior, até atingir um valor insignificante, que não permite mais distinguir suas radiações das do meio ambiente. Os fenômenos radioativos ocorrem segundo uma taxa de decaimento exponencial, indicando que esta diminuição trata-se de um processo estatístico, ou seja, só são validas para um número muito grande de átomos. Para um átomo individualmente, não é possível determinar quando ele decairá. Apenas é possível determinar a probabilidade dele decair. Seja N é o número de núcleos radioativos em um dado instante t. Se o decaimento em um núcleo particular é um evento aleatório, espera-se que o número de núcleos que decaem em um intervalo de tempo dt seja proporcional a N e a dt. Desta forma, o número N sofrerá uma diminuição. A variação de N é dada por5: Onde λ é chamada de constante de decaimento, cujo valor depende do elemento radioativo. Assim, λ exprime a proporção de núcleos que decaem por unidade de tempo e tem dimensão de inverso de tempo. Esta propriedade é característica dos decaimentos exponenciais. Vamos tratar esta informação usando o método de separação das variáveis: Dividindo ambos os lados por N 5 Efetuando a integração: Com base em TIPLER (2000, p. 129-130). 30 Então: Tomando a exponencial: Onde N0 = eC é o nº de núcleos em t=0 Logo, a lei do decaimento exponencial será: A vida média, τ é definida como o inverso da constante de decaimento. τ= 1 λ Figura 8: O gráfico representa a lei exponencial do decaimento radioativo, em que o número N de átomos intactos, isto é, remanescentes e não desintegrados, em cada instante, é representado no eixo das ordenadas e o tempo t no eixo das abscissas. Estão destacados os valores N0/2, N0/4 etc. correspondentes a 1, 2, 3,.. meiasvidas, indicadas no eixo t. http://www.profpc.com.br/radioatividade.htm 6. Detecção da radiação O mais conhecido dos instrumentos detectores de radiação é o contador Geiger (ou Geiger-Müller). Basicamente seu funcionamento deve-se a capacidade que as radiações têm de ionizar gases. Quando a radiação α, β e γ ionizam o gás que existente dentro de uma ampola especial do contador, esse gás se torna, momentaneamente, condutor de corrente elétrica, a qual é “convertida” em um sinal sonoro e indicação de medida em um mostrador. Quanto mais radiação, maior será a Figura 9: Esquema de um contador Geiger. condutividade elétrica do http://quimicasemsegredos.com/radioatividade-parte1.php gás e, portanto maior o nível de ruído ouvido e nível de radiação indicado pelo mostrador. 7. Bibliografia Consultada CARDOSO, E. M. Apostila educativa: Radioatividade. Comissão Nacional de Energia Nuclear – CNEN. Disponível em: www.cnen.gov.br JADER. Radioatividade. Disponível em: http://lief.if.ufrgs.br/~jader/radiacoes.pdf HJORT, R. Radioatividade e Decaimento Alfa. Journal of Applied Physics Brazil, v. 95, n. 16, July 2004 . 31 TIPLER, P. A., Física: Física Moderna, Mecânica Quântica, Relatividade e a Estrutura da Matéria. 4 ed., Rio de Janeiro: LTC, 2000, v. 3. 2000. 32 Tema 6: 6: O átomo de Bohr e a Espectroscopia Pedro Donizete Colombo Junior [email protected] 1. O espectro eletromagnético e a espectroscopia É conhecido historicamente e aceito cientificamente que a luz é uma onda eletromagnética. Mas o que isto significa? Por que é importante ter esta informação? Vamos pensar! Este breve texto tem o intuito de trazer alguns conceitos físicos referentes às ondas eletromagnéticas e, por conseguinte referentes à luz visível. As ondas eletromagnéticas estão presentes em nosso cotidiano, porém não podemos enxergar a maioria delas. Partindo do fato de que uma determinada carga em repouso gera um campo elétrico (E) a sua volta, temos que quando em movimento o campo elétrico (em uma posição qualquer) estará variando no tempo e gerará um campo magnético (B), que por sua vez também varia com o tempo. O conjunto, campo elétrico e campo magnético (E x B), por definição, constitui uma onda eletromagnética, que se propaga em todas as direções, mesmo no vácuo, como é o caso da luz (KEPLER e SARAIVA 2004). Figura 1: Esquema de uma onda eletromagnética: campo elétrico (E), campo magnético (M), sentido de propagação (C), amplitude (A) e comprimento de onda, e (ë). Ao lado está a divisão das faixas do espectro eletromagnético. http://mundogeo.com/blog/2000/01/01/aplicacoes-ambientais-de-radar-navale/ Uma onda eletromagnética pode ser caracterizada através do seu comprimento de onda (λ) frequência (f) e pela energia que a ela se encontra associada (E). A relação c entre energia, frequência e comprimento de onda é dada por: E = hf = h , onde c é a λ 8 velocidade da luz no vácuo (3,0 x 10 m/s) e h é a chamada constante de Planck (h = 6,625 x 10-34 J.s). À percepção e intensidade da luz em diferentes comprimentos de onda é o que chamamos de espectro. A luz visível corresponde a uma estreita faixa do espectro da radiação cujo comprimento de onda situa-se entre (aprox.): 400 e 700 nm (as fronteiras não são bem definidas), estes comprimentos de onda nos possibilitam enxergar em cores do vermelho ao violeta. Outras faixas de radiação completam o espectro eletromagnético: infravermelho, rádio, ultravioleta, raios-X, raios gama (Figura 2). 33 Figura 2: Espectro eletromagnético http://fisicasemmi sterios.webnode.c om.br/products/on daseletromagneticas/ O Sol, assim com as demais estrelas, possui uma assinatura química, como se fosse uma impressão digital, dada por seu espectro. A maior parte das informações que temos sobre as propriedades físicas das estrelas (temperaturas, densidades e composição) são obtidas a partir de seus espectros, ou seja, a partir da análise dos espectros eletromagnéticos: a espectroscopia. Esta técnica é largamente empregada na química, física, engenharias, astronomia, e várias outras áreas. Em astronomia, ela permite saber informações sobre a constituição química das estrelas e a evolução das reações que lá acontecem assim como a expansão do universo. A partir do estudo do espectro dos elementos presentes na Terra é possível também entender o significado das linhas espectrais e determinar quais elementos químicos estão presentes, por exemplo, no Sol. No século XIX, meados de 1868, a descoberta de uma linha inexplicável do espectro solar por Sir Joseph Norman Lockyer (1836-1920) levou a identificação de um novo elemento químico, o hélio (do grego ‘hélios’; referência ao Sol). Pouco tempo após esta identificação, o elemento hélio foi descoberto na Terra, pelo químico inglês Sir William Ramsay (1852-1916) quando o espectro de um minério de urânio contendo hélio produziu uma linha na posição exata daquela encontrada por Lockyer no espectro do Sol (KEPLER e SARAIVA 2004). Desde a antiguidade já se sabia que a luz solar pode ser decomposta em cores (arco-íris). Com importantes contribuições de Isaac Newton e outros, no século XVII iniciou-se uma busca por explicações para o fenômeno da decomposição da luz solar. Um exemplo clássico é a decomposição da luz do Sol por meio de um prisma. Já em 1814, o jovem construtor de instrumentos ópticos Joseph Fraunhofer (1787 – 1826) inicialmente usando prismas e depois grades de difração, analisou a luz solar e constatou que o espectro solar continha centenas de linhas escuras sobre as cores observáveis. De modo a obter uma primeira classificação, Fraunhofer designou as linhas mais fortes pelas letras de A até I, e mapeou 574 linhas entre a linha B (no vermelho) e a linha H (no violeta). Fraunhofer utilizava as linhas do espectro solar para calibrar seus instrumentos (vidros e prismas), que eram considerados os de melhor qualidade fabricados. É importante atentar para o fato de que também ocorrem linhas escuras nas regiões invisíveis do espectro. Tempos depois da descoberta de Fraunhofer, verificou-se que o número de linhas na região além do espectro visível era bem maior, chegando a vários milhares. Como ressalta Kepler e Saraiva (2004), tempos depois do “mapeamento” de Fraunhofer, as linhas foram identificadas por Gustav Robert Kirchhoff (1824-1887) como sendo (figura 3): 34 Em 1856, Kirchhoff trabalhando ao lado de Robert Wilhelm Bunsen (1811-1899), idealizador do bico de gás de chama incolor (bico de Bunsen), descobriu que cada elemento gerava uma série de linhas diferentes, por exemplo, o neônio tinha linhas no vermelho, o sódio linhas no amarelo e o mercúrio tinha linhas no amarelo e no verde. O detalhe é que estas linhas, oriunda de gases quentes, eram todas brilhantes, enquanto que as de Fraunhofer eram escuras. Como veremos mais adiante, após uma série de experiências, Kirchhoff formulou as três leis empíricas com intuito de determinar a composição de uma mistura de elementos químicos. Estas leis são conhecidas atualmente com as “leis de Kirchhoff para a espectroscopia”, dada a enorme contribuição que trouxeram. É Figura 3: Linhas identificadas por Gustav importante ressaltar que as linhas escuras Robert Kirchhoff. Fonte: observadas no espectro não significam http://astro.if.ufrgs.br/rad/espec/espec.htm ausência de luz, somente o contraste de menos luz. O gás mais frio absorve mais radiação que emite e, portanto, gera linhas escuras. 2. A Origem das Linhas Espectrais: o Átomo e a Absorção e Emissão de Luz No início do século XX, à medida que os cientistas entendiam mais sobre a estrutura dos átomos e a natureza da luz, logo começaram a estabelecer as bases teóricas para a compreensão da formação dos espectros eletromagnéticos. Nas páginas que se seguem focaremos nossa discussão a partir da proposta atômica de Niels Bohr (18851962) para o átomo de hidrogênio. Mas por que a necessidade de um novo modelo para o átomo? O modelo anterior ao de Bohr, proposto por Ernest Rutherford (1871-1937) tinham alguns problemas que se confrontava com a teórica eletromagnética clássica. De acordo com esta teoria, um elétron em órbita ao redor do núcleo atômico (como proposto por Rutherford) deveria emitir radiação, cuja frequência mudaria quando o elétron perdesse energia. Assim o elétron iria perdendo energia, percorrendo um caminho em espiral até colidir-se com o núcleo do átomo. Eis o problema: este fato não acontecia e ninguém sabia explicar “por que” e “o que” realmente acontecia. Em poucas palavras, a Física Clássica não dava conta de explicar o comportamento de um átomo. Niels Bohr, apoiado nas ideias que remexiam a física do início do século XX, propôs a ideia de que um elétron em órbita ao redor do núcleo atômico, apesar de ser uma carga acelerada, necessariamente não emitiria energia. Baseando-se principalmente nas ideias de Planck, Bohr propor um novo modelo atômico, capaz de responder as questões não solucionadas pelo modelo de Rutherford6. 6 Em 1900, o cientista alemão Max Planck (1858-1947) propôs o modelo da quantização da luz, segundo o qual a matéria emite luz em pacotes de energia, que ele denominou quanta. Albert Einstein, em 1905, estudando o efeito fotoelétrico usou a ideia da quantização e assumiu que cada quantum de luz, ou fóton, tem uma energia E dada por: E= hf. 35 Era do conhecimento de Bohr que elétrons que circulam próximo ao núcleo de um átomo possuem menos energia que os elétrons que percorrem órbitas maiores, uma vez que quanto mais próximo do núcleo maior é a atração. Assim, segundo Bohr seria necessária certa quantidade de energia para mover um elétron de uma órbita menor, para outra maior. Bohr acreditou que a diferença de energia entre as órbitas menores e maiores poderiam estar relacionados de algum modo com os discretos feixes de energia propostos por Planck. Este fato o levou a propor que um elétron poderia ocupar apenas certas órbitas precisas (que hoje chamamos de níveis de energia) ao redor do núcleo de um átomo. Uma propriedade básica da mecânica quântica (pacotes de energia) aplicada ao átomo de Bohr relacionada a quantificação da energia associada às diferentes partículas que o constituem, ou seja, estas partículas só podem assumir determinados valores discretos de energia. Isto quer dizer que apenas determinadas órbitas, com certos raios serão permitidas. Assim, os elétrons podem transitar entre os diferentes níveis de energia, assumindo em cada caso um diferente estado (valor) de energia, absorvendo ou emitindo exatamente a radiação correspondente à diferença de energia entre o valor associado a cada um desses níveis. Quando o elétron absorve energia, transita para um estado de energia maior (“menos negativo”) ficando mais excitado, enquanto a emissão de energia acompanha a desexcitação do elétron. Em síntese, as ideias de Bohr quanto à estrutura atômica pode ser entendida da seguinte forma: os elétrons giram ao redor do núcleo em um número limitado de órbitas bem definidas (órbitas estacionárias) com determinados níveis de energia. Ao absorver determinada quantidade de energia o elétron salta para uma órbita (nível) mais energética (estado excitado), ao retornar para a órbita original, o elétron perde energia na forma de ondas eletromagnéticas (luz de cor bem definida), as quais podem ser observadas por meio de espectros correspondentes. Estes saltos se repetem milhões de vezes por segundo, produzindo assim onda eletromagnética (sucessão de ondas emitidas). Figura 4: Esquematização da (Des)excitação atômica (à cima), e espectro de absorção (à baixo). Fontes: http://www.feiradeciencias.com.br/sala23/23_MA02.asp e http://www.prof2000.pt/users/angelof/luz_e_espectros.htm#luz Desta forma, o átomo só pode absorver ou emitir certos valores discretos de energia, que podem ser calculada por: ∆E = E f − Ei , onde ∆E corresponde à energia do fóton emitido ou absorvido, Ei à energia do nível na transição mais próximo do núcleo e Ef quantifica o valor da energia do nível mais afastado do núcleo implicado na transição. 36 É importante ressaltar que um dos aspectos básicos da mecânica quântica que está incorporado ao modelo atual do átomo, e que o faz ser completamente diferente de modelos anteriores, é que a energia dos elétrons no átomo de Bohr está restrita a certos valores discretos, muito bem definidos, sendo somente estes valores permitidos. Passamos a dizer que a energia do átomo é quantizada. Este fato nos revela que apenas certas órbitas, com raios bem estabelecidos, podem ser ocupadas pelos elétrons. Para tais órbitas damos o nome de níveis de energia. Para explicar a evidente estabilidade do átomo de hidrogênio e o surgimento de uma série de linhas espectrais desse elemento, Niels Bohr, em 1913, propôs quatro postulados, levando em consideração a quantização de Planck e cujo significado foi elucidado por Einstein.*. • PRIMEIRO: um elétron em um átomo se move numa órbita circular em torno do núcleo sob a influência da atração de natureza elétrica, entre o elétron e o núcleo, obedecendo às leis da mecânica clássica. • SEGUNDO: em vez das infinidades de órbitas que seriam possíveis segundo a mecânica clássica, um elétron só pode se mover em uma órbita na qual seu momento angular orbital L é um múltiplo inteiro de h. Assim colocado, haveria órbitas proibidas aos elétrons. Eles poderiam ocupar apenas órbitas com raio: rn = n 2 . ε 0 .h 2 π .m.Z .e 2 . Com: n = 1,2,3, ... (órbitas permitidas) e ε0 permissividade elétrica do vácuo (8,85.10-12 C2/N.m2); h constante de Planck (6,63.10-34 J.s); m massa do elétron (9,1.10-31 Kg); e carga elementar em módulo (1,6.10-19 C); Z número atômico do elemento considerado. • TERCEIRO: apesar de estar constantemente acelerado, o elétron que se move numa dessas órbitas possíveis não emite radiação eletromagnética. Portanto, sua energia total E permanece constante. 1 m.Z 2 .e 4 E1 13,60 Os valores da energia nestas órbitas seriam: En = − 2 . = 2 =− 2 . 2 2 n 8.ε 0 .h n n Assim, para o átomo de hidrogênio (Z=1), tem-se que: n=1 (estado fundamental) -- rn= 0,52 Å e En= -13,60 eV n=2 ------------------------------- rn= 2,08 Å e En= -3,40 eV (com 1 eV = 1,6.10-19 J) • QUARTO: é emitida radiação eletromagnética se um elétron que se move inicialmente sobre uma órbita de energia total Ei, muda seu movimento descontinuamente de forma a se mover numa órbita de energia total Ef. A frequência da radiação emitida (f) é igual a: Ei - Ef / h. *Baseado em: “Dualidade Onda-Partícula para Ensino Médio. Curso de Física Moderna para o Ensino Médio” (NUPIC 2011). Enfim, para um elétron ir de um nível energético a outro não basta que ele absorva ou emita energia, é fundamental que esta energia tenha valores específicos, bem definidos, discretos. Estes “pacotes” de energia são chamados de fótons. O modelo de Bohr do átomo de hidrogênio foi apenas um passo intermediário no caminho para uma 37 teoria mais precisa da estrutura atômica, que hoje conhecemos através da mecânica quântica e da eletrodinâmica quântica. 3. Os níveis de energia do átomo de hidrogênio Tendo em vista que o hidrogênio é o elemento mais abundante no Universo, entender seu espectro é fundamental para a astrofísica. As diferenças de energia entre as órbitas é a chave para explicar o espectro do hidrogênio, uma vez que os elétrons retornam rapidamente para as órbitas mais próximas, liberando energia no processo. O processo de emissão ou absorção de radiação no hidrogênio dá origem a séries, as quais são sequências de linhas correspondentes a transições atômicas, cada uma delas acabando (emissão) ou começando (absorção) num mesmo nível energético e nos mostram as possíveis transições que o elétron do átomo de hidrogênio pode fazer. Estas transições do elétron dão origem às seguintes séries (Figura 5): Figura 5: Diagrama de níveis de energia do átomo de hidrogênio e algumas séries do espectro de emissão. Fonte: http://fisicaquimicanet.blogspot.com/2010/01/atomo-de-hidrogenio-e-estrutura-atomica.html 4. Espectros de Absorção e de Emissão e o modelo de Bohr Como vimos os átomos absorvem ou emitem radiação eletromagnética com valores discretos de energia dependente da sua estrutura atômica. Este fato nos permite estudar as diferentes radiações de acordo com o seu comprimento de onda. O registro dessas radiações constitui o espectro atômico, que será de absorção ou de emissão consoante o tipo de transições eletrônicas associadas (Figura 6). Figura 6: Espectros de Absorção e de Emissão (PIETROCOLA et al. 2011) http://www.cienciamao.usp.br/dados/pru/_fisicamodernaecontemporanea17968.apostila.pdf 38 O correspondente espectro pode apresentar simplesmente um contínuo, ou pode ter sobrepostas nesse contínuo um conjunto de marcas brilhantes (espectro de emissão) ou de marcas escuras (espectro de absorção) – espectro discreto. Quando o espectro de uma lâmpada de filamento incandescente é decomposto, por exemplo, a partir de um prisma, o resultado observado é a decomposição de várias cores (tipo arco-íris), ou seja, o espectro da luz visível. Se ao invés da fonte de luz incandescente for utilizada uma lâmpada de gás, o resultado obtido não será um “espectro completo”, ou seja, apenas algumas linhas brilhantes farão parte do espectro observado, o que corresponde à leitura de algumas frequências das ondas de luz visível. Os espectros descritos acima podem ser entendidos teoricamente a partir de três leis empíricas enunciadas por Gustav Robert Kirchhoff (1824-1887) a partir de seus experimentos com intuito ara determinar a composição de uma mistura de elementos. 1) Um corpo opaco quente, sólido, líquido ou gasoso, emite um espectro contínuo. 2) Um gás transparente produz um espectro de linhas brilhantes (emissão). O número e a posição destas linhas dependem dos elementos químicos presentes no gás. 3) Se um espectro contínuo passar por um gás à temperatura mais baixa, o gás frio causa a presença de linhas escuras (absorção). O número e a posição destas linhas dependem dos elementos químicos presentes no gás. Figura 7: As três Leis de Kirchhoff para a espectroscopia Fonte: http://astro.if.ufrgs.br/rad/espec/espec.htm As leis de Kirchhoff e o modelo atômico proposto por Bohr permitem entender melhor o misterioso mundo dos espectros atômicos. A enunciação dos postulados de Bohr nos revela que os elétrons ao serem excitados por uma fonte externa de energia, saltam para um nível de maior energia e ao retornarem aos níveis de menor energia, liberam energia na forma de luz (fótons). Assim, sabendo que a cor da luz emitida é estritamente ligada à energia entre os níveis envolvidos na transição e como essa diferença varia de elemento para elemento, pode-se concluir que a luz apresentará uma cor característica para cada elemento químico. As linhas observadas nos espectros de emissão e absorção de determinado elemento químico ocupam a mesma posição, uma vez que estão associados a uma mesma frequência. Finalizando estas breves considerações a respeito do espectro eletromagnético e do átomo de Bohr, apresentamos um exemplo teórico de para o espectro de emissão. 39 Conjecturamos que em um dado momento uma amostra de hidrogênio que de alguma forma foi excitada, ocorrendo um salto quântico de um elétron do nível 2 para o nível 3 de sua camada eletrônica. Quase que instantaneamente, o elétron retorna para seu estado inicial emitindo um fóton. Como calcular a frequência do fóton emitido e como registrar a linha de espectro emitida. Dados: no estado n = 3 a energia é E3 = -1,51 eV e n = 2, a energia é E2 = -3,40 eV. ∆E = h.v → v = ∆E E3 − E2 − 1,51 − (−3,40) = →v= → v = 4,6.1014 Hz −15 h h 4,1.10 Com a utilização de uma chapa fotográfica pode-se registrar essa linha do espectro de emissão. 5. Notas para aprofundamento (http://ciencia.hsw.uol.com.br/atomos8.htm) É importante destacar que o modelo de Bohr também apresenta algumas limitações. Embora explicasse adequadamente como os espectros atômicos funcionavam, havia alguns problemas que ainda incomodavam os físicos e químicos: Por que os elétrons ficariam confinados apenas em níveis específicos de energia? Por que os elétrons não emitiam luz o tempo todo? (os elétrons por mudarem de direção em suas órbitas circulares (aceleravam), eles deveriam emitir luz). O modelo de Bohr conseguia explicar muito bem os espectros de átomos com um elétron na camada mais externa, mas não era muito bom para os que tinham mais de um elétron nessa camada. Estas, dentre outras limitações evidenciavam que o modelo de Bohr necessitava de “ajustes”. Parafrasenado Lord Kelvin: pequenas “nuvens” no universo atômico. Um destes ajustes surgiu em 1924, quando o físico francês Louis de Broglie sugeriu que, assim como a luz, os elétrons podiam agir como partículas e ondas. Fato confirmado logo depois a partir de experimentos que mostraram que os feixes de elétrons podiam ser difratados ou curvados com sua passagem através de uma fenda, da mesma maneira que a luz. Assim, as ondas produzidas por um elétron confinado em sua órbita ao redor do núcleo definem uma onda estacionária, com λ, E e f específicas (os níveis de energia de Bohr). Com as ideias de De Broglie, o físico alemão Werner Heisenberg sugeriu não ser possível saber com exatidão o momento e a posição de um elétron no átomo, o que chamou de princípio da incerteza (mesmo se um elétron viajasse como uma onda não seria possível localizar a posição exata deste elétron dentro dessa onda). Assim, as ideias de Heisenberg resultam em: para ver um elétron em sua órbita, é preciso iluminálo com um comprimento de onda menor do que o comprimento de onda do elétron. Esse pequeno comprimento de onda de luz possui energia alta, o elétron irá absorver essa energia e essa energia absorvida irá mudar a posição do elétron. Ou seja, segundo Heisenberg, não devemos imaginar os elétrons como se estivessem se movendo em órbitas bem definidas ao redor do núcleo. Com a hipótese de Broglie e o princípio da incerteza de Heisenberg, em 1926, um físico austríaco Erwin Schrodinger criou uma série de equações (chamadas de funções de onda) para os elétrons. Para Schrodinger, os elétrons confinados em suas órbitas definiriam ondas estacionárias e se poderia descrever somente a probabilidade de onde um elétron estaria. As distribuições dessas probabilidades correspondiam às regiões de espaço formadas ao redor do núcleo que formam as regiões chamadas de orbitais. Neste 40 sentido, os orbitais poderiam ser entendidos como nuvens de densidade de elétrons, deste modo, a área mais densa da nuvem resulta na região onde se tem a maior probabilidade de encontrar o elétron e vice versa. Tal função de onda de cada elétron pode ser descrita como um conjunto de três números quânticos: principal (n) - descreve o nível de energia, azimutal (l) - a rapidez com que o elétron se move em sua órbita (momento angular), magnético (m) - sua orientação no espaço. Além destes três números quânticos, posteriormente foi proposto mais um número, que relacionava à direção em que o elétron gira enquanto se move em sua órbita (sentido horário ou anti-horário). Esta expansão foi necessária uma vez que dois elétrons não poderiam estar no mesmo estado. Apenas dois elétrons poderiam compartilhar o mesmo orbital: um no sentido horário e outro girando no sentido antihorário. Em síntese, o modelo Figura 8: Modelo resultante do átomo é o que quântico de um chamamos hoje de modelo átomo de sódio. quântico do átomo, sendo esta a http://ciencia.hsw. visão mais realística da estrutura uol.com.br/atomo geral do átomo que temos. Ele s8.htm explica muito do que conhecemos sobre a química e a física. 6. Construindo um espectroscópio amador com materiais de baixo custo. São muito frequentes as divulgações pelas mídias sobre descobertas astronômicas. No entanto, raramente se discute como é possível estudar objetos tão distantes de nós, como, estrelas situadas a milhares de anos-luz da Terra. Na maioria dos casos a resposta esta na análise da luz advinda destes objetos e na subsequente análise do seu espectro eletromagnético, técnica conhecida como espectroscopia. A presente atividade tem o intuito de propiciar um primeiro contato com a espectroscopia a partir da construção de um espectroscópio amador utilizando materiais de baixo custo. A montagem é baseada na situação de aprendizagem “Um equipamento astronômico” sugerida pela Proposta Curricular do Estado de São Paulo para a 3ª E.M.e utiliza os seguintes materiais: Fita isolante/adesiva, CD, cola, régua, estilete, tesoura, tubo de papelão (papel toalha) revestido com papel color set preto. Figura 9a: Materiais utilizados Figura 9b: Tampas para o tubo 41 Figura 9c: Retirando a película do CD Figura 9d: Espectroscópio pronto Fonte: Proposta Curricular do Estado de São Paulo (SEE/SP, 2009, 3º EM, Ap. 3). A montagem do espectroscópio: a primeira etapa é fazer duas tampas para o cilindro (tubo de PVC ou papelão), sendo uma com uma fenda central (2 cm x 1 mm) e outra com um orifício no centro (1 cm2) (Figura 9b). Em seguida retira-se a película refletora do CD e corta-se (utilizando as bordas do CD, local onde as linhas de gravação são mais paralelas) um quadrado de 2 cm2 colando-o sobre a tampa com o orifício quadrado (Figura 9c). Finalmente são coladas as tampas sobre o tubo de PVC, tomando o cuidado de deixar a fenda de uma tampa alinhada com o orifício quadrado da outra tampa, e isolando bem para evitar frestas que possibilitassem a entrada de luz por outro caminho senão a fenda da tampa (Figura 9d). Pronto já temos nosso espectroscópio amador! Um espectroscópio é um instrumento capaz de dispersar a luz branca emitida por uma fonte de luz, decompondo-a em variadas cores. Isto possibilita-nos determinar os diferentes comprimentos de onda (λ) que a compõem. O que torna esta ação possível é o fato do espectroscópio ser construído a partir de uma rede de difração (difração da luz) ou prisma (refração da luz, devido à mudança no meio de propagação). Após a construção, algumas atividades são sugeridas: observe diversas fontes de luz, como o Sol (a partir de observação indireta), lâmpada incandescente, lâmpada traseira de automóveis..., e faça uma representação das imagens observadas (espectros). O objetivo é que a partir das observações individuais possamos fomentar nossas discussões a respeito dos diferentes espectros observados (espectro contínuo, de absorção e de emissão) e permitir ainda adentrar em outros campos do conhecimento, particularmente a química, ao discutir as linhas espectrais e os espectros de diferentes elementos químicos. Sugestão para organização dos dados coletados:* Fonte de Luz Tabela 1: Dados coletados Tipo do espectro Representação artística da imagem observada Contínuo Absorção Emissão evidenciando as cores ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) Cores que se destacam (da esq. para dir.) *Esta forma de sistematização de coleta de dados foi adaptada da dissertação de Azevedo (2008). Em sala de aula, esta atividade pode ser um adendo a fomentar futuras discussões sobre abordagens qualitativas relacionadas ao espectro visível, por exemplo: o espectro solar não ser formado apenas pelo contínuo de cores, mas também por linhas escuras que se sobrepõem este contínuo; a disposição, intensidade e largura das linhas e as informações que delas derivam (composição química dos gases e astros celestes); o estudo e comparação com espectro de elementos químicos presentes na Terra, entre outras. 42 7. Atividade interativa: Simulação de linhas espectrais dos elementos químicos Esta atividade tem o intuito de possibilitar, por meio de simulação (Applet), visualizar os diferentes tipos de espectros (de emissão e de absorção) dos elementos químicos. No espectro mostrado, é possível visualizar as faixas de absorção caracterizando do elemento químico escolhido. Figura 10: Simulação de linhas espectrais dos elementos químicos. Selecione as linhas em emissão ou em absorção. Clique no elemento o químico de sua escolha e veja a figura do espectro, de 4000 a 7000 Å. Você pode também clicar sobre uma linha e segurar para ver o λ (Å). http://astro.if.ufrgs.br/rad/elements/Elements.htm 8. Willian Herschel e a descoberta do infravermelho Podemos não percebê-la diretamente, talvez muitas pessoas nem saibam que ela existe, porém a radiação infravermelha é mais frequente em nossa vida do que possamos imaginar. Dentre inúmeros exemplos, a radiação infravermelha está presente nos diversos controles remotos (TV, DVD, portão eletrônico...), em tratamentos médicos e odontológicos, e, com um olhar mais amplo, em questões ambientais como o efeito estufa. Aqui propomos a discussão, por meio de um experimento bastante simples e a utilização de materiais de baixo custo, da descoberta do infravermelho por Willian Herschel (1738-1822). Em 1800, Herschel elaborou um aparato experimental para analisar a luz advinda do Sol. Herschel estava interessado na medida da quantidade de calor associada a cada cor do espectro solar. Para fazer isto ele usou termômetros com bulbos pintados de pretos e mediu a temperatura nas diferentes cores do espectro. Percebeu que a temperatura crescia da parte azul do espectro para a parte vermelha. A partir destra constatação, Herschel posicionou outro termômetro um pouco além da parte vermelha do espectro, em uma região onde não se observava incidência de luz visível (cores). Para sua surpresa o termômetro indicou uma temperatura acima das medidas anteriormente (temperatura no azul e no vermelho). Herschel concluiu então que deveria haver “outro tipo de luz” o qual não podia ser visto nesta região. Esta luz ele chamou de infravermelho (NASA 2010). Figura 11: Aparato utilizado por Herschel (HERSCHEL 1800 apud KITAGAWA e GASPAR 2011). 43 Descrição experimental7 Para recriar um experimento similar ao realizado por Herschel, utilizaremos um prisma de vidro, três termômetros a álcool, um pedaço de papel branco, marcador permanente de tinta preta e uma caixa de papelão. Os bulbos dos termômetros devem ser escurecidos (pintados de preto), de modo a absorverá melhor o calor do Sol. Inicialmente deve-se colocar uma folha branca no fundo de uma caixa de papelão (painel de projeção). Anexar cuidadosamente o prisma de vidro perto da borda da caixa e guie o “conjunto” de modo que os raios solares incidam diretamente sobre o prisma, produzindo um espectro suficientemente amplo no fundo da caixa. Dependendo do local e horário em que se realiza o experimento, talvez seja necessário apoiar o “conjunto” sobre algum objeto (inclinar a caixa). Após esta montagem, de modo a “calibrar/verificar” a medição dos termômetros, é necessário colocá-los e registrar a temperatura do ar ambiente na sombra. Em seguida colocar os termômetros no espectro de tal forma que um dos bulbos esteja na região azul, outro na região do amarelo, e o terceiro apenas para além da região (visível) vermelha. A montagem experimental é bastante simples e está evidenciada na figura abaixo (figura 12). Figura 12: Montagem do experimento (NASA 2010). http://coolcosmos.ipac.caltech.edu/cosmic_classroom/classroom_activities/herschel_experiment2.html Para um resultado mais satisfatório, algumas ações são sugeridas: este experimento deve ser realizado ao ar livre em um dia bem ensolarado, com pouca incidência de nuvens; a temperatura leva de cinco a sete minutos para se estabilizar (valores finais); não remova os termômetros a partir do espectro ou bloqueie o espectro durante a leitura das temperaturas. 7 Esta prática é baseada na atividade “Herschel Infrared Experiment” desenvolvida por um grupo de divulgação científica associado à NASA. http://coolcosmos.ipac.caltech.edu/ 44 Tabela 2: Tomada de dados experimentais* Calibração dos termômetros (ºC) Termômetro 1 Termômetro 2 Termômetro 3 Temperatura na sombra Dados coletados no espectro solar (ºC) Termômetro 1 Termômetro 2 Termômetro 3 Temperatura no espectro (Azul) (Amarelo) (Além do vermelho) Após 1 minuto Após 3 minuto Após 5 minutos Depois de 7 minutos (Final) Variação da temperatura *Baseado em: Herschel Infrared Experiment - http://coolcosmos.ipac.caltech.edu/ Questões para discussão: O que você notou sobre suas leituras de temperatura? Você viu alguma tendência? Onde estava a temperatura mais alta? Quais as aplicações que este experimento pode gerar no entendimento do espectro eletromagnético? É importante destacar que o experimento de Herschel, apesar de muito simples, foi extremamente importante, uma vez que pela primeira vez demonstrou-se que existiam espectros eletromagnéticos além da luz visível. Hoje sabemos que existem vários espectros além dos observados pelos nossos olhos e que estes visíveis são apenas uma pequena parte da radiação emitida pelos “corpos”. 9. Bibliografia Consultada AZEVEDO, M. C. P. S. Situações de ensino – aprendizagem. Análise de uma sequência didática de física a partir da Teoria das Situações de Brousseau. Dissertação de mestrado, Instituto de Física e Faculdade de Educação da USP, 2008. KITAGAWA, M. S. e GASPAR, M. B. O experimento de Herschel na descoberta da radiação infravermelha: a utilização de fontes primárias no ensino de física. XIX Simpósio Nacional de Ensino de Física, 2011, Manaus/AM. Disponível: <http://www.sbf1.sbfisica.org.br/eventos/snef/xix/sys/resumos/T0543-2.pdf>. NUPIC (Núcleo de Pesquisa em Inovação curricular). A Transposição das Teorias Modernas e Contemporâneas para a Sala de Aula: Dualidade Onda-Partícula, 2011. Disponível em: <http://www.nupic.fe.usp.br/Projetos%20e%20Materiais/material-curso-de-linhasespectrais>. Acesso em: 06 Novembro 2011. KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termo-Nuclear. In: Astronomia e Astrofísica. São Paulo: Livraria da Física, 2004. NASA (America's space agency). The Herschel Experiment, 2010. Disponível em: <http://coolcosmos.ipac.caltech.edu/cosmic_classroom/classroom_activities/herschel _experiment.html>. Acesso em 01 Novembro 2011. PIETROCOLA et al. Física moderna e contemporânea, Apostila de Física, módulo 6. Governo do Estado de São Paulo, Secretária da Educação, 2011. SEE/SP. Proposta Curricular do Estado de São Paulo. Caderno do Professor: Física. Secretaria de Estado da Educação de São Paulo, São Paulo, 2009, Ap. 3, p. 25-9. 45 Tema 7: 7: Aspectos gerais de Física Solar Pedro Donizete Colombo Junior [email protected] 1. Vivendo com uma estrela O que é o Sol? Do que ele é feito? Como ele produz sua energia? Ele traz apenas benefícios para a Terra? Porque é importante estudar o Sol? Estas são questões muito comuns quando as pessoas visitam observatórios astronômicos e planetários. Buscaremos ao longo destes dois encontros discutir sobre tais questões e aprofundar nossos conhecimentos a respeito de nossa estrela. Uma rápida reflexão sobre o Sol nos revela sua importância à vida, e diversos motivos que justificam a escolha em trabalhá-lo em sala de aula com alunos do ensino médio. O Sol já foi protagonista em debates memoráveis a respeito de nossa visão de mundo (heliocêntrico ou geocêntrico), foi considerado deus na religiosidade de distintos povos (Tupis, Incas, Maias, etc.) tamanho sua importância para o desenvolvimento da vida na Terra, é um assunto que naturalmente possibilita uma abordagem interdisciplinar, abrangendo uma gama imensa de possibilidades de trabalhos, é um astro celeste vivenciado por todos, porém pouco conhecido pelo público em geral. Enfim, é a estrela que torna possível a vida de todas as espécies que hoje habitam nosso planeta, e também que (direta ou indiretamente) torna possível a leitura deste texto. O Sol é a estrela mais próxima da Terra e, portanto a mais estudada pelos cientistas. A partir do Sol podemos inferir a evolução e a constituição física das demais estrelas, nos servindo de um laboratório de estudos, impossível de ser reproduzido na Terra. Basicamente nossa estrela é uma gigantesca esfera quente de gases com aproximadamente 1,4 milhões de quilômetros de diâmetro, situado a aproximadamente 150 milhões de quilômetros da Terra. Ainda assim, a maior parte das estrelas existentes são maiores que o Sol e encontram-se muito mais distantes (a estrela mais próxima da Terra depois do Sol, Próxima Centauri, encontra-se a mais de 40 trilhões de quilômetros da Terra). Tabela 1. Características Físicas de nossa Estrela, o Sol* Raio 695 500 Km ~ 109 RTerra Massa 1,989 x 1030 Kg ~ 332 946 x MTerra Luminosidade (potência) 3,854 x 1026 W Constante Solar 1366 W/m2 Temperatura da superfície 5780 K = 5507 ºC Densidade média 1,409 x 103 Kg/m3 Densidade central 150 000 Kg / m3 Idade 4,55 bilhões de anos *Fonte: Silva, A. (2006). Nossa estrela: o Sol. São Paulo: Editora Livraria da Física. 46 2. Estruturas do Sol e eventos solar Para efeitos de estudos, o Sol pode ser dividido em duas regiões: interior e atmosfera. Estas duas regiões podem ainda serem interpretadas em função das estruturas: núcleo, camada radioativa, tacoclina e camada convectiva compreendendo o interior solar e fotosfera (superfície solar), cromosfera, região de transição e coroa solar compreendendo a atmosfera solar. Quanto ao núcleo solar, este se estende até aproximadamente um quarto do raio solar, e contém em torno de 10% de toda massa solar (SILVA 2006). A temperatura no núcleo solar gira em torno de 15 milhões de K (Kelvin), decaindo para próximo de 6000 K na superfície solar. Com a densidade ocorre o mesmo efeito, no núcleo é da ordem de 150.000 kg/m3 decrescendo em direção à superfície solar. É em meio a este ambiente inóspito que ocorrem as reações termo-nucleares, as quais fornecem energia para o Sol e direta ou indiretamente propícia a vida na Terra. Sabe-se hoje que a principal fonte de energia solar é a fusão de prótons em núcleos de hélio. Estima-se que a energia responsável pela luminosidade do Sol é da ordem de 3,8 x 1026 J/s (ZIRIN 1988). Esta energia é muito alta, se comparada, por exemplo, à potência de todas as usinas hidrelétricas, termelétricas e nucleares no Brasil (aproximadamente 9 x 1010 J/s). Até chegar à fotosfera solar, a energia produzida pelo núcleo tem uma longa jornada, passando por duas regiões ou etapas de transporte. Até aproximadamente 70% de o raio solar, a energia é transportada por radiação através de uma camada solar denominada radiativa (a radiação flui sendo absorvida e re-emitida pelos íons do plasma várias vezes). Acima de 70% de o raio solar ocorre um decréscimo da temperatura para cerca de 10.000 K, ocorrendo à formação de diversos íons, como o hidrogênio, potentes absorvedores da radiação proveniente do núcleo. Neste contexto, a absorção da radiação se torna significativa, o que impede o transporte de energia por este meio. Assim a partir deste ponto, o mecanismo de transporte torna-se a convecção, ou seja, o transporte ocorre na chamada camada solar convectiva. Figura 1: Ilustração das camadas do interior solar http://www.windows2universe.org/sun/Solar_interior/Sun_layers/ra diative_zone.html 47 Entre a camada radiativa e a camada convectiva, há uma estreita camada conhecida como Tacoclina8, que separa a rotação uniforme do núcleo radioativo da rotação diferencial da zona de convecção. A Tacoclina é importante por ser o local onde os campos magnéticos do Sol são gerados (SILVA 2006) através de um processo denominado dínamo solar. Quanto à atmosfera solar, para efeitos de estudo, podemos dividi-la em camadas. A primeira camada é conhecida como fotosfera solar, tem cerca de 300 km de extensão e é relativamente fria (cerca de 6000 k). Comumente esta camada é chamada de superfície solar, porém é importante destacar que o Sol não tem uma superfície no sentido amplo da palavra. A segunda camada com aproximadamente 10.000 km de extensão e temperatura de algumas dezenas de milhares de Kelvin é a cromosfera. Por fim, a terceira camada conhecida como coroa solar se estende por todo o meio interplanetário. Quando nos referimos à fotosfera, estamos falando da “superfície” do Sol. A fotosfera solar não é uma região lisa, muito pelo contrário, ocorrem diversas estruturas na fotosfera, como: grânulos, manchas solares e fáculas. A fotosfera solar tem a aparência da superfície de um líquido denso em ebulição, contendo inúmeros grânulos (bolhas), que cobrem toda sua estrutura (Figura 2). Os grânulos marcam os topos das colunas convectivas de gás quente que se formam na zona convectiva, logo abaixo da fotosfera. Figura 2: Grânulos da fotosfera (células da camada conectiva) (KEPLER e SARAIVA 2004). Outra estrutura solar que ocorre na fotosfera são as chamadas manchas solares. Estas são facilmente observadas na superfície do Sol e consiste de regiões escuras da fotosfera com temperatura inferior ao seu entorno. Manchas solares muitas vezes apresentam-se superiores ao tamanho da Terra e possuem uma temperatura média em torno de 4500 K. Por não estarem fixas no Sol é possível observar seu deslocamento após poucas horas de observação. As manchas solares têm vida curta, em média algumas semanas. Apesar de aparentar-se como manchas escuras da fotosfera, se fosse possível extrair e isolar uma única mancha solar no espaço, veríamos que é mais brilhante do que a luminosidade refletida pela lua em noite de lua cheia. O aparecimento das manchas solares é devido ao intenso campo magnético em certas regiões da fotosfera (principalmente no interior das manchas solares), que atrapalha a convecção de energia proveniente da camada convectiva e consequentemente diminui a temperatura local em mais de 1000 K. 8 Tacoclina significa “variação da velocidade”, e tem sua gênese na palavra grega “thacos” (velocidade). 48 A segunda camada da superfície solar é a cromosfera, a qual está localizada logo acima da fotosfera. Esta pode ser vista durante eclipses solares totais ou em comprimentos de onda específicos no visível, ultravioleta e em altas frequências de rádio. Enquanto a temperatura na fotosfera decresce do interior para o exterior, acontece o contrário na cromosfera, ou seja, sua temperatura é bem superior a da fotosfera crescendo de ~6.000 K para próximo de ~20.000 K em aproximadamente 10.000 km (SILVA 2006). Atualmente acredita-se que a fonte de energia responsável pelo aquecimento brusco da cromosfera são os campos magnéticos variáveis formados na fotosfera e transportados para a corona solar por correntes elétricas. Nesta jornada, parte da sua energia é retida pela cromosfera, o que naturalmente eleva sua temperatura consideravelmente. A cromosfera é uma camada heterogênea da atmosfera solar que apresenta regiões com muitas atividades solares, como filamentos, proeminências e espículas. Filamentos são nuvens de material denso alçadas da superfície solar por intermédio de arcos de campo magnético. Quando observados no disco solar, os filamentos possuem uma aparência escura, uma vez que são um pouco mais frios que o entorno, no entanto quando observados no limbo solar (borda do Sol) sua aparência é brilhante e são chamados de proeminências (Figura 3). Figure 3: Proeminência Esta foto de 1999 mostra uma proeminência alçando na cromosfera solar (aprox. 127.000 km de altura e temperatura de 60.000 K). Ilustra também, de modo artístico, um comparativo com o tamanho da Terra (SOHO/NASA/ESA) A última camada da atmosfera solar é a conhecida como coroa solar. Esta é a camada mais extensa da atmosfera solar, sendo mais concentrada até cerca de dois raios solares (coroa interna), e se estendendo por todo meio interplanetário (coroa externa). Assim como a cromosfera, parte da coroa solar é visível durante eclipses solares totais, ou pelo uso de um coronógrafo (dispositivo que simula um eclipse solar total) ou ainda por satélites em raios X. A coroa solar, apesar de ter um brilho maior do que o refletido pela lua cheia, fica obscurecida quando a fotosfera é visível. A característica mais marcante e intrigante da coroa solar é sem dúvida sua elevadíssima e praticamente constante temperatura. O estudo da radiação emitida pela coroa solar, em toda a gama das radiações eletromagnéticas, permite mostrar que ela apresenta uma temperatura muito acima das temperaturas de outras camadas solares (fotosfera e cromosfera), atingindo a ordem de 2 a 4 milhões de Kelvin, porém acompanhada por um considerável decréscimo em sua densidade. O fato da coroa ter uma temperatura muito acima das demais camadas da atmosfera solar intriga os pesquisadores, sendo um questionamento com resposta não conclusiva. Apesar de não se ter uma resposta conclusiva, sabe-se que o aumento brusco da temperatura acontece 49 em uma região transição, situado entre a cromosfera a coroa solar, cuja espessura é inferior a mil quilômetros. Nesta região a temperatura cresce rapidamente de 20.000 K para milhões de Kelvin, sendo quase todo o hidrogênio do plasma solar ionizado. Figura 4: Coroa solar visível durante um eclipse solar total (à esq.). Imagem da coroa solar tirada com o uso de um coronógrafo (equipamento que bloqueia o disco solar e permite estudar sua atmosfera) (à dir) - o círculo branco representa a localização e dimensão do Sol (SOHO/NASA/ESA). Até aqui vimos muito brevemente às estruturas solares, as quais serão discutidas em detalhes no decorrer de nosso curso. No entanto, quando estudamos o Sol é muito importante entender alguns de seus fenômenos que afetam diretamente a Terra, por exemplo: vento solar, tempestade geomagnética e auroras. Além do calor e da luz, o Sol também emite constantemente, a partir da coroa solar, um fluxo de partículas (átomos neutros, elétrons e íons) carregadas conhecidas como vento solar. Este fenômeno solar está intimamente relacionado a variações que ocorrem na coroa solar, causadas pela própria rotação do Sol e por suas atividades magnéticas. O vento solar dissipa-se em todas as direções e atinge velocidades da ordem de 450 Km/s (1,6 milhões de km/h) próximo da órbita da Terra. Apresenta ainda uma densidade média de 107 partículas por metros cúbicos e temperatura em torno de 105 K (SILVA 2006). Uma das primeiras evidências observacionais da existência do vento solar tem origem na observação das caudas dos cometas. Ao aproximarem da superfície solar os cometas sofrem fortemente a ação das atividades solares. A intensidade de o vento solar e também da radiação solar interage com estes astros celestes sendo capaz de retirar matéria dos cometas, criando as suas caudas, as quais se encontram sempre na direção radial oposta ao Sol. Uma das maneiras mais severas que o Sol pode afetar a Terra é através das chamadas tempestades geomagnéticas, que ocorrem com mais frequência em épocas de alta atividade solar. As causas das tempestades geomagnéticas são devidas basicamente a ejeção de massa coronal (CME) e interação entre tormentas do vento solar em velocidades distintas. Durante uma tempestade geomagnética o campo magnético terrestre apresenta variações rápidas em escala globais. As tempestades geomagnéticas são praticamente idênticas, consistindo de um aumento abrupto do campo magnético durante 12 a 24 horas, seguido por uma recuperação gradual que pode cerca de quatro dias. Em 1989, uma grande tempestade geomagnética causou um apagão elétrico na província de Quebec (Canadá) e causou muitos prejuízos em New Jersey (EUA). Os danos e perda de receita foram estimados em centenas de milhões de dólares (Figura 5). Outra tempestade solar, ocorrida em dezembro de 2005, tirou do ar diversos satélites de comunicação e sistemas de posicionamento global (GPS) durante 10 minutos (NASA, 2008). 50 Figura 5: Transformador danificado devido à tempestade geomagnética em 1989. http://science.nasa.gov/sciencenews/science-at-nasa/2008/06may_carringtonflare/ As tempestades geomagnéticas podem provocar inúmeros danos a Terra, como: provocar indução de corrente elétrica em sistemas de fornecimento de energia elétrica provocando variações de frequência e voltagem, afetarem sistemas de navegação, órbita de satélites, GPS (Global Positioning System). E também emitir radiações ionizantes que podem atingir missões espaciais tripuladas colocando em risco a vida dos astronautas pela exposição à grande quantidade de radiação (CECATTO 2010). Um dos eventos mais fantásticos propiciado pelo Sol e vivenciado na Terra, sem qualquer uso de aparelhos, são as auroras. Infelizmente este fenômeno é improvável de ser visto no Brasil, uma vez que acontece nas regiões polares da Terra. A aurora é um fenômeno estritamente ligado a ejeção de massa coronal do Sol. Algumas das partículas eletricamente oriundas do vento solar superam a magnetosfera terrestre e espiralando em torno das linhas de campo magnético penetram na atmosfera terrestre pelas regiões polares. Ao entrarem na atmosfera, estas partículas solares (elétrons) colidem com átomos de oxigênio e nitrogênio existentes na atmosfera e colorem o céu local. Figura 6: Aurora vista da Terra. http://earthobservatory.nasa.gov/Features/ISSAurora/ Como apresentado, embora importante do ponto de vista científico, raramente é ensinado nas escolas brasileiras, seja na Educação Básica ou em cursos de formação de professores. Esperamos durante nosso curso discutir muitas das questões aqui levantadas. 51 3. Referências CECATTO, J. R. O Sol. In: Introdução à astronomia e astrofísica, Instituto Nacional de Pesquisas Espaciais, INPE-7177-PUD/38, São José dos Campos, São Paulo, 2010, cap. 4, p. 129-170. ERASO, G. A. G. Estudos numéricos do dínamo Solar. Tese de doutorado, Instituto de Astronomia, Geofísica e Ciências atmosféricas, Universidade de São Paulo, São Paulo, 2009. KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termo-Nuclear. In: Astronomia e Astrofísica. São Paulo: Livraria da Física, 2004. Disponível em: <http://astro.if.ufrgs.br/index.htm>. Acesso em: 12 Agosto 2011. SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006. ZIRIN, H. Astrophysics of the Sun. New York: Cambridge University Press, 1988. 52 Tema 8: 8: Energia Solar Pedro Donizete Colombo Junior [email protected] 1. Como o sol produz sua energia? Apesar de enxergar o Sol todos os dias e sobreviver graças a sua energia, sua natureza é misteriosa e intrigante para a maioria das pessoas. O Sol é a estrela mais próxima da Terra e a mais estudada pelos cientistas (ZIRIN 1988; BHATNAGER e LIVINGSTON 2005; SILVA 2006). Aqui somos convidados a ‘olhar’ para o interior do Sol e buscar compreender o Sol a partir do estudo sobre a produção de energia e as reações que ocorrem em seu interior. Ao abordar o núcleo solar é possível discutir vários fenômenos químicos relacionados diretamente com as estrelas, por exemplo, a produção de energia no interior das estrelas; a origem dos elementos químicos e evolução estelar. Assim podese entender melhor a dinâmica estelar como gigantescos reatores nucleares responsáveis pela síntese dos elementos químicos. No que tange ao nosso Sol, este é composto principalmente de hidrogênio (cerca de 92,1% do número de átomos, 75% da massa). Hélio também é encontrado no Sol (7,8% do número de átomos e 25% da massa). Outros elementos (0,1%) também fazem parte da composição solar, principalmente carbono, nitrogênio, oxigênio, neônio, magnésio, silício e ferro. É importante destacar que esses valores mudam à medida que o Sol converte o hidrogênio em hélio em seu núcleo. O Sol não é sólido, nem gás, mas plasma, ou seja, gás ionizado constituído de elétrons livres, íons e átomos neutros (NASA 2011). A energia solar é produzida por meio de reações de fusão nuclear, ocorridas em seu núcleo. Na fusão nuclear prótons dos átomos de hidrogênio, sob a ação da enorme pressão e da alta temperatura no centro da estrela, “se juntam” (ou "se fundem"), formando núcleos de hélio. Essa reação é chamada de ciclo próton-próton. Um esquema artístico (sucinto) das reações nucleares (que ocorrem no núcleo das estrelas) é explicitado na figura a seguir (Figura 1). Figura 1: Ciclo próton-próton (KEPLER e SARAIVA 2004). 53 Dois prótons (núcleos do hidrogênio) se juntam para formar um deuteron (núcleo do deutério) mais um pósitron e um neutrino. Em seguida o deuteron se combina com outro próton para formar um núcleo de hélio-3. Finalmente, os núcleos de hélio-3 se juntam para formar um núcleo de hélio-4, liberando dois prótons. A massa do produto da fusão é um pouco menor que a soma das massas dos núcleos que se fundiram. A diferença de massa é liberada na forma de energia, segundo a formulação de Einstein, E = mc2 (KEPLER E SARAIVA 2004). É importante ressaltar que à medida que se desloca em direção à superfície, a energia produzida pelo núcleo solar é continuamente absorvida e novamente irradiada a temperaturas cada vez mais baixas, de modo que ao atingir a superfície ela é basicamente luz visível. Estima-se que a energia responsável pela luminosidade do Sol é da ordem de 3,8 x 1026 J/s. Como mencionado em outros momentos do texto, esta energia é muito alta, se comparada à potência de todas as usinas hidrelétricas, termelétricas e nucleares no Brasil (aproximadamente 9 x 1010 J/s) (SILVA 2006). Para aprofundar e fomentar melhor nossas discussões durante o curso recomendase fortemente a leitura dos textos “Fusão Termonuclear” e “A Fonte de Energia das Estrelas” do livro “Astronomia e Astrofísica” de Kepler de Souza Oliveira Filho e Maria de Fátima Oliveira Saraiva (UFRGS), disponível em: http://astro.if.ufrgs.br/estrelas/node10.htm 2. Referências AROCA, S. C. Ensino de física solar em um espaço não formal de educação. Tese de Doutorado, Instituto de Física de São Carlos, Universidade de São Paulo, 2009. BHATNAGER, A. e LIVINGSTON, W. Fundamentals of solar astronomy. Singapura: World Scientic Publishing, 2005. INPE. Introdução à astronomia e astrofísica, Instituto Nacional de Pesquisas Espaciais, INPE-7177-PUD/38, São José dos Campos, São Paulo, 2010. http://www.das.inpe.br/ciaa/cd/HTML/dia_a_dia/1_7_1.htm KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termonuclear. In: Astronomia e Astrofísica. São Paulo: Editora Livraria da Física, 2005. Disponível em: http://astro.if.ufrgs.br/estrelas/node10.htm. . Acesso em 02 fev. 2011. NASA (America's space agency). Our Star the Sun, 2011. Disponível em: http://sohowww.nascom.nasa.gov/classroom/classroom.html. Acesso em 28 jan. 2011. SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006. ZIRIN, H. Astrophysics of the Sun. New York: Cambridge University Press, 1988. 54 Tema 9: 9: Dimensões e Distâncias Relativas SolSol-Terra Pedro Donizete Colombo Junior [email protected] 1. Descrição experimental: Diâmetro do Sol. Em temas anteriores estudamos algumas das características de nosso Sol, como: estruturas e localização e relações com a Terra. Aqui a pretensão é iniciar algumas atividades práticas concernentes à física solar. Neste sentido, uma ação de sensibilização inicial é a discussão teórica e prática sobre as dimensões e distâncias relativas ao Sol-Terra. Para nossos trabalhos, torna-se importante a familiarização com a noção de distância em que nos encontramos do Sol, ou seja, aproximadamente 150 milhões de quilômetros, o que corresponde a 1 UA (Unidade Astronômica). Para a estimativa do diâmetro solar utilizaremos uma atividade bastante simples e noções básicas de geometria (semelhança de triângulos) e cálculos elementares. A atividade requer alguns materiais escolares básicos, como pedaço de cartolina preta, compasso com ponta, folha de papel de preferência de cor branca, além de um belo dia ensolarado. Na determinação do diâmetro do Sol algumas etapas devem ser seguidas. Inicialmente faz-se um pequeno furo com o compasso em um pedaço da cartolina. Afastando-se a cartolina do chão mede-se o mínimo diâmetro possível da imagem do Sol projetado sobre uma folha branca colocada no chão (Figura 1). Sabendo as dimensões da imagem projetada (d), a distância entre a cartolina e a folha branca (h) e a distância da Terra até o Sol, aplicando o conceito de semelhança de triângulos e alguns cálculos simples, pode-se d DSol ) estimar o diâmetro solar (DSol) ( imagem = himagem 1,5x 10 11 m (AROCA 2009). Figura 1: Atividade para se estimar o diâmetro do Sol (AROCA 2009) Apesar de uma atividade muito simples e sem aparatos experimentais sofisticados, esta atividade nos fornece resultados que se harmoniza muito bem com a literatura, ou seja, valores para o diâmetro Solar na mesma ordem de grandezas dos fornecidos pela literatura ( DSol = 1,4x 10 6 Km ). A partir deste experimento, é possível explorar, entre outras coisas, a relação de tamanho existente entre o Sol e outros astros celestes, por exemplo, o fato de o Sol apresentar um diâmetro aproximadamente 110 vezes maior do que o da Terra. 2. Determinação da distância Sol-Terra a partir do trânsito de Vênus9. Esta atividade por um lado tem o intuito de discutir como foi obtida a primeira estimativa da distância relativa Sol-Terra-Lua, e por outro determinar a distância SolTerra a partir de um experimento muito simples apoiado no ‘trânsito de Vênus’. 9 Baseado em Silva (2006, p. 15-28). 55 O primeiro relato da determinação da distância Sol-Terra é atribuída ao astrônomo grego Aristarco de Samos (310-230 a.C.), o qual utilizou uma configuração específica do Sistema Sol-Terra-Lua, onde o ângulo entre Sol, Lua e Terra é de 90º. Figura 2: Configuração do sistema Sol-Terra-Lua usado por Aristarco de Samos para estimar a distância da Terra ao Sol. http://www.zenite.nu/ Este fato é recorrente quando a Lua se encontra exatamente na fase de quarto crescente ou em quarto minguante. Com esta observação, Aristarco mediu o ângulo formado entre a Lua e o Sol (β = A da Figura 2) e a partir de princípios trigonométricos e geométricos (equações a seguir) determinou quantas vezes mais longe o Sol encontrase da Terra comparado à Lua. O ângulo medido ficou em torno de 87 ° proporcionando uma distância Terra-Sol (TS) de 7.300.000 km, por volta de 19 vezes menor que a distância média Terra-Lua (TL) (INPE 2010). Os cálculos realizados por Aristarco elucidaram à sua época que o Sol encontra-se muito mais longe que se supunhava-se. b c 1 = cos β , como β = 87º, assim: = = 19 c b cos β Para Aristarco, o Sol estaria cerca de 19 vezes mais distante da Terra do que a Lua, o que foi algo surpreendente para a época (FERRIS apud AROCA 2009). Atualmente, sabe-se que o ângulo correto é de aproximadamente 89º55´, o que corresponde a uma distância da Terra ao Sol 400 vezes superior à distância da Terra à Lua (AROCA 2009), em outras palavras, representa a distância Sol-Terra aproximadamente 150 milhões de km. Antes da realização da atividade “Determinação da distância Sol-Terra a partir do trânsito de Vênus” é importante atentar para algumas considerações:10 - Vênus possui um movimento de revolução ao redor do Sol mais rápido que a Terra, assim, gasta apenas 0,62 anos terrestre (243 dias) para dar uma volta completa em torno do Sol. - A cada 19 meses Vênus "ultrapassa" nosso planeta, ocorrendo um "quase alinhamento" Sol-Vênus-Terra, no entanto este alinhamento não ocorre perfeitamente. Só seria perfeito (teríamos então um trânsito de Vênus a cada 19 meses) se os planos das órbitas de Vênus e da Terra fossem coincidentes. O plano da órbita de Vênus é 10 Baseado no texto: “O Trânsito de Vênus”, do observatório astronômico Frei Rosário da UFMG. Disponível em: http://www.observatorio.ufmg.br/pas57.htm 56 inclinado de 3,4º em relação ao plano da órbita da Terra. É um ângulo pequeno, porém suficiente para não termos um alinhamento a cada uma dessas "ultrapassagens". - Só visualizamos o trânsito Vênus quando este "ultrapassa" a Terra justamente sobre a reta intersecção desses dois planos (a Terra cruza essa reta no início dos meses de junho e dezembro). - Se o Sol tivesse aproximadamente metade de seu diâmetro o trânsito de Vênus ocorreria apenas a cada 121,5 anos, porém devido à grande extensão angular do Sol, temos outro trânsito de Vênus oito anos antes do período de 121,5 anos completos (Figura 3). Em 8 de junho de 2004, o planeta Vênus passou em frente do sol e inúmeras pessoas em todo o mundo viram uma pequena mancha preta se movendo em frente do sol. Figura 3: Periodicidade do transito de Vênus. Fonte: http://www.observatorio.ufmg.br/pas57.htm Realizadas as devidas considerações, partimos agora para a atividade prática da determinação da distância Sol-Terra usando o trânsito de Vênus. Reforçamos que esta atividade é baseada na proposta de Silva (2006). Para a realização deste experimento, utilizaremos fotografias do trânsito de Vênus de dois locais distintos sobre o globo terrestre, suas coordenadas, régua e calculadora. Adotando (L) como sendo a distância entre as localidades de observação do trânsito de Vênus (Índia e Austrália), e medindo o ângulo 2α a partir da diferença da posição de Vênus projetada no Sol (Figura 4) pode-se calcular a distância (Terra-Sol e Vênus-Sol) pela relação: dt − d v L tgα = 2 (eq.1). dt − dv Figura 4: Eclipse do Sol devido ao trânsito de Vênus observado da Índia e da Austrália 57 Da derivação da terceira lei de Kepler11 e conhecendo-se o período de revolução dos dois planetas (Tt= 365,26 e Tv=224,7 dias) obtemos a relação entre as distâncias das órbitas entre os dois planetas como sendo: dv dt Tv = = Tt 2 3 d v0,=723 0, 723 d tseja, 0, d277 dt → d→ dt, → d→ 277 v = v = t −ddt v−=d0, t ou (eq. 2) L Portanto, isolando dt na eq.1, temos que: dt = 2 0, 277tgα (distância Sol-Terra). Para a estimativa de L, é necessário saber as coordenadas dos pontos de observação. Neste caso, as coordenadas: 73,71E 24,59N ( θ1 = 24, 59 o ) na índia e 114,60E 22,12S ( θ 2 = 22,12o ) na Austrália. Com isso, a partir de cálculos trigonométricos (dois triângulos retângulo) e sabendo o valor do raio da Terra (Rt = 6,378x106), obtêm-se L (distância entre as duas observações de aproximadamente L= 5,05x106 m. Agora a tarefa passa a ser prática, ou seja, medir o ângulo α , a partir das duas observações simultâneas realizadas. Para isto faz-se uso da interpolação das fotografias representadas abaixo (Figuras 5 a,b,c). 11 Os quadrados dos períodos de revolução dos planetas são proporcionais aos cubos dos eixos maiores de suas órbitas. 58 Figura 5a: Eclipse de Vênus, 2004 (ponto escuro na fotosfera) observado na Índia (SILVA 2006). Figura 5b: Eclipse de Vênus, 2004 (ponto escuro na fotosfera) observado na Austrália (SILVA 2006). Figura 5c: Interpolação das imagens e diferença as imagens observadas (SILVA 2006). O ângulo 2α (ver Figura 5) é a diferença entre as duas posições de Vênus, e equivale ao tamanho da seta branca (ver Figura 5 ampliada). É importante ressaltar que a seta branca na figura é representada com uma ampliação de 5 vezes, ou seja, para os cálculos é necessário dividir o valor medido da seta por cinco. Agora basta medir o diâmetro do sol medido na figura e realizar uma simples regra de três, usando o fato que o tamanho angular do Sol no dia do eclipse valia 0,53º no céu, para saber o valor de α. Após os cálculos, o resultado obtido ficou próximo de 1,5x1011 m? Quais as maiores fontes de erro? (SILVA 2006). 3. Referência SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006. 59