UNIVERSIDADE DE SÃO PAULO
Observatório Dietrich Schiel
TEXTOS PARA O PROFESSOR - Textos de apoio e atividades
- Ano letivo de 2012 -
CURSO:
Parceria entre professor e centro de ciências:
inserção de tópicos de física moderna a partir da
física solar no ensino médio.
Este texto é parte integrante da tese de doutoramento de Pedro Donizete Colombo
Junior (Processo FAPESP #2010/16843-9). Programa de Pós Graduação Interunidades
em Ensino de Ciências da Universidade de São Paulo.
Citação (Tese):
COLOMBO JUNIOR, P. D. Parceria entre professor e centro de ciências: inserção
de tópicos de física moderna a partir da física solar no ensino médio. Apostila com
sínteses dos textos utilizados no curso de aperfeiçoamento docente. Tese de
doutoramento (Apêndice), Observatório Dietrich Schiel, São Carlos, Maio a Agosto,
2012. Disponível em: <http://www.cdcc.usp.br/cda/producao/index.html>. Acesso em:
__ de _____ de 20__.
São Carlos
- 2014 1
ÍNDICE
Tema 1: Centros de Ciências e Educação Não Formal .............................................................. 3
Tema 2: Inovações Curriculares e Sequências de Ensino Aprendizagem. ................................ 7
Tema 3: Transposição Didática de Conteúdos Científicos. ..................................................... 11
Tema 4: Radiação de corpo negro ........................................................................................... 17
Tema 5: Radiações - α, β e γ .................................................................................................... 27
Tema 6: O átomo de Bohr e a Espectroscopia ......................................................................... 33
Tema 7: Aspectos gerais de Física Solar ................................................................................. 46
Tema 8: Energia Solar ............................................................................................................. 53
Tema 9: Dimensões e Distâncias Relativas Sol-Terra............................................................. 55
2
Tema 1: Centros de Ciências e Educação Não Formal
Pedro Donizete Colombo Junior
[email protected]
1.
Alguns aspectos da história dos museus
Em geral, há um preconceito muito grande com relação à palavra museu, que é
geralmente associada a coisas do passado. O termo museu vem do latim Museum que
por sua vez, deriva do grego Mouseion, denominação, na Grécia Antiga, do templo ou
santuário das musas, um local de inspiração para artistas, onde se podia desligar do
mundo cotidiano (WITTLIN apud GASPAR 1993, p. 6). Presume-se que a primeira
instituição do gênero foi o Museu de Alexandria criado por Ptolomeu, onde trabalharam
vários estudiosos, tais como: Euclides, Arquimedes, Apolonius de Perga e Eratóstenes.
A associação do termo museu com a ideia de local onde há coleções ocorreu alguns
séculos depois. Algumas destas coleções eram voltadas para pesquisas científicas, por
exemplo, as coleções de espécimes animais e vegetais obtidas durante as campanhas de
Alexandre e utilizadas por Aristóteles. Durante a Idade Média, ao menos na Europa
Ocidental, as coleções passaram a ser muito valiosas, atestando fortuna e garantindo
poder, em uma época em que não se tinha sistema bancário e uma moeda estável. As
coleções não eram exibidas ao público, que somente podia apreciar as obras de arte
exibidas na igreja, que tinham forte cunho religioso embutido. Com o aumento das
coleções, surgiu a necessidade de um local para exposição, aparecendo então às
galerias, as quais eram salas compridas e estreitas (GASPAR 1993, p. 8).
Na época renascentista, estas galerias se tornaram local de estudos e reflexões.
Hoje em dia designamos estas galerias pela palavra museus provavelmente por este tipo
de local ter a mesma função que os templos das musas do período helênico (LEWIS
apud GASPAR 1993). No decorrer da história, o aumento do número de museus e
consequentemente das coleções (obras de arte, quadros...), trouxeram consigo a ideia de
depósito de antiguidade, local onde as obras podiam ser guardadas com segurança.
Nesta época e por muito tempo, não se tinha uma preocupação com a educação nestes
locais. No início do século XX, com a expansão dos museus pelo mundo (Europa, Ásia,
EUA) começou a se tornar explícita, a necessidade de haver uma abordagem
educacional nos museus, uma vez que o número de visitantes aumentava
consideravelmente (MAURÍCIO 1992).
Como aponta Gaspar (1993), o aumento do número e a maior proximidade dos
museus com o público leigo em geral, fez com que passassem também a ser espaços de
divulgação científica. Com isso, muitos museus adotaram a denominação centros de
ciência ou denominação equivalente, como: museu vivo, museu de ciências. Uma
possível explicação para este crescente aumento na procura aos centros de ciências
deve-se ao fato de se tentar buscar alternativas para o ensino de ciências. Uma vez que
em um centro de ciências, dispõe-se um ambiente rico em experimentos, demonstrações
e informações, os quais muitas vezes, se perdem em situações de ensino formal
(JULIÃO 2004). Os centros de ciências surgiram com o intuito de apagar a ideia de que
a ciência esta afastada do cotidiano, que é de difícil compreensão. Possibilitaram ao
público falar, ouvir, visualizar e tocar objetos e aparatos experimentais, ou seja,
possibilitaram uma interação ativa com o público visitante. São também janelas onde se
vislumbram imagens de como poderia ser o mundo, em um futuro cada vez mais
tecnológico. Enfim, como afirma Blanco (apud MARANDINO 2008) às pesquisas com
3
público em museus e centros de ciências são recentes, tendo início em vários países na
primeira metade do século XX. Hoje vemos que um grande desafio para os museus e
centros de ciências da atualidade é desenvolver estratégias de comunicação das ciências
que entusiasme o visitante e ao mesmo tempo promova a difusão da ciência para todos.
2.
Refletindo sobre a parceria entre centros de ciências e ambiente escolar.
Não é difícil perceber que a escola sozinha não consegue dar conta da crescente
gama dos progressos científicos e tecnológicos atuais. Não há tempo e nem espaço em
seus limitados currículos e programas. Em geral a ciência ensinada nas escolas é vista
pelos alunos como ultrapassada e sem graça, sendo frequentemente desmotivados pela
forma com que ela é apresentada. Para Falk e Dierking (2000), o aprendizado
compreende um diálogo entre o indivíduo e os contextos pessoal, sociocultural e físico
em que está inserido. Como na escola muitas vezes não existe este diálogo, nem mesmo
contextualização do que é ensinado, o aluno acaba não incorporando o que está sendo
estudado e esquece rapidamente o que lhe foi ensinado.
A inconformidade com esta realidade tem levado muitos indivíduos e instituições
de ensino a procurarem outras formas de ensinar ciências. Assim a educação formal, ou
escolar, vem sendo crescentemente complementada por outros ramos de educação,
como educação não-formal e informal. Os PCN+ evidenciam a necessidade de o
professor constantemente promover e interagir com meios culturais e de difusão
científica, seja por meio de visitas a museus científicos ou tecnológicos, planetários ou
exposições (BRASIL 2002).
Visitas a museus e centros de ciências oferecem a possibilidade de suprir, pelo
menos em parte, algumas das lacunas deixadas pela escola tradicional e pela formação
inicial dos professores. As relações entre professores e centros de ciências podem
possibilitar inúmeras transformações no trabalho escolar, seja por meio de uma
interpretação mais crítica de conteúdos curriculares específicos ou pelo viés de formas
diferenciadas de se abordar determinado conceito científico (JACOBUCCI 2006).
O preparo das atividades de visitação em parceria com professores aumenta as
chances de aprendizado dos alunos e ainda promove um maior envolvimento dos
estudantes durante as visitas (GRIFFIN 2004). Neste contexto, é fundamental que o
professor adquira o hábito de preparar suas atividades em parceria com educadores dos
locais em que deseja visitar. Hoje, ainda existe pouca comunicação entre professor e
educador de centro de ciências, o que torna difícil incorporar o que foi mostrado nestes
locais ao currículo escolar (TRAN 2007). Pesquisas sobre centro de ciências mostram
que as atitudes dos professores e educadores de museus uns com os outros são bastante
relevante para o desenvolvimento da visita de grupos escolares a centros de ciências
(COLOMBO JR. et. al 2007).
Os centros de ciências seduzem e causam provocações raramente vivenciadas em
salas de aula. Por abordarem na maioria das vezes de modo particular os conteúdos
científicos, seja por meio de exposições interativas ou atividades “hand on”, estes locais
passaram a ser vistos por educadores e professores da área de ensino de ciências como
instituições capazes de propiciar um importante suplemento ao ensino promovido nas
escolas.
Centros de ciências são instituições que vêm sendo caracterizadas como locais
que possuem uma forma própria de desenvolver sua ação educativa. No Brasil grande
parte dos pesquisadores classifica os centros de ciências como locais de educação nãoformal. Por outro lado, em muitos países de língua inglesa o termo ensino não-formal
não é muito conhecido e os pesquisadores adotam outras denominações, como educação
4
informal, educação comunitária ou pedagogia social (SMITH apud AROCA 2009). A
educação formal (ou escolar) está bem definida, entretanto, a definição de educação
não-formal e informal é muito discutida, sendo muitas vezes utilizados de modo não
consensual.
Mas afinal quais seriam as características básicas, ou como definir, cada categoria
de educação? Para responder a esta questão, um documento clássico da UNESCO
(1972) intitulado “Aprendendo a ser”, levou à categorização tri-partidária do sistema
educacional.
• A educação formal está hierarquicamente estruturada. É um sistema de educação
cronologicamente graduado, indo desde a escola primária à universidade, incluindo
os estudos acadêmicos e uma variedade de programas especializados e de instituições
de treinamento técnico e profissional.
• A educação não-formal pauta-se de uma atividade organizada fora do sistema
formal de educação, operando separadamente ou como parte de uma atividade mais
ampla (complementar), que pretende servir a clientes previamente identificados
como aprendizes e que possui objetivos de aprendizagem.
• A educação informal pode ser entendida como um verdadeiro processo realizado ao
longo da vida, em que cada indivíduo adquire atitudes, valores, competências e
conhecimentos a partir da experiência cotidiana e as influências educativas e de
recursos em seu ambiente – a partir da família, do trabalho, do lazer e das diversas
mídias de massa.
Em meio a tantas definições para a educação que ocorre em centros de ciências,
muitos pesquisadores têm buscado maneiras de avaliar a aprendizagem nestes espaços.
Dentre eles, Falk e Dierking (1992, 2000) elaboraram um modelo de aprendizagem, o
“Modelo Contextual de Aprendizagem” que considera a aprendizagem sob a perspectiva
dos visitantes. Neste sentido os autores estabelecem que todas as visitas a um museu de
ciência envolvem três contextos: o pessoal, o sociocultural e o físico (Figura 1). Para
eles estes contextos são a janela através da qual podemos visualizar a perspectiva do
visitante durante uma visita a um centro de ciências. Perfazendo os contextos,
encontramos também a dimensão temporal, a qual sugere que, ainda que no momento
da visita algo fique incompreensível para o visitante, as recordações de suas
experiências durante as visitas podem contribuir para o aprendizado futuro.
Figura 1: O Modelo Contextual de Aprendizagem (FALK e DIERKING 2000, p. 12).
5
O contexto pessoal é único para cada indivíduo, cada visitante chega ao centro de
ciências com uma agenda pessoal, com um conjunto de expectativas e motivações
próprias, que serão decisivas e irão influenciar seu aprendizado dentro deste espaço. O
contexto social se faz importante no caminhar dos visitantes por dentro das exposições,
onde na maioria das vezes ocorrem diálogos entre os mediadores e visitantes e entre os
próprios visitantes, sempre na busca de um sentido pessoal para o que estão vendo,
ouvindo ou lendo. Por fim, o contexto físico é decisivo no comportamento dos
visitantes, pois tudo que o visitante observa e guarda na memória é fortemente
influenciado pelo contexto físico. Em determinados momentos, devido à história de vida
do visitante e de outros fatores intrínsecos, um ou outro contexto pode assumir maior
importância e influenciar mais o visitante.
3.
Bibliografia Consultada
AROCA, S.C., Ensino de física solar em um espaço não formal de educação, Tese
de Doutorado, Instituto de Física de São Carlos, USP, São Carlos, 2009.
BIANCONI, M. L. e CARUSO, F. Educação não-formal. Ciência e Cultura, Temas e
Tendências, v.54, n.4, p.20, 2005.
BRASIL, PCN+ Ensino Médio: Orientações Educacionais Complementares aos
Parâmetros Curriculares Nacionais para o Ensino Médio. Ciências da
natureza, Matemática e suas tecnologias. Ministério da Educação/Secretaria da
Educação Média e Tecnológica, Brasília, 2002.
FALK, J.; DIERKING, L. The museum experience, Washington: Whalesback Books,
1992.
___________. Learning from Museums. Visitor Experiences and the Making of
Meaning, Lanham: Altamira Press, 2000, 288 p.
FALK, J. Free-choice science education: how we learn science outside of school,
New York: Teachers College Press, 2001, 226 p.
GASPAR, A. Museus e Centros de Ciências – conceituação e proposta de um
referencial teórico. Tese de doutorado. São Paulo: Faculdade de Educação,
Universidade de São Paulo, 1993.
GRIFFIN, J. Research on students and museums: looking more closely at students in
school groups, Science Education 88 (Sup. 1): S59-S70, 2004.
JACOBUCCI, D. F. C. A formação continuada de professores em centros e museus
de ciências no Brasil. Tese de Doutorado, Faculdade de Educação, Universidade
Estadual de Campinas, Campinas, 2006.
MARANDINO et. al. A educação não formal e a divulgação científica: o que pensa
quem faz? In: Atas do IV Encontro Nacional de Pesquisa em Ensino de
Ciências - ENPEC, Bauru, 2003.
TRAN, L. Teaching science in museums: the pedagogy and goals of museum educators.
Science Education, v. 91, n. 2, p. 278-297, 2007.
SMITH, M. Non formal education. The encyclopaedia of informal education, 1996.
Disponível em: <http://www.infed.org/biblio/b-nonfor.htm>. Acesso em: 05
dezembro de 2011.
6
Tema 2: Inovações Curriculares e Sequências de Ensino
Aprendizagem.
Pedro Donizete Colombo Junior
[email protected]
1.
Inovações Curriculares e Sequências de Ensino e Aprendizagem (SEA)
Quando se pensa em um processo de inovação curricular não se deve apenas
considerar os conteúdos específicos a serem trabalhados, mas também as práticas
docentes, visto que inovações curriculares podem produzir perturbações da ordem préestabelecida dos saberes, levantando indagações como: “Por que ensinar?”, “O que
ensinar?”, “Como ensinar?” (BROCKINGTON e PIETROCOLA 2005). Em geral o
saber docente é a chave para qualquer processo de inovação curricular, sendo, portanto,
fundamental o envolvimento dos professores neste processo. Assim, para que uma
inovação seja plenamente aceita no contexto escolar é necessário cuidar para que esta
possa ser adaptada em função das restrições locais e também das limitações docentes. É
fato que a inovação curricular carrega consigo riscos e dificuldades, uma vez que
envolve a adequação e pertinência dos saberes ao sistema de ensino pré-estabelecido,
muitas das vezes historicamente.
Na última década do século XX e início deste século começaram a surgir no
cenário das pesquisas em educação em ciências, uma série de propostas visando
inovações de conteúdo curriculares, particularmente nos do âmbito da física (MÉHEUT
e PSILLOS 2004, BROCKINGTON e PIETROCOLA 2005, SIQUEIRA 2006,
VALENTE 2009). Méheut e Psillos (2004), por exemplo, enfatizam o fato de que as
inovações de conteúdo são particularmente importantes no contexto dos currículos de
ciências. Neste sentido, uma linha de pesquisa que remonta a década de 1980 envolve a
concepção e implementação de estudos de pequena e média escala de tempo ao invés de
concentrar em estudos tradicionais de longa duração. A característica destes estudos é
tratar ao mesmo tempo pesquisa e desenvolvimento de atividades de ensino. Assim, a
implementação desses estudos concentrados permitem gerar inovações curriculares em
ensino de ciências e envolvimento de professores e pesquisadores por meio das
chamadas Sequências de Ensino e Aprendizagem (SEA).
A menção ao perfil de pesquisas em ensino de ciências relacionadas a Sequências
de Ensino Aprendizagem encontra sua gênese nos trabalhos de Piet Lijnse (1994). Os
trabalhos de Lijnse chamaram a atenção da comunidade européia quanto ao caráter de
pesquisas em sequência de ensino. Lijnse argumenta que este tipo de atividade pauta-se
de estudos de tópicos específicos que duram poucas semanas, em um processo de ciclo
evolutivo iluminados por dados de pesquisa. Uma característica notável de uma
Sequência de Ensino Aprendizagem, com fins de inovação curricular, é a sua inclusão
em um processo de investigação baseado no processo evolutivo gradual, com o intuito
de ligar o conhecimento científico à perspectiva do estudante, tentando preencher a
lacuna existente entre os modelos científicos e as pré-concepções dos alunos quanto aos
fenômenos naturais.
Sequência de Ensino Aprendizagem pode ser usada como ferramenta de pesquisa
e inovações curriculares, pois permite produzir conteúdos diferenciados dos encontrados
em livros didáticos, englobando tanto o conhecimento científico quanto o saber docente.
Os resultados obtidos com Sequências de Ensino Aprendizagem podem também ajudar
7
a superar obstáculos didático-pedagógicos presentes no ensino de física, resultando na
distinção entre o que é essencial e periférico no ensino de um determinado tópico
(LIJSNE e KLAASSEN 2004). Isto pode ser feito na medida em que conteúdos
essenciais ganham uma nova abordagem a partir do momento de sua apresentação aos
alunos em diferentes contextos, trazendo um significado do conteúdo para o aluno ao
invés de ser visto apenas em sala de aula dentro de uma matéria específica.
Na visão de Méheut e Psillos (2004) o processo de elaboração de Sequências de
Ensino Aprendizagem aponta para dois pólos de interesse, dentro de um modelo que
define quatro componentes básicos interligados: professor, alunos, mundo material e
conhecimento científico. Os pólos igualmente importantes são classificados como:
dimensão epistêmica e dimensão pedagógica, formando então o que as autoras
denominaram de “losango didático” (Figura 2). A dimensão epistêmica considera os
processos de elaboração, os métodos e a validação do conhecimento científico, já a
dimensão pedagógica considera os aspectos relacionados ao papel do professor, às
interações entre o professor e o aluno e entre o aluno e seus pares (VILELA et al 2007).
Figura 2: “Losango didático” (MÉHEUT e PSILLOS 2004, p. 517).
“[...] ao longo do eixo epistêmico, por exemplo, encontramos os pressupostos sobre os
métodos científicos [...] a validação dos conhecimentos científicos que fundamentam a
concepção da sequência. Ao longo do eixo pedagógico, encontramos opções sobre o
papel do professor, tipos de interação entre professor e alunos [...] Ao longo do lado
“Estudantes Mundo Material” colocamos as concepções de fenômenos físicos. [...]
Atitudes dos alunos em relação ao conhecimento científico serão colocado ao longo do
lado “Estudante Conhecimento Científico” (MÉHEUT e PSILLOS 2004, p. 518).
A concepção de uma Sequência de Ensino Aprendizagem não é uma atividade
instantânea, mas um esforço a longo prazo, um produto do qual muitas vezes é uma
representação de conteúdos inovadores, diferindo-se daqueles historicamente presentes
nos livros e currículos tradicionais. É importante enfatizar que Sequências de Ensino
Aprendizagem evoluem progressivamente, ou seja, tem como uma de suas
características a inclusão dentro de um gradual processo de pesquisa com base
evolutiva, visando sempre o entrelaçamento da ciência e da perspectiva do aluno
(MÉHEUT e PSILLOS 2004).
Méheut e Psillos (2004) expressam que alguns fatores podem (e devem) ser
explicitamente levados em consideração quando do design de uma Sequência de Ensino
Aprendizagem, por exemplo, deve-se tornar público fatores contextuais e
particularmente as restrições educacionais encontradas. Neste contexto, as autoras
8
acreditam ser esta uma tarefa difícil sobre a viabilidade de Sequências de Ensino
Aprendizagem para além de uma pequena escala inovação, além de poucas semanas.
Outro fator a considerar é o gerenciamento da interação social em sala de aula, fator este
que “só recentemente começou ser explicitado e levado em conta na concepção das
Sequências de Ensino Aprendizagem” (MEHEUT e PSILLOS 2004, p. 527).
Buty, et al. (2004) colocam que a validação de uma Sequência, dentro de um
sistema educativo, remete-nos a três indagações: É viável? (ou seja, será possível ao
professor ensinar a sequência em uma classe real?); É extensível? (ou seja, os
professores que não participaram da elaboração da sequência, conseguem ensiná-la?); É
reprodutível? (ou seja, o professor pode ensinar a mesma sequência por vários anos
consecutivos?). Para refletir sobre estas questões apresentamos, de modo sucinto, as
conclusões a que chegaram uma equipe formada por professoras e pesquisadoras
pernambucanas a partir de uma pesquisa usando SEA.
A partir do losango didático proposto por Méheut (2004) (Figura 2), Vilela et al.
(2007) desenvolveram, aplicaram e analisaram uma Sequência de Ensino Aprendizagem
sobre o tema “Aquecimento Global” com uma turma da 1ª série do Ensino Médio de
uma escola de Pernambuco. As autoras buscaram analisar a Sequência de Ensino
Aprendizagem sob dois vieses: design e a aplicação da sequência. Como resultados, as
autoras esclarecem que a análise, visando à validação da Sequência de Ensino
Aprendizagem, apresentou vários aspectos positivos, porém também apresentou
aspectos negativos.
Quanto aos aspectos positivo as autoras destacam: a motivação e interesse dos
alunos; o debate mais significativo na aula; a organização dos alunos em grupos
estabelecendo uma dinâmica de aprendizagem que transcende o limite do conteúdo
estudado. Por outro lado, os aspectos negativos podem ser sintetizados pela dificuldade
inerentes à aprendizagem dos conceitos, a não familiaridade de alunos com um processo
mais participativo. De modo geral, as autoras consideram que a eficácia global da
sequência aplicada foi satisfatória, no entanto fazem um alerta:
“[...] Pareceu-nos que há uma expectativa muito limitada da coordenação pedagógica
da escola com relação ao retorno de aprendizagem dos alunos e, dessa forma, eles
parecem desobrigados de alguns compromissos escolares. No entanto, é importante
marcar que mesmo em um contexto desfavorável, um grupo significativo de alunos se
sobrepôs aos obstáculos e foram participativos em todas as atividades, fazendo valer a
esperança de mudar alguns cenários [...] da educação brasileira, e de vencer os
desafios” (VILELA et al. 2007, p. 11).
Esperamos que as breves colocações apresentadas até o momento nos sirvam de
guia, e fomentem algumas reflexões a respeito das Sequências de Ensino Aprendizagem
no decorrer de nosso curso.
2.
Bibliografia Consultada
BROCKINGTON, G. A e PIETROCOLA, M. Serão as regras da transposição didática
aplicáveis aos conceitos de física moderna? Investigações em Ensino de
Ciências. v. 10, n. 3, pp. 387-404, 2005.
BUTY, C.; TIBERGHIEN, A. e LE MARECHAL, J. Learning hypotheses and an
associated tool to design and to analyse teaching–learning sequences.
International Journal of Science Education, Special Issue, v. 26, n. 5, 2004,
579-604.
9
FAZIO, C. Educational reconstruction of the physics content to be taught and
pedagogical content knowledge implementation by using information and
communication technologies. Dissertation, Faculty of Informatics, Mathematics
and Physics, Comenius University Bratislava, Slovakia, 2006.
LIJNSE, P. L. La recherche-développement: une voie vers une "structure didactique" de
la physique empiriquement fondée. Didaskalia, v. 3, 1994, p. 93-108.
MEHEUT, M. Designing and validating two teaching–learning sequences about particle
models. International Journal of Science Education, Special Issue, v. 26, n. 5,
2004, 605-618.
PSILLOS, D.; TSELFES, V.; KARIOTOGLOU, P. An epistemological analysis of the
evolution of didactical activities in teaching-learning sequences: the case of fluids.
International Journal of Science Education, Special Issue, v. 26, n. 5, 2004,
555-578.
SIQUEIRA, M. R. P. Do Visível ao Indivisível: uma proposta de Física de Partículas
Elementares para o Ensino Médio, Dissertação de Mestrado, Instituto de Física
e Faculdade de Educação da Universidade de São Paulo, São Paulo, 2006.
VILELA, C. X.; GUEDES, M. G. M.; AMARAL, E. M. R. e BARBOSA R. M. N.
Análise da elaboração e aplicação de uma sequência didática sobre o aquecimento
global. VI Encontro Nacional de Pesquisa em Educação em Ciências,
Florianópolis/SC, 2007.
10
Tema 3: Transposição Didática de Conteúdos Científicos.
Pedro Donizete Colombo Junior
[email protected]
1.
Transposição Didática: uma leitura introdutória.
Não é difícil perceber que muito dos avanços científicos e tecnológicos ocorridos
a partir do início do século XX não se encontra presente nos currículos das salas de aula
brasileiras, mais especificamente no ensino de física. É evidente também que tais
avanços, comumente presentes em revistas especializadas necessitam de uma
“transformação” de linguagem e profundidade para se adequarem aos nichos das salas
de aula. Este processo transformativo é complexo e não requer apenas a mera
simplificação de conteúdos ou “deixá-los mais fáceis”. Na verdadeira este processo
decorre de um intenso trabalho didático e epistemológico de transposição do novo saber
à sala de aula.
Buscando entender como ocorre esta transposição, este texto inicia uma discussão
a respeito dos caminhos percorridos pelo saber desde sua origem no âmbito acadêmico
até a chegada à sala de aula. Para esta tarefa apoiamos nas ideias da transposição
didática do francês Ives Chevallard (1991). É importante ressaltar que usaremos a noção
de transposição didática na produção de Sequências de Ensino Aprendizagem sobre
tópicos de física moderna, a partir da física solar, no ensino médio visando à inovação
curricular e a parceria ambiente escolar - centro de ciências.
A noção de transposição didática vem ganhando cada vez mais espaço nos debates
na área educacional, principalmente quando se trata das relações entre ‘disciplinas a
ensinar’ e ‘ciências de referência’. Tanto que vários documentos oficiais, PCN, PCN+ e
Orientações Curriculares, apontam para a necessidade do professor saber efetuar a
transposição didática dos conteúdos a ensinar.
O conteúdo escolar não é o saber sábio original tão pouco a mera simplificação do
mesmo, devendo ser entendido como um objeto didático fruto de sua produção original.
A transposição didática propõe a existência de três níveis ou esferas do saber: o Saber
Sábio; o Saber a Ensinar; e o Saber Ensinado. Cada uma destas esferas do saber
elenca sua própria comunidade, seus representantes ou grupos, de modo que
intimamente ligado aos saberes encontramos em Chevallard (1991) a noção de
Noosfera, sumariamente entendida como uma esfera de ação onde diversos atores
atuam na transformação do saber. A transposição didática é para o professor,
“[...] uma ferramenta que permite recapacitar, tomar distância, interrogar as
evidências, pôr em questão as idéias simples, desprender-se da familiaridade enganosa
de seu objeto de estudo. [...] é precisamente o conceito de transposição didática que
nos permite a articulação da análise epistemológica com a análise didática, e torna-se
então em um bom guia do uso da epistemologia para a didática” (CHEVALLARD
1991, p.23).
2.
As esferas do saber.
Saber sábio
11
O saber sábio diz respeito ao saber original, aquele que é ostentado como
referência na definição de determinada disciplinar escolar. Tal saber é construído no
interior da comunidade científica. A busca por respostas a questões de pesquisa,
juntamente com diálogos entre os pares caracteriza-se o contexto da descoberta do
conhecimento científico. Este é o momento em que o ser humano trabalha na produção
de determinado saber, que por ser novo, também o desconhece. Ao passo que encontre
respostas satisfatórias à sua inquietação, busca socializá-lo com a comunidade
científica, momento conhecido como da justificação, da elaboração de artigos para
submissão a periódicos, ao crivo das normas pré-estabelecidas pela comunidade a qual o
cientista participa.
Ao final, o texto produzido adquire uma forma impessoal. Não apresentando
dúvidas, recomeços, conflitos e principalmente o tempo necessário a sua produção e
aceitação. Não é incomum passar-se anos até que um saber sábio seja aceito e
compartilhados pela comunidade científica. Momento em que o saber ainda encontra-se
longe das salas de aula. Assim, o “novo” ao denominar-se pronto, encontra-se calejado
do processo a qual fora submetido. Este saber ao ser publicado está limpo, depurado e
apresenta uma linguagem impessoal, que não retrata características de sua construção
(SIQUEIRA e PIETROCOLA 2006). Enfim, o saber sábio é fruto da aceitação
científica e já se encontra “purificado” das inúmeras idas e vindas que fizeram parte de
sua construção (AZEVEDO 2008).
Saber a ensinar
O saber a ensinar é a primeira transformação sofrida pelo saber sábio depois de
ser estabelecido e aceito pela comunidade científica em que está inserido. Este é o
momento de sua materialização na produção de “manuais didáticos”, como livros
(didáticos e paradidáticos), jornais de divulgação e fascículos. Na ocorrência deste
processo ocorre o que Chevallard (1991) chama de descontextualização, ou seja, o saber
ao extrapolar a fronteira imaginária do saber sábio para o saber a ensinar perde sua
essência contextual, sendo reestruturado para uma linguagem mais simples (porém não
menos importante) e adequada ao nível de ensino que fará parte. Em outras palavras, o
saber é “desmontado e reorganizado novamente de uma maneira lógica e atemporal”
(SIQUEIRA e PIETROCOLA 2006).
“[...] a linguagem utilizada na publicação do saber a ensinar é uma linguagem nova.
Termos e situações, não presentes no saber sábio, são utilizados nos livros textos para
racionalizar as sequências didáticas, demonstrando um cenário de artificialismo”
(PINHO-ALVES 2000, p. 227).
Ao focalizar os atores constituintes do saber a ensinar, ver-se-á que este é
constituído por um grupo bem mais heterogêneo e eclético do que o do Saber Sábio.
Diversas esferas da sociedade fazem parte do saber a ensinar, como: autores e editores
de manuais didáticos, professores, representantes do governo, cientistas ligados à
educação e pais de alunos, na forma de opinião pública.
Saber ensinado
A transposição do saber a ensinar em saber ensinado talvez seja uma das tarefas
mais árduas e complexas de toda a transposição didática, pois se encontra no âmbito do
‘Sistema Didático’, o qual por natureza é revestido de dificuldades e conflitos inerentes
a prática docente. O saber ensinado é fruto de escolhas que muitas das vezes é guiada
12
pela a elaboração de sequência de aulas intimamente ligadas à adaptação do saber ao
tempo didático.
Sobre este aspecto algumas ressalvas são válidas. Na transposição didática o
agente “tempo” é tratado de maneira bastante particular, denotando-se as noções de
tempo real, tempo lógico, tempo didático e tempo de aprendizagem (PIETROCOLA
2011). Tempo real está intimamente relacionado à ideia de tempo histórico no qual
determinado saber se desenvolveu. O tempo lógico relaciona-se à maneira de transpor a
apresentação desse conhecimento para fins de ensino. Tempo didático talvez seja a
causa de muitas das angústias dos professores, uma vez que está vinculado aquilo que
de fato poderá ser feito no contexto de sala de aula. É o momento de fazer escolhas. Por
fim, o tempo de aprendizagem, em sua essência é relativo, pois depende das ações de
cada aluno. Alguns alunos aprendem durante as próprias aulas, aproximando muito o
tempo didático do tempo de aprendizagem. Outros, porém, talvez aprendam semanas,
meses depois. Extrapolando, a aprendizagem de determinados tópicos, para alguns
talvez nunca ocorra. Enfim, o saber ensinado requer adaptações ao tempo didático,
planejamento e organização do programa escolar, atenção ao número de aulas que se
dispõe para trabalhar determinado conteúdo, etc.
A noção de noosfera
É fato que nem todo saber sábio fará parte do sistema didático. A difícil tarefa de
adequar o tempo didático aos currículos escolares, os parâmetros institucionais para a
seleção de conteúdos e a falta de materiais adequados a esta transposição, são alguns
dos entraves que justificam esta constatação. Surge então a noção de noosfera atuando
como fator seletivo da transposição didática em todas as esferas. A noosfera é
considerada a central gerenciadora do processo de transposição didática, tanto que
Chevallard (1991) a coloca como essencial para o entendimento da transposição
didática.
“A noosfera é o centro operacional do processo de transposição, que traduzirá nos
fatos a resposta ao desequilíbrio criado e comprovado (expresso pelos matemáticos,
pelos pais, pelos professores mesmos). Ali se produz todo conflito entre sistema e
entorno e ali encontra seu lugar privilegiado de expressão. Neste sentido, a noosfera
desempenha um papel de “tapón”. Inclusive em períodos de crise, esta mantém dentro
dos limites aceitáveis a autonomia do funcionamento didático” (CHEVALLARD 1991,
p.34).
Figura 3: Representação da Noosfera, evidenciando a periferia do sistema de ensino (sistema de ensino
stricto sensu) e seu entorno (CHEVALLARD 1991, p.28).
13
Se ponderarmos a transposição didática como uma linha imaginária na qual os
fins culminam-se na produção de saberes que farão parte da sala de aula, logo
vislumbraremos que esta produção envolve riscos e dilemas inerentes a qualquer
processo transpositivo. Tais dilemas podem ser mais bem interpretados quando da
impossibilidade de uma abordagem completa de determinado assunto em detrimento de
escolhas necessárias. Por outro lado, a tentativa de contemplar exaustivamente os
conteúdos acarreta o risco de se gerar propostas de ensino impossíveis de serem
gerenciadas em sala de aula.
Neste contexto, o papel da noosfera pode ser mais bem vislumbrado. O principal
objetivo da noosfera é otimizar a negociação dos dilemas e riscos inerentes ao processo
de transposição didática (PIETROCOLA 2011). Para isto, além de fatores didáticos,
muitos outros fatores são levados em conta, por exemplo: interesses políticos,
comerciais, editoriais até os anseios que a sociedade julgue necessário estar presente nas
escolas. Podemos representar o processo de transposição didática da seguinte forma:
Figura 4: Esquema representativo da Transposição Didática.
Alguns pontos são interessantes de serem percebidos nesta representação. Um
deles é o fato de a transposição didática funcionar como um instrumento de análise
capaz de discorrer sobre o trajeto de um saber oriundo do ambiente de sua construção,
no âmbito da academia até a sala de aula. Note que o caminho trilhado do saber erudito
ao saber ensinado é unidirecional, porém nunca direto, ou seja, passa pelo crivo do
saber a ensinar. Perceba também que a noosfera além de englobar, de modo geral, todas
as esferas do saber, também perfaz de maneira muito particular cada esfera do saber.
Neste caso, atua como pequenas ‘nuvens’, composta de atores e documentos oficiais,
que podem ou não sobrepor-se nas diferentes esferas dos saberes.
3.
A sobrevivência dos saberes
A Transposição Didática, como ferramenta de análise, reflete sobre os caminhos
trilhados pelos saberes, deste a sua produção até a sala de aula. Nesta empreitada a
noosfera atua como um guia, que seleciona os saberes que farão parte do nicho escolar.
Ocorre que alguns saberes não sobrevivem ao crivo do saber a ensinar, de modo que não
chegam ao status de saber ensinado. Com o passar dos anos, alguns saberes acabam
“envelhecendo” no contexto educacional, deixando de ser objetos de ensino e, sendo,
portanto, descartados e/ou substituídos por novos saberes, fruto do progresso científico
14
e tecnológico. Tais colocações nos remetem a ideia de sobrevivência dos saberes
escolares. Chevallard (1991) definiu algumas características necessárias para que um
determinado saber sobreviva às nuanças da transposição didática.
•
Ser Consensual. O saber ao chegar à sala de aula não pode apresentar dúvidas de
veracidade. Representantes do sistema didático não devem ter dúvida quanto à
veracidade daquilo que se ensina.
•
É pretendido também que o saber esteja em acordo com dois vieses de
Atualidade: Moral: um saber que possa ser avaliado e que a sociedade discirna como
importante e necessário à composição curricular e, Biológica: o saber deve ser ensinado
usando-se de suporte teórico e terminologias que estejam em ressonância com a atual
ciência praticada. Hoje, configura-se como uma inadequação biológica ensinar, por
exemplo, o “Modelo atômico” tendo como base o modelo proposto por Thomson ou
Rutherford, salvo em uma perspectiva histórica.
•
O saber a ensinar deve ter Operacionalidade. Espera-se que um saber a ensinar
seja operacional, no sentido de produção e desenvolvimento de atividades que
possibilitem uma avaliação coerente daquilo que foi transposto. Uma sequência didática
que não seja operacionável certamente não satisfaz as exigências do saber a ensinar,
correndo, portanto, risco de não se adequar ao contexto escolar.
•
Ter Criatividade Didática. A criatividade didática é um elemento essencial na
transposição do saber sábio em saber a ensinar, e está intimamente ligada a criação de
um saber com identidade própria. Em eletricidade, por exemplo, as atividades com
associação de resistores ensinada na escola não encontram paralelos no domínio do
saber de referência, sendo, portanto, fruto da criatividade didática.
•
A última característica em face à sobrevivência dos saberes é a Terapêutica. O
saber a ensinar deve se submeter aos testes in loco, definidos por Chevallard como
Terapêutica. Permanece nos domínios escolares aquele saber didatizado e que deu certo,
desta forma o incoerente e o que se mostrou errado naturalmente entra no esquecimento,
não permanecendo nos domínios escolares.
As características descritas acima e, que segundo Chevallard são necessárias para
a sobrevivência dos saberes, nos revela fortes indícios dos porquês as inovações
curriculares e a manutenção da inserção de física moderna no ensino médio é ínfima,
apesar de sua importância ser consensual entre educadores e pesquisadores. Talvez um
dos principais motivos deste fosso esteja no fato de que a inovação curricular falhe em
algum momento aos critérios descritos por Chevallard e, consequentemente, não
“sobreviva” no sistema de ensino.
4.
Bibliografia Consultada
AZEVEDO, M. C. P. S. Situações de ensino – aprendizagem. Análise de uma
sequência didática de física a partir da Teoria das Situações de Brousseau.
Dissertação de mestrado, Instituto de Física e Faculdade de Educação da
Universidade de São Paulo, 2008.
BRASIL. Secretaria de Educação Básica. Orientações curriculares para o ensino
médio, v. 2. Ciências da natureza, matemática e suas tecnologias. Brasília: MEC,
2006.
CHEVALLARD, Y. La Transposicion Didactica: Del saber sabio al saber enseñado.
1ª ed. Argentina: La Pensée Sauvage, 1991.
PIETROCOLA, M. Inovação Curricular e Gerenciamento de Riscos DidáticoPedagógicos: o ensino de conteúdos de Física Moderna e Contemporânea na
escola média. Faculdade de Educação, USP, Outubro de 2011.
15
PINHO-ALVES, J. F. Atividades Experimentais: Do método à Prática
Construtivista. Tese de Doutorado, UFSC, Florianópolis, 2000.
SIQUEIRA M. e PIETROCOLA M. A transposição didática aplicada a teoria
contemporânea: a física de partículas elementares no ensino médio. X
Encontro de Pesquisa em Ensino de Física, (X EPEF), Londrina, PR, 2006.
16
Tema 4:
4: Radiação de corpo negro
Pedro Donizete Colombo Junior
[email protected]
1.
A física no início do século XX
Ao final do século XIX a física parecia ter atingido seu estágio ápice. As leis da
mecânica e gravitação enunciadas por Newton já vinham sendo didatizadas e
aprimoradas desde o século XVII, é cumpriam bem o papel de descrever os fenômenos
e comportamento de corpos celestes e terrestres. Por outro lado, as propriedades
elétricas e magnéticas, outrora separadas, agora estavam unificadas pelo
eletromagnetismo de Maxwell. Neste contexto, de aparente calmaria científica, Lord
Kelvin chegará a sugerir que a física havia atingido seu estágio final. Porém havia ainda
“duas pequenas nuvens” no horizonte da física que ainda intrigavam o meio científico
da época: os resultados negativos do experimento de Michelson e Morley (que haviam
tentado medir a velocidade da Terra através do éter) e a dificuldade em explicar a
distribuição de energia na radiação de um corpo aquecido (corpo negro). Talvez, por
ironia, foi justamente a tentativa de solucionar estes problemas que estremeceu as bases
da física da época e movimentou as primeiras décadas do século XX com duas teorias
revolucionárias: a Teoria da Relatividade e a Teoria Quântica.
Como enuncia o historiador da ciência Roberto de Andrade Martins, na verdade o
final do século XIX estava repleto de “nuvens no horizonte da física” (uma verdadeira
tempestade!), as quais, talvez por orgulho de saber muito ou otimismo exacerbado dos
cientistas, impedia a maioria dos físicos de perceberem quão grave era a situação que
pairava sobre os pilares da física (MARTINS 2001). Neste texto, limitaremos nossa
discussão à apenas uma destas “nuvens” física do final do século XIX: a distribuição de
energia da luz emitida por cavidades aquecidas - o problema do corpo negro. O
intrigante neste fato científico é que ele estava ligado a um fenômeno bem simples: o
aquecimento de materiais e a emissão de diferentes colorações luminosas
correspondentes às diversas temperaturas de aquecimento.
2.
O problema da radiação de corpo negro
O conceito “corpo negro” pode ser definido como um objeto que absorve toda a
radiação que sobre ele incide radiação esta visível ou não. A noção de corpo negro é
uma idealização pautada no fato de que, independente da sua constituição, sua emissão
(espectro) seria sempre a mesma (ZANETIC 2007).
Reflita: “Por que tamanho interesse em estudar a radiação de corpo negro?”
Encontramos uma possível resposta a esta indagação na necessidade tecnológica da
época. Como sugere o pesquisador Jun’ichi Osada.
Em meados do século passado [século XIX], na Alemanha, [...] a indústria
siderúrgica desenvolveu-se rapidamente [...] enormes esforços foram feitos
para produzir aço da melhor qualidade. O fator mais importante na produção
de aço de primeira qualidade é o controle delicado da temperatura dos altos
fornos [...] não se pode usar termômetros comuns para a medição de
temperaturas tão altas. A fim de contornas este problema, pesquisas foram
feitas no sentido de determinar as temperaturas usando as cores das radiações
térmicas, isto é, mais concretamente, foram recolhidas as luzes provenientes
17
dos fornos às diversas temperaturas. Assim. Analisando estas luzes [...] e
medindo as intensidades de cada parte espectral, foram obtidas curvas
(OSADA apud ZANETIC 2007, p. 133).
Assim, uma necessidade tecnológica vinculada a interesses capitalistas levou a
construção de curvas empíricas1, as quais provocaram grande interesse de diversos
cientistas da época, dentre eles os físicos teóricos: Wilhelm Wien (1864 - 1928), Lord
Rayleigh (1842 - 1919), James H. Jeans (1877 - 1946) e Max Planck (1858 - 1947).
Uma cavidade com uma pequena abertura pode ser uma grande aproximação para
um corpo negro (Figura 1). A energia radiante incidente através da abertura é absorvida
pelas paredes em múltiplas reflexões e somente uma mínima proporção escapa (se
reflete) através da abertura. Assim, dizemos que toda a energia incidente é absorvida.
Figura 1: Radiação de
Corpo Negro
Fonte:
http://www.comciencia.br/repo
rtagens/fisica/fisica06.htm
Podemos adotar o Sol como sendo um corpo negro, uma vez que este absolve
praticamente toda radiação que incide sobre ele. No entanto, é importante ressaltar que
na emissão, o Sol não possui espectro contínuo como o de um corpo negro, uma vez que
apresenta linhas de absorção, conhecidas como “linhas de Fraunhofer”. Trataremos
sobre tais linhas em um texto especialmente redigido para este fim.
O estudo sobre radiação de corpos negros tinha algo notável e despertou a
curiosidade e interesse de vários cientistas da época. Um destes cientistas foi Max
Planck o qual não apenas debruçou sobre a questão, como também propôs uma solução,
por volta do ano de 1900, tumultuando o cenário científico da época. É importante que
se diga que Planck apoiou-se em trabalhos de vários cientistas da época, os quais já
pensavam sobre a questão e direta ou indiretamente colaboraram com seus estudos.
Em 1879, Josef Stefan (1835 - 1893) já havia concluído, a partir do aquecimento
de materiais a variadas temperaturas, que a emissão total de radiação era proporcional a
T4 (Kelvin), levando pouco tempo depois, em 1884, Ludwing Boltzmann (1844 –
1906), a partir de considerações termodinâmicas e eletromagnéticas para o estudo de
cavidades isotérmicas, formalizar seus resultados (ZANETIC 2007). Esta formalização
é conhecida hoje como lei de Stefan-Boltzmann, a qual nós usaremos na determinação
4
da temperatura da fotosfera solar [a partir de uma simplificação: P = σT onde α é a
−8
2 4
constante de Stefan-Boltzmann [ σ = 5,67 x 10 W / m K ] e P e T estabelecem a
relação entre a densidade de fluxo energético e a temperatura de determinado corpo].
Muitos físicos aventuraram-se a oferecer uma tentativa coerente de análise teórica
relativo ao corpo negro. Um destes foi Wilhelm Wien, em 1894, obtendo uma função de
distribuição espectral para a radiação de corpo negro, que ficou conhecida como lei de
Wien ou Lei do deslocamento de Wien:
1
λmáx .T = B , onde B uma constante de valor
Para visualização acesse o applet: http://astro.unl.edu/classaction/animations/light/meltednail.html
18
2,898 x 10-3 mK (para um corpo negro, o produto do comprimento de onda da radiação
mais intensa pela temperatura absoluta é uma constante).
Esta lei expressa o fato de que para a distribuição espectral de corpo negro, com o
aumento da temperatura, a emissão será máxima para uma frequência maior e vice
versa. Em outras palavras, a lei de Wien expressa que o comprimento de onda da
emissão de um corpo negro é inversamente proporcional à sua temperatura.
As curvas obtidas por Wien concordavam muito bem apenas para pequenos
comprimentos de onda (frequências altas), no entanto falhavam para grandes
comprimentos de ondas. Paralelamente aos trabalhos de Wien, Rayleigh e Jeans
desenvolveram uma nova forma de abordar o problema na tentativa de explicar os
fenômenos experimentais a partir do teorema da eqüipartição de energia2.
Contrariamente as ideias de Wien, a teoria proposta era muito eficiente para grandes
comprimentos de onda, frente a observação experimental. No entanto para pequenos
comprimentos de ondas a intensidade da radiação emitida tendia para o infinito, ou seja,
não concorda com os experimentos. Esta previsão não verificada experimentalmente
ficou conhecida como catástrofe do ultravioleta. No que tange a esta constatação,
Zanetic (2007) faz uma ressalva:
[...] apesar de seu proeminente papel nos livros-textos de física, a fórmula
[de Rayleigh - Jeans] não atuou em nenhuma parte de toda a fase originária
da teoria quântica. Planck não aceitou o teorema da equipartição [de energia]
como fundamental, e, portanto ignorou-o. Provavelmente nem Rayleigh nem
Jeans consideravam o teorema universalmente válido. A “catástrofe do
ultravioleta” [...] apenas transformou-se num assunto de discussão numa
fase posterior da teoria quântica (ZANETIC 2007, p. 161).
Quando se calculava a quantidade total de energia emitida corpo negro ideal em
equilíbrio térmico, de acordo com a teoria clássica, observava-se que para λ maiores a
teoria clássica concorda com a observação experimental, mas para λ menores a
intensidade da radiação emitida tendia para o infinito, não concordando com os
experimentos. Surgia assim à denominação catástrofe do ultravioleta, a qual forneceu
indicações de que existiam problemas irresolúveis no campo da física clássica.
O problema da radiação de corpo negro foi estudado pelo físico Max Planck, e
levou a uma revolução na teoria física ao revelar que o comportamento de pequenos
sistemas obedece regras que não podem ser explicadas pelas leis das teorias clássicas.
Em 1900, Planck solucionou o problema da radiação do corpo negro construindo uma
equação que se ajustava perfeitamente com os dados experimentais da época,
particularmente os produzidos no decorrer daquele ano (ZANETIC 2007, p. 151).
Planck fez uma proposta, que ele próprio considerou desesperadora, porém que se
revelou revolucionária. Os mundos atômicos e subatômicos necessitavam de novas
interpretações - nossa intuição não se aplicava mais.
Planck enunciou a hipótese de que a radiação só seria emitida com valores
descontínuos de energia múltiplos de uma unidade mínima. A energia da radiação de
frequência f pelo corpo emitida tem sempre um valor E = hf onde h= 6,62x10-34J.s é a
constante de Planck. Essa hipótese foi, originalmente, um artifício arbitrário, que
2
O teorema da equipartição de energia diz que num conjunto composto por um grande número de
partículas individuais, que se movimentam ao acaso trocando energia entre si através de colisões, a
energia total nele contida é igualmente partilhada, em média, por todas as partículas. Ou seja, se a energia
total é ‘E’ e se há a presença de ‘N’ partículas, a energia média de cada partícula será E/N (ZANETIC
2007, p. 156).
19
produzia os resultados experimentais, mas era classicamente injustificável, como Planck
mesmo admitiu. Tomando como um “número inteiro” a frequência da radiação, ou seja,
o número de oscilações que realiza por segundo, a energia transportada por um desses
“pacotes”, sua “parte do inteiro de energia”, é esse número multiplicado pela constante
de Planck, h (MENEZES 2005).
Planck mostrou que a energia deveria ser quantizada, ou seja, as energias não
poderiam ter todos os valores, mas deveriam variar em passos. O tamanho de cada
passo, ou quantum, é proporcional à frequência dos osciladores e igual a hf , onde h é a
constante de Planck. A partir dessa idéia, Planck obteve uma expressão que ajustou
completamente a curva espectral da radiação de corpo negro (Figura 2).
Figura 2: Comparação entre os dados experimentais e as previsões clássicas e de Planck
A partir das observações experimentais, Wien obteve uma fórmula que se aproximava da curva da
densidade de radiação em função do comprimento de onda, mas era acurada apenas para pequenos λ .
Rayleigh e Jeans partiram das fórmulas da mecânica clássica para um oscilador e obtiveram uma fórmula
que funcionava para grandes valores de λ . A fórmula de Planck, utilizando o novo conceito de
quantização da energia dos osciladores descreveu os resultados experimentais.
http://www.comciencia.br/reportagens/fisica/fisica06.htm
O gráfico acima, apesar de muito recorrente nos livros textos, na maioria das vezes
traz explicações equivocadas, por exemplo, a de que Planck interpolou as leis de Wien e
Rayleigh – Jeans ajustando sua curva. Esta colocação “clássica” não se aplica, uma vez
que, como citado acima, Planck não aceitou grande parte das ideias de Rayleigh – Jeans,
como a equipartição de energia e ainda estes cientistas trabalharam de modo
independente. A hipótese da quantização das energias também não encontrava nenhum
análogo na época (final do século XIX).
Neste sentido, mesmo reproduzindo uma observação experimental, as ideias de
Planck não eram bem vista pela comunidade até que viesse a ser adotada por Einstein
em 1905. Einstein revelou que, ao caráter descontínuo da energia, estava associado um
caráter granular da radiação. Percebeu que a luz de alta frequência é capaz de arrancar
elétrons ao incidir sobre uma placa metálica, fenômeno conhecido como efeito
fotoelétrico (MENEZES 2005).
Nos primeiros anos do século XX, a teoria quântica começou a resolver diversos
problemas. A radiação do corpo negro explicada por Planck, o efeito fotoelétrico de
Einstein e o modelo atômico quântico de Bohr foram passos iniciais. A partir de 1920 a
20
teoria quântica ganha novas contribuições com a compreensão mais profunda da
dualidade onda-partícula, graças a De Broglie, Schrödinger, Heisemberg, Bohr e outros.
A teoria quântica nos permitiu compreender muitos fenômenos importantes, como a
estrutura de átomos e moléculas (que forma a base de toda a química), a estrutura de
sólidos e suas propriedades, a emissão e absorção de radiações. Apenas através da teoria
quântica podemos compreender alguns dos mais importantes fenômenos da Física
(MARTINS 2001).
Enfim, voltando ao conceito de corpo negro, e tendo como base a atividade
“Estimando a luminosidade e a temperatura da fotosfera solar” (item 4 deste texto),
adotamos o Sol como sendo um corpo negro (Figura 3) e estipularemos a temperatura
da fotosfera solar a partir da aplicação da lei de Stefan-Boltzmann.
Figura 3: Curvas de radiação de corpo negro (à dir.) e Fluxo espectral da radiação do Sol (à esq.)
Fonte: European Association for Astronomy Education
http://skolor.nacka.se/samskolan/eaae/summerschools/SScoolIndex.html
É importante destacar que a lei de Wien também permite conhecer a temperatura
de um corpo emissor analisando apenas a sua radiação. Se a potência máxima irradiada
por uma estrela ocorrer no comprimento de onda de λm=0.5·10-6 m, aplicando a lei e
Wien, temos que a temperatura deste “corpo negro” é de 5800 K. Este é o caso da
fotosfera solar. A cor amarela do Sol nos dá a indicação da temperatura de sua fotosfera,
e é o resultado da radiação visível emitida por esta estrela. Uma estrela mais fria que o
Sol apresentará uma cor avermelhada, enquanto que uma estrela mais quente que o Sol
apresentará uma cor azulada.
3.
Notas para aprofundamento
Max Planck propôs a quantização da radiação como forma de problema da
emissão de radiação pelos corpos negros. A proposta de Planck (distribuição de
Planck), publicada em 1900, foi:
2hc 2
1
I T (λ ) = 5 . hc / λkT
λ e
−1
Esta equação nos indica que IT (λ ) é a intensidade de radiação com comprimento
de onda λ, saída de um corpo com temperatura T. Uma equação aparentemente
complicada, mas que, porém só apresenta dois parâmetros variáveis: a temperatura T e o
comprimento de onda λ. Para λ muito grande ou para temperaturas muito altas, a
exponencial da equação torna-se muito pequena, e podemos aproximar
21
e hc / λkT ≈ 1 + hc λkT e, com isso, obter o que é conhecido como distribuição de
Rayleigh - Jeans:
2ckT
I T (λ ) =
4
λ
Percebe-se que para altas temperaturas as intensidades de radiação parecem
aumentar linearmente conforme se aumenta a temperatura, e para bandas do
infravermelho e comprimentos mais baixos esse comportamento linear já pode ser visto
para amplas faixas de temperatura. Observe que a constante de Planck (h) não aparece
na equação de Rayleigh - Jeans. Ela, de fato, não tem nenhuma conexão especial com a
teoria quântica, sendo inteiramente dedutível de postulados clássicos.
Outra aproximação da distribuição de Planck, para descrever corpos negros, é a
obtida para comprimentos de onda muito baixos. Neste caso, quando hc λ >> kT , a
segunda fração da equação pode ser bem aproximada por uma exponencial negativa:
1
≈ e − hc / λkT Obtendo-se a distribuição de Wien, publicada em 1896 na forma:
hc / λkT
e
−1
C
C1 − λT2
I T (λ ) = 5 e
λ
Na época do trabalho de Wien, não existia constante de Planck. A distribuição
caía muito bem no ultravioleta, mas para comprimentos mais baixos era pouco acurada.
Planck na verdade escreveu sua lei como uma modificação da lei de Wien, para
melhorar a descrição dos dados mais ao vermelho. O titulo do artigo em que Planck
apresenta sua distribuição, inclusive, é “Sobre um aperfeiçoamento da equação de Wien
para o espectro”. A análise das curvas de distribuição de Planck para várias
temperaturas mostram que todas as curvas apresentam um máximo, que corresponde a
comprimentos de onda diferentes para temperaturas diferentes. Os corpos têm um pico
de emissão, e que, quanto maior a temperatura do corpo, menor é o comprimento de
onda em que está o pico, resultado conhecido como Lei de Wien.
λmaxT = constante ≈ 2,898 × 10 −3 k .m
Isso significa que, à medida que você esquenta um corpo negro, ele vai emitindo
mais radiação e o pico da emissão se desloca para freqüências mais altas. O fluxo total
de luz que um corpo negro emite aumenta com o aumento da temperatura. Calculando
essa área, descobrimos a Lei de Stefan-Boltzmann
Fs = σ T 4
onde FS é o fluxo na superfície da estrela, e σ = 5,67.10-8 W/m² K4 é a constante de
Stefan-Boltzmann.
Neste ponto, temos de estabelecer uma distinção importante entre duas grandezas
definidas que representam coisas diferentes. O fluxo FS mostrado logo acima, é somente
o fluxo na superfície de um corpo que tem seu espectro dado pela luz emitida por ele, tal
como um corpo negro: uma estrela. O fluxo de uma estrela, em sua superfície, é dado
pela sua luminosidade total, bem como pela sua área superficial e também se relaciona
com sua temperatura da superfície da estrela pela lei de Stefan-Boltzmann.
L = FS .4π R 2 = 4πσ T 4 R 2 , relacionando raio, luminosidade e a temperatura da
superfície de uma estrela.
22
4.
Estimando a luminosidade e a temperatura da fotosfera solar
O Sol tem forma aproximadamente esférica sendo sua energia irradiada
igualmente em todas as direções. Para a determinação da temperatura da fotosfera solar,
sugere-se fortemente que se trabalhem inicialmente alguns conceitos relacionados à
calorimetria e o conceito de corpo negro, de modo que se trabalhem conceitos da
termodinâmica básica e física moderna. A radiação do corpo negro é isotrópica, isto é,
não depende da direção. O Sol irradia aproximadamente como corpo negro. Portanto, as
leis de radiação dos corpos negros podem ser aplicadas á radiação solar salvo algumas
restrições.
Descrição experimental
Esta atividade baseou-se em um experimento da Experimentoteca do Centro de
Divulgação Científica e Cultural da Universidade de São Paulo3, e tem como objetivo
estimar a potência irradiada pelo Sol e a temperatura da superfície solar a partir de uma
montagem simples utilizando materiais de baixo custo (CANIATO 1990, AROCA
2009). Os materiais necessários para a realização do experimento são: lata de alumínio
pintada de preto, termômetro, proveta 100 ml, cronômetro, regra e calculadora.
Figura 1: Posição da lata exposta ao Sol e área longitudinal
da lata.
Neste experimento a lata
deve ser exposta ao Sol por
algum tempo. A fração de
radiação que atinge a lata pode
ser considerada proporcional à
radiação emitida pelo Sol na
distância Terra-Sol. Assim, a
partir de alguns cálculos
envolvendo
conceitos
de
calorimetria e corpo negro, e
tratando o Sol como um corpo
negro, torna-se possível estimar
a temperatura na fotosfera solar.
Inicialmente deve-se determinar a massa de água (m sugerida 250 ml) colocada na
lata e sua temperatura inicial (Ti). A lata deve ficar exposta ao Sol por aproximadamente
5 minutos ( ∆t em s), homogeneizando o meio (água) em intervalos de 1 minuto, para
então medir a temperatura final da água (Tf).
Tomada de dados
Eventos
mágua (g)
Ti (ºC)
Tf (ºC)
Tempo - ∆t (s)
1
2
3
Energia irradiada pelo Sol (adaptado). Disponível em:
http://www.cdcc.usp.br/exper/medio/fisica/kit3_calorimetria/exp6_termo.pdf
23
3
Conhecida a massa de água e a
variação de temperatura, torna-se possível
Tomada de dados
determinar a quantidade de calor recebida Eventos c (cal/gºC)
Qágua (cal)
água
pela água Qágua = m.c.(t f − t i ) . Não há
1,0
1
necessidade de considerar o calor recebido
1,0
2
pela lata, uma vez que a massa da lata é
1,0
3
ínfima em relação à massa de água utilizada
e o calor específico da lata também é pequeno em relação o da água.
A próxima etapa é calcular a razão entre a
quantidade de calor recebido pela água e o tempo
Qágua
de exposição, a potência (P): Págua =
,
∆t
transformando o resultado de cal/s em J/s (1 cal
equivale a 4,186 J).
Tomada de dados
Eventos
Págua (J/s = W)
1
2
3
Sabendo-se que a energia irradiada pelo Sol se propaga igualmente em todas as
direções, ou seja, esta energia é propagada em forma esférica, e sabendo o valor da
distância Sol-Terra (r = 1,5x 1013cm ) , calcule a área da esfera que a energia irradiada
solar atravessa A = 4πr 2 e área longitudinal da lata Alata = dxh (onde A
corresponde à área de uma esfera com o raio igual à distância Terra-Sol e Alata é a área
longitudinal da lata, Figura 1).
Tomada de dados
Eventos
dlata (cm)
hlata (cm)
rTerra-Sol (cm)
1
1,5 x1013
2
1,5 x1013
3
1,5 x1013
Tomada de dados
Eventos
1
2
3
A = 4πr 2 (cm2)
Alata = dxh (cm2)
Figura 2: Distância Sol-Terra.
http://pt.wikipedia.org/wiki/Velocidade_da_luz
Considerando que a fração de radiação que atinge a lata é proporcional à radiação
emitida pelo Sol na distância Terra-Sol, e realizado os cálculos acima, o passo seguinte
é calcular a energia total irradiada pelo Sol por unidade de tempo ou potência total solar
24
irradiada. Para tanto a energia absorvida pela lata deve ser dividida pelo tempo em que a
mesma foi exposta ao Sol, de modo a obter a potência.
Etotal Qágua
=
∆t
∆t
 A

 Alata



 A 
Ptotal = Págua 

 Alata 
ou seja,
Hoje se estima que a energia
responsável pela luminosidade do Sol é da
ordem de P = 3,8x 10 26W (SILVA 2006).
Tabela 1: Resultados
Potência total irradiada (x1026 W)
Eventos
1
2
3
A partir do cálculo da potência irradiada pelo Sol, e considerando o Sol como um
corpo negro, já temos condições de estimar a temperatura da fotosfera solar usando
alguns conceitos de corpo negro, particularmente a lei de Stephan-Boltzmann
[ P = σT 4 onde σ = 5,67 x 10 −8W / m 2K 4 ].
Para esta estimativa, inicialmente deve-se dividir a potência irradiada encontrada
P 
2
pela área do Sol P =  total  , onde ASol = 4πR (raio do Sol é de aproximadamente
 ASol 
R = 6,96 x108 m ), de modo a considerar o Sol como sendo uma esférica que irradia
igualmente em todas as direções.
Tomada de dados
Eventos
ASol = 4πR 2 (m2)
P
P =  total
 ASol

 (W)

1
2
3
Figura 3: Diâmetro do Sol.
Enfim, calcula-se a temperatura da fotosfera solar a partir da equação: T = 4
Segundo a literatura, estima-se que a
temperatura da fotosfera solar seja da ordem de T
= 5780 K (SILVA 2006). O resultado deste
experimento depende muito do local onde a
experiência é realizada, uma vez que as condições
atmosféricas podem interferir.
Eventos
P
σ
.
Tabela 2: Resultados
Temperatura da fotosfera (K)
1
2
3
25
Questão:
1.
Qual foi a maior dificuldade que você encontrou para determinar a temperatura
da fotosfera solar e a potência irradiada pelo Sol?
2.
Tendo como base os valores da “temperatura da fotosfera” (T = 5780 K) e
“potência irradiada pelo Sol” ( P = 3,8x 10 26W ) enunciado pela literatura, quais foram
os possíveis fatores que levaram a divergências com os resultados obtidos no
experimento?
5.
Bibliografia Consultada
AROCA, S. C., Ensino de física solar em um espaço não formal de educação, Tese
de Doutorado, Instituto de Física de São Carlos, USP, São Carlos, 2009.
CANIATO, R. O céu. São Paulo: Editora Ática, 1990.
MARTINS, R. A. A Física no final do século XIX: modelos em crise. 2001.
Disponível em: <http://www.comciencia.br/reportagens/fisica/fisica05.htm>. Acesso
em: 14 Set. 2011.
MENEZES, L. C. A matéria uma aventura do espírito científico: fundamentos e
fronteiras do conhecimento físico. 1ª Ed. São Paulo: Livraria da Física, 2005.
ZANETIC, J. Evolução dos Conceitos da Física. Apostila usada em aula, não
publicadas, vol. 1, Instituto de Física, USP, São Paulo, 2007.
26
Tema 5:
5: Radiações - α, β e γ
Pedro Donizete Colombo Junior
[email protected]
1.
Radioatividade: breves considerações
É muito comum as pessoas associarem a palavra radiação a algo perigoso e
destrutivo. No entanto estamos constantemente expostos à radiação. Podemos entender
radiação como sendo a emissão e propagação de energia de um ponto a outro, seja no
vácuo ou num meio material. Em outras palavras, é a
capacidade que alguns elementos fisicamente instáveis
possuem de emitir energia na forma de partículas ou ondas
eletromagnéticas. Devido à instabilidade nuclear, muitos
núcleos atômicos são radioativos, levando a emissão de tais
energias.
O estudo experimental da radioatividade revelou que os
núcleos instáveis emitem três tipos de “raios”, inicialmente de natureza desconhecida e
que foram designadas por alfa (α), beta (β) e gama (γ). As duas primeiras são radiações
sob a forma de partículas (assim como um feixe de elétrons), já a radiação gama é uma
radiação eletromagnética (assim como a luz, micro-ondas, ondas de rádio, radar, raios
infravermelho e raios X).
Figura 1: Radioatividade: Comissão Nacional de Energia Nuclear (CNEN) - www.cnen.gov.br
Dependendo da quantidade de energia, uma radiação pode ser descrita como não
ionizante ou ionizante. As radiações não ionizantes possuem relativamente baixa
energia, como exemplos, temos as ondas eletromagnéticas, calor e ondas de rádio. Já as
radiações ionizantes, altos níveis de energia, são originadas do núcleo de átomos,
podem alterar o estado físico de um átomo e causar a perda de elétrons, tornando-os
eletricamente carregados.
Historicamente vários cientistas contribuíram direta ou indiretamente para o
conhecimento e identificação das radiações (partículas e eletromagnética). Dentre estes
podemos citar: Wilhem Roentgen,1895; Henri Becquerel, 1896; Maria e Pierre Curie,
1897; Ernest Rutherford e Frederick Soddy, 1902, entre outros4. A figura a seguir ilustra
4
Para aprofundamento sugiro a leitura do texto ”A Descoberta da Radioatividade”. Disponível em:
http://www.if.ufrgs.br/tex/fis142/fismod/mod06/m_s02.html, e baseado no artigo de Roberto de Andrade
Martins: “Como Becquerel não descobriu a radioatividade”, Caderno Catarinense de Ensino de Física, 7,
1990.
27
um arranjo experimental histórico para a detecção dos três tipos de radiação emergentes
de uma caixa de chumbo com amostra radioativa.
Figura 2: Emissão de partículas radioativas. Esta
figura representa-se o método utilizado para
determinar o tipo de carga elétrica dos raios α, β
e γ.
http://www.educadores.diaadia.pr.gov.br/arquivo
s/File/tvmultimidia/imagens/4quimica/7emissaod
epartradio.jpg
2.
Partícula alfa (α)
Um dos processos de estabilização de um núcleo com excesso de energia é o da
emissão de um grupo de partículas positivas, constituídas por dois prótons e dois
nêutrons, e da energia a elas associada. São as radiações α ou partículas α. A radiação α
possui massa e carga elétrica relativamente maior que as demais radiações. É uma
radiação constituída por partículas subatômicas com bastante energia cinética, a qual
varia de 3 a 7 MeV. São conhecidas também como núcleos de hélio (2α4 = 2He4), um
gás chamado “nobre” por não reagir quimicamente com os demais elementos.
A chamada Primeira Lei da
Radioatividade, enunciada por Frederick
Soddy, em 1911, nos indica que quando um
radionuclídeo emite uma partícula α, seu
número de massa diminui 4 unidades e seu
número atômico diminui 2 unidades.
3.
Partícula beta (β)
Emissão β, consiste de um elétron (β-)
ou pósitron (β+) emitido pelo núcleo na
Figura 3: Estudo das Emissões Alfa, Beta e
busca de sua estabilidade, quando um
Gama
nêutron se transforma em próton ou um
http://quimicasemsegredos.com/radioatividadepróton se transforma em
nêutron,
parte1.php
respectivamente, acompanhado de uma
partícula neutra de massa desprezível, denominada de neutrino (ν), o qual não tem carga
elétrica e quase não tem massa.
A Segunda Lei da Radioatividade, enunciada por Soddy, Fajjans e Russel, em
1913, nos diz que quando um radionuclídeo emite uma partícula β-, seu número de
massa permanece constante e seu número atômico aumenta de 1 unidade. Portanto, ao
emitir uma partícula β+, o
Figura 4: Radioatividade: núcleo tem a diminuição de
Comissão Nacional de
um nêutron e o aumento de
Energia Nuclear
um próton, desse modo, o
www.cnen.gov.br
número de massa permanece
constante.
28
4.
Figura 5: Estudo
Das Emissões
Alfa, Beta e
Gama
http://quimicasem
segredos.com/radi
oatividadeparte1.php
Partícula gama (γ)
Após a emissão de uma
partícula alfa (α) ou beta (β), o
núcleo resultante desse processo,
ainda com excesso de energia,
procura estabilizar-se, emitindo
esse excesso em forma de onda
eletromagnética, a qual nós
denominamos de radiação gama
(γ). Como exemplo desta emissão
podemos citar o elemento
químico Césio-137, o betaemissor envolvido no acidente de
Goiânia.
Ao emitir uma partícula β, seus
núcleos se transformam em bário137. A emissão de uma onda
eletromagnética (radiação γ) ajuda
um núcleo instável a se estabilizar.
Figura 6: Estudo Das Emissões Alfa, Beta e Gama
http://quimicasemsegredos.com/radioatividade-parte1.php
Quanto à penetração da radiação, a partícula α, apesar de ser bastante energética, é
facilmente barrada por uma folha de papel alumínio. As partículas β são mais
penetrantes e menos energéticas que as partículas alfa, conseguem atravessar o papel
alumínio, mas são barradas por madeira. E a partícula gama não é tão energética, mas é
extremamente penetrante, podendo atravessar o corpo humano. Esta radiação é detida
somente por uma parede grossa de concreto ou por algum tipo de metal. Por estas
características esta radiação é nociva à saúde humana, ela pode causar má formação nas
células.
Figura 7: Observando o poder de penetração dos raios
alfa, beta e gama em diversos materiais pode-se concluir
que os raios gama atravessam todas as barreiras que os
raios alfa e beta não conseguem atravessar, e só são
contidos por uma parede de concreto, inclusive
conseguem penetrar até mesmo uma placa de chumbo.
http://www.alunosonline.com.br/quimica/radiacoes-alfabeta-gama.html
29
* massa relativa à massa do elétron (=1)
Tabela 1: Tipos de radiação liberada em reações nucleares
http://crq4.org.br/default.php?p=texto.php&c=quimicaviva_energianuclear
5.
Meia-vida
É importante atentar para o fato de que em cada emissão de uma dessas partículas,
há uma variação do número de prótons no núcleo, isto é, o elemento se transforma em
outro elemento, com comportamento químico diferente. Quando um átomo
emite α, β e/ou γ, dizemos que ele sofreu decaimento radioativo, o qual sugere a
diminuição gradual de massa e atividade. Das várias ondas eletromagnéticas, apenas os
raios γ são emitidos pelos núcleos atômicos.
Cada elemento radioativo decai a uma velocidade que lhe é característica. Para se
acompanhar a duração (ou a “vida”) de um elemento radioativo foi preciso estabelecer
uma forma de comparação, a qual nós chamamos de meia-vida do elemento. Meia-vida,
portanto, é o tempo necessário para a atividade de um elemento radioativo ser reduzida
à metade da atividade inicial, ou seja, a atividade vai sendo reduzida à metade da
anterior, até atingir um valor insignificante, que não permite mais distinguir suas
radiações das do meio ambiente.
Os fenômenos radioativos ocorrem segundo uma taxa de decaimento exponencial,
indicando que esta diminuição trata-se de um processo estatístico, ou seja, só são
validas para um número muito grande de átomos. Para um átomo individualmente, não
é possível determinar quando ele decairá. Apenas é possível determinar a probabilidade
dele decair. Seja N é o número de núcleos radioativos em um dado instante t. Se o
decaimento em um núcleo particular é um evento aleatório, espera-se que o número de
núcleos que decaem em um intervalo de tempo dt seja proporcional a N e a dt. Desta
forma, o número N sofrerá uma diminuição. A variação de N é dada por5:
Onde λ é chamada de constante de decaimento, cujo valor depende do elemento
radioativo. Assim, λ exprime a proporção de núcleos que decaem por unidade de tempo
e tem dimensão de inverso de tempo. Esta propriedade é característica dos decaimentos
exponenciais. Vamos tratar esta informação usando o método de separação das
variáveis:
Dividindo ambos os lados por N
5
Efetuando a integração:
Com base em TIPLER (2000, p. 129-130).
30
Então:
Tomando a exponencial:
Onde N0 = eC é o nº de núcleos em t=0
Logo, a lei do decaimento exponencial será:
A vida média, τ é definida como o inverso da constante de decaimento.
τ=
1
λ
Figura 8: O gráfico representa a lei
exponencial do decaimento radioativo, em que o
número N de átomos intactos, isto é, remanescentes
e não desintegrados, em cada instante, é
representado no eixo das ordenadas e o tempo t no
eixo das abscissas. Estão destacados os valores
N0/2, N0/4 etc. correspondentes a 1, 2, 3,.. meiasvidas, indicadas no eixo t.
http://www.profpc.com.br/radioatividade.htm
6.
Detecção da radiação
O mais conhecido dos instrumentos detectores de radiação é o contador Geiger
(ou Geiger-Müller). Basicamente seu funcionamento deve-se a capacidade que as
radiações têm de ionizar gases. Quando a radiação α, β e γ ionizam o gás que existente
dentro de uma ampola
especial do contador, esse
gás
se
torna,
momentaneamente,
condutor de corrente
elétrica,
a
qual
é
“convertida” em um sinal
sonoro e indicação de
medida
em
um
mostrador. Quanto mais
radiação, maior será a
Figura 9: Esquema de um contador Geiger.
condutividade elétrica do
http://quimicasemsegredos.com/radioatividade-parte1.php
gás e, portanto maior o
nível de ruído ouvido e nível de radiação indicado pelo mostrador.
7.
Bibliografia Consultada
CARDOSO, E. M. Apostila educativa: Radioatividade. Comissão Nacional de
Energia Nuclear – CNEN. Disponível em: www.cnen.gov.br
JADER. Radioatividade. Disponível em: http://lief.if.ufrgs.br/~jader/radiacoes.pdf
HJORT, R. Radioatividade e Decaimento Alfa. Journal of Applied Physics Brazil, v.
95, n. 16, July 2004
.
31
TIPLER, P. A., Física: Física Moderna, Mecânica Quântica, Relatividade e a
Estrutura da Matéria. 4 ed., Rio de Janeiro: LTC, 2000, v. 3. 2000.
32
Tema 6:
6: O átomo de Bohr e a Espectroscopia
Pedro Donizete Colombo Junior
[email protected]
1.
O espectro eletromagnético e a espectroscopia
É conhecido historicamente e aceito cientificamente que a luz é uma onda
eletromagnética. Mas o que isto significa? Por que é importante ter esta informação?
Vamos pensar! Este breve texto tem o intuito de trazer alguns conceitos físicos
referentes às ondas eletromagnéticas e, por conseguinte referentes à luz visível. As
ondas eletromagnéticas estão presentes em nosso cotidiano, porém não podemos
enxergar a maioria delas.
Partindo do fato de que uma determinada carga em repouso gera um campo
elétrico (E) a sua volta, temos que quando em movimento o campo elétrico (em uma
posição qualquer) estará variando no tempo e gerará um campo magnético (B), que por
sua vez também varia com o tempo. O conjunto, campo elétrico e campo magnético (E
x B), por definição, constitui uma onda eletromagnética, que se propaga em todas as
direções, mesmo no vácuo, como é o caso da luz (KEPLER e SARAIVA 2004).
Figura 1: Esquema de uma onda eletromagnética: campo elétrico (E), campo magnético (M), sentido de
propagação (C), amplitude (A) e comprimento de onda, e (ë). Ao lado está a divisão das faixas do
espectro eletromagnético. http://mundogeo.com/blog/2000/01/01/aplicacoes-ambientais-de-radar-navale/
Uma onda eletromagnética pode ser caracterizada através do seu comprimento de
onda (λ) frequência (f) e pela energia que a ela se encontra associada (E). A relação
c
entre energia, frequência e comprimento de onda é dada por: E = hf = h  , onde c é a
λ
8
velocidade da luz no vácuo (3,0 x 10 m/s) e h é a chamada constante de Planck (h =
6,625 x 10-34 J.s).
À percepção e intensidade da luz em diferentes comprimentos de onda é o que
chamamos de espectro. A luz visível corresponde a uma estreita faixa do espectro da
radiação cujo comprimento de onda situa-se entre (aprox.): 400 e 700 nm (as fronteiras
não são bem definidas), estes comprimentos de onda nos possibilitam enxergar em cores
do vermelho ao violeta. Outras faixas de radiação completam o espectro
eletromagnético: infravermelho, rádio, ultravioleta, raios-X, raios gama (Figura 2).
33
Figura 2:
Espectro
eletromagnético
http://fisicasemmi
sterios.webnode.c
om.br/products/on
daseletromagneticas/
O Sol, assim com as demais estrelas, possui uma assinatura química, como se
fosse uma impressão digital, dada por seu espectro. A maior parte das informações que
temos sobre as propriedades físicas das estrelas (temperaturas, densidades e
composição) são obtidas a partir de seus espectros, ou seja, a partir da análise dos
espectros eletromagnéticos: a espectroscopia.
Esta técnica é largamente empregada na química, física, engenharias, astronomia,
e várias outras áreas. Em astronomia, ela permite saber informações sobre a constituição
química das estrelas e a evolução das reações que lá acontecem assim como a expansão
do universo. A partir do estudo do espectro dos elementos presentes na Terra é possível
também entender o significado das linhas espectrais e determinar quais elementos
químicos estão presentes, por exemplo, no Sol. No século XIX, meados de 1868, a
descoberta de uma linha inexplicável do espectro solar por Sir Joseph Norman Lockyer
(1836-1920) levou a identificação de um novo elemento químico, o hélio (do grego
‘hélios’; referência ao Sol). Pouco tempo após esta identificação, o elemento hélio foi
descoberto na Terra, pelo químico inglês Sir William Ramsay (1852-1916) quando o
espectro de um minério de urânio contendo hélio produziu uma linha na posição exata
daquela encontrada por Lockyer no espectro do Sol (KEPLER e SARAIVA 2004).
Desde a antiguidade já se sabia que a luz solar pode ser decomposta em cores
(arco-íris). Com importantes contribuições de Isaac Newton e outros, no século XVII
iniciou-se uma busca por explicações para o fenômeno da decomposição da luz solar.
Um exemplo clássico é a decomposição da luz do Sol por meio de um prisma. Já em
1814, o jovem construtor de instrumentos ópticos Joseph Fraunhofer (1787 – 1826)
inicialmente usando prismas e depois grades de difração, analisou a luz solar e
constatou que o espectro solar continha centenas de linhas escuras sobre as cores
observáveis. De modo a obter uma primeira classificação, Fraunhofer designou as linhas
mais fortes pelas letras de A até I, e mapeou 574 linhas entre a linha B (no vermelho) e
a linha H (no violeta). Fraunhofer utilizava as linhas do espectro solar para calibrar seus
instrumentos (vidros e prismas), que eram considerados os de melhor qualidade
fabricados.
É importante atentar para o fato de que também ocorrem linhas escuras nas regiões
invisíveis do espectro. Tempos depois da descoberta de Fraunhofer, verificou-se que o
número de linhas na região além do espectro visível era bem maior, chegando a vários
milhares. Como ressalta Kepler e Saraiva (2004), tempos depois do “mapeamento” de
Fraunhofer, as linhas foram identificadas por Gustav Robert Kirchhoff (1824-1887)
como sendo (figura 3):
34
Em 1856, Kirchhoff trabalhando ao lado
de Robert Wilhelm Bunsen (1811-1899),
idealizador do bico de gás de chama incolor
(bico de Bunsen), descobriu que cada
elemento gerava uma série de linhas
diferentes, por exemplo, o neônio tinha linhas
no vermelho, o sódio linhas no amarelo e o
mercúrio tinha linhas no amarelo e no verde.
O detalhe é que estas linhas, oriunda de gases
quentes, eram todas brilhantes, enquanto que
as de Fraunhofer eram escuras. Como veremos
mais adiante, após uma série de experiências,
Kirchhoff formulou as três leis empíricas com
intuito de determinar a composição de uma
mistura de elementos químicos. Estas leis são
conhecidas atualmente com as “leis de
Kirchhoff para a espectroscopia”, dada a
enorme contribuição que trouxeram.
É
Figura 3: Linhas identificadas por Gustav
importante
ressaltar
que
as
linhas
escuras
Robert Kirchhoff. Fonte:
observadas no espectro não significam
http://astro.if.ufrgs.br/rad/espec/espec.htm
ausência de luz, somente o contraste de menos
luz. O gás mais frio absorve mais radiação que emite e, portanto, gera linhas escuras.
2.
A Origem das Linhas Espectrais: o Átomo e a Absorção e Emissão de Luz
No início do século XX, à medida que os cientistas entendiam mais sobre a
estrutura dos átomos e a natureza da luz, logo começaram a estabelecer as bases teóricas
para a compreensão da formação dos espectros eletromagnéticos. Nas páginas que se
seguem focaremos nossa discussão a partir da proposta atômica de Niels Bohr (18851962) para o átomo de hidrogênio. Mas por que a necessidade de um novo modelo para
o átomo?
O modelo anterior ao de Bohr, proposto por Ernest Rutherford (1871-1937)
tinham alguns problemas que se confrontava com a teórica eletromagnética clássica. De
acordo com esta teoria, um elétron em órbita ao redor do núcleo atômico (como
proposto por Rutherford) deveria emitir radiação, cuja frequência mudaria quando o
elétron perdesse energia. Assim o elétron iria perdendo energia, percorrendo um
caminho em espiral até colidir-se com o núcleo do átomo. Eis o problema: este fato não
acontecia e ninguém sabia explicar “por que” e “o que” realmente acontecia. Em poucas
palavras, a Física Clássica não dava conta de explicar o comportamento de um átomo.
Niels Bohr, apoiado nas ideias que remexiam a física do início do século XX,
propôs a ideia de que um elétron em órbita ao redor do núcleo atômico, apesar de ser
uma carga acelerada, necessariamente não emitiria energia. Baseando-se principalmente
nas ideias de Planck, Bohr propor um novo modelo atômico, capaz de responder as
questões não solucionadas pelo modelo de Rutherford6.
6
Em 1900, o cientista alemão Max Planck (1858-1947) propôs o modelo da quantização da luz, segundo
o qual a matéria emite luz em pacotes de energia, que ele denominou quanta. Albert Einstein, em 1905,
estudando o efeito fotoelétrico usou a ideia da quantização e assumiu que cada quantum de luz, ou fóton,
tem uma energia E dada por: E= hf.
35
Era do conhecimento de Bohr que elétrons que circulam próximo ao núcleo de um
átomo possuem menos energia que os elétrons que percorrem órbitas maiores, uma vez
que quanto mais próximo do núcleo maior é a atração. Assim, segundo Bohr seria
necessária certa quantidade de energia para mover um elétron de uma órbita menor, para
outra maior. Bohr acreditou que a diferença de energia entre as órbitas menores e
maiores poderiam estar relacionados de algum modo com os discretos feixes de energia
propostos por Planck.
Este fato o levou a propor que um elétron poderia ocupar apenas certas órbitas
precisas (que hoje chamamos de níveis de energia) ao redor do núcleo de um átomo.
Uma propriedade básica da mecânica quântica (pacotes de energia) aplicada ao átomo
de Bohr relacionada a quantificação da energia associada às diferentes partículas que o
constituem, ou seja, estas partículas só podem assumir determinados valores discretos
de energia. Isto quer dizer que apenas determinadas órbitas, com certos raios serão
permitidas. Assim, os elétrons podem transitar entre os diferentes níveis de energia,
assumindo em cada caso um diferente estado (valor) de energia, absorvendo ou
emitindo exatamente a radiação correspondente à diferença de energia entre o valor
associado a cada um desses níveis. Quando o elétron absorve energia, transita para um
estado de energia maior (“menos negativo”) ficando mais excitado, enquanto a emissão
de energia acompanha a desexcitação do elétron.
Em síntese, as ideias de Bohr quanto à estrutura atômica pode ser entendida da
seguinte forma: os elétrons giram ao redor do núcleo em um número limitado de órbitas
bem definidas (órbitas estacionárias) com determinados níveis de energia. Ao absorver
determinada quantidade de energia o elétron salta para uma órbita (nível) mais
energética (estado excitado), ao retornar para a órbita original, o elétron perde energia
na forma de ondas eletromagnéticas (luz de cor bem definida), as quais podem ser
observadas por meio de espectros correspondentes. Estes saltos se repetem milhões de
vezes por segundo, produzindo assim onda eletromagnética (sucessão de ondas
emitidas).
Figura 4: Esquematização da (Des)excitação atômica (à cima), e espectro de absorção (à baixo). Fontes:
http://www.feiradeciencias.com.br/sala23/23_MA02.asp e http://www.prof2000.pt/users/angelof/luz_e_espectros.htm#luz
Desta forma, o átomo só pode absorver ou emitir certos valores discretos de
energia, que podem ser calculada por: ∆E = E f − Ei , onde ∆E corresponde à energia do
fóton emitido ou absorvido, Ei à energia do nível na transição mais próximo do núcleo e
Ef quantifica o valor da energia do nível mais afastado do núcleo implicado na transição.
36
É importante ressaltar que um dos aspectos básicos da mecânica quântica que está
incorporado ao modelo atual do átomo, e que o faz ser completamente diferente de
modelos anteriores, é que a energia dos elétrons no átomo de Bohr está restrita a certos
valores discretos, muito bem definidos, sendo somente estes valores permitidos.
Passamos a dizer que a energia do átomo é quantizada. Este fato nos revela que apenas
certas órbitas, com raios bem estabelecidos, podem ser ocupadas pelos elétrons. Para
tais órbitas damos o nome de níveis de energia.
Para explicar a evidente estabilidade do átomo de hidrogênio e o surgimento de
uma série de linhas espectrais desse elemento, Niels Bohr, em 1913, propôs quatro
postulados, levando em consideração a quantização de Planck e cujo significado foi
elucidado por Einstein.*.
•
PRIMEIRO: um elétron em um átomo se move numa órbita circular em torno do núcleo sob a
influência da atração de natureza elétrica, entre o elétron e o núcleo, obedecendo às leis da mecânica
clássica.
•
SEGUNDO: em vez das infinidades de órbitas que seriam possíveis segundo a mecânica
clássica, um elétron só pode se mover em uma órbita na qual seu momento angular orbital L é um
múltiplo inteiro de h.
Assim colocado, haveria órbitas proibidas aos elétrons. Eles poderiam ocupar apenas órbitas com raio:
rn = n 2 .
ε 0 .h 2
π .m.Z .e 2
.
Com: n = 1,2,3, ... (órbitas permitidas) e ε0 permissividade elétrica do vácuo (8,85.10-12 C2/N.m2); h
constante de Planck (6,63.10-34 J.s); m massa do elétron (9,1.10-31 Kg); e carga elementar em módulo
(1,6.10-19 C); Z número atômico do elemento considerado.
•
TERCEIRO: apesar de estar constantemente acelerado, o elétron que se move numa dessas
órbitas possíveis não emite radiação eletromagnética. Portanto, sua energia total E permanece constante.
1 m.Z 2 .e 4 E1
13,60
Os valores da energia nestas órbitas seriam: En = − 2 .
= 2 =− 2 .
2 2
n 8.ε 0 .h
n
n
Assim, para o átomo de hidrogênio (Z=1), tem-se
que:
n=1 (estado fundamental) -- rn= 0,52 Å e En= -13,60
eV
n=2 ------------------------------- rn= 2,08 Å e En= -3,40
eV
(com 1 eV = 1,6.10-19 J)
•
QUARTO: é emitida radiação eletromagnética se um elétron que se move inicialmente sobre
uma órbita de energia total Ei, muda seu movimento descontinuamente de forma a se mover numa órbita
de energia total Ef. A frequência da radiação emitida (f) é igual a: Ei - Ef / h.
*Baseado em: “Dualidade Onda-Partícula para Ensino Médio. Curso de Física Moderna para o Ensino Médio” (NUPIC 2011).
Enfim, para um elétron ir de um nível energético a outro não basta que ele absorva
ou emita energia, é fundamental que esta energia tenha valores específicos, bem
definidos, discretos. Estes “pacotes” de energia são chamados de fótons. O modelo de
Bohr do átomo de hidrogênio foi apenas um passo intermediário no caminho para uma
37
teoria mais precisa da estrutura atômica, que hoje conhecemos através da mecânica
quântica e da eletrodinâmica quântica.
3.
Os níveis de energia do átomo de hidrogênio
Tendo em vista que o hidrogênio é o elemento mais abundante no Universo,
entender seu espectro é fundamental para a astrofísica. As diferenças de energia entre as
órbitas é a chave para explicar o espectro do hidrogênio, uma vez que os elétrons
retornam rapidamente para as órbitas mais próximas, liberando energia no processo. O
processo de emissão ou absorção de radiação no hidrogênio dá origem a séries, as quais
são sequências de linhas correspondentes a transições atômicas, cada uma delas
acabando (emissão) ou começando (absorção) num mesmo nível energético e nos
mostram as possíveis transições que o elétron do átomo de hidrogênio pode fazer. Estas
transições do elétron dão origem às seguintes séries (Figura 5):
Figura 5: Diagrama de níveis de energia do átomo de hidrogênio e algumas séries do espectro de emissão. Fonte:
http://fisicaquimicanet.blogspot.com/2010/01/atomo-de-hidrogenio-e-estrutura-atomica.html
4.
Espectros de Absorção e de Emissão e o modelo de Bohr
Como vimos os átomos absorvem ou emitem radiação eletromagnética com
valores discretos de energia dependente da sua estrutura atômica. Este fato nos permite
estudar as diferentes radiações de acordo com o seu comprimento de onda. O registro
dessas radiações constitui o espectro atômico, que será de absorção ou de emissão
consoante o tipo de transições eletrônicas associadas (Figura 6).
Figura 6: Espectros de Absorção e de Emissão (PIETROCOLA et al. 2011)
http://www.cienciamao.usp.br/dados/pru/_fisicamodernaecontemporanea17968.apostila.pdf
38
O correspondente espectro pode apresentar simplesmente um contínuo, ou pode
ter sobrepostas nesse contínuo um conjunto de marcas brilhantes (espectro de emissão)
ou de marcas escuras (espectro de absorção) – espectro discreto. Quando o espectro de
uma lâmpada de filamento incandescente é decomposto, por exemplo, a partir de um
prisma, o resultado observado é a decomposição de várias cores (tipo arco-íris), ou seja,
o espectro da luz visível. Se ao invés da fonte de luz incandescente for utilizada uma
lâmpada de gás, o resultado obtido não será um “espectro completo”, ou seja, apenas
algumas linhas brilhantes farão parte do espectro observado, o que corresponde à leitura
de algumas frequências das ondas de luz visível.
Os espectros descritos acima podem ser entendidos teoricamente a partir de três
leis empíricas enunciadas por Gustav Robert Kirchhoff (1824-1887) a partir de seus
experimentos com intuito ara determinar a composição de uma mistura de elementos.
1) Um corpo opaco quente, sólido, líquido ou gasoso, emite um espectro contínuo.
2) Um gás transparente produz um espectro de linhas brilhantes (emissão). O número e a
posição destas linhas dependem dos elementos químicos presentes no gás.
3) Se um espectro contínuo passar por um gás à temperatura mais baixa, o gás frio causa a
presença de linhas escuras (absorção). O número e a posição destas linhas dependem dos
elementos químicos presentes no gás.
Figura 7: As três Leis de Kirchhoff para a espectroscopia Fonte:
http://astro.if.ufrgs.br/rad/espec/espec.htm
As leis de Kirchhoff e o modelo atômico proposto por Bohr permitem entender
melhor o misterioso mundo dos espectros atômicos. A enunciação dos postulados de
Bohr nos revela que os elétrons ao serem excitados por uma fonte externa de energia,
saltam para um nível de maior energia e ao retornarem aos níveis de menor energia,
liberam energia na forma de luz (fótons). Assim, sabendo que a cor da luz emitida é
estritamente ligada à energia entre os níveis envolvidos na transição e como essa
diferença varia de elemento para elemento, pode-se concluir que a luz apresentará uma
cor característica para cada elemento químico. As linhas observadas nos espectros de
emissão e absorção de determinado elemento químico ocupam a mesma posição, uma
vez que estão associados a uma mesma frequência.
Finalizando estas breves considerações a respeito do espectro eletromagnético
e do átomo de Bohr, apresentamos um exemplo teórico de para o espectro de emissão.
39
Conjecturamos que em um dado momento uma amostra de hidrogênio que de alguma
forma foi excitada, ocorrendo um salto quântico de um elétron do nível 2 para o nível 3
de sua camada eletrônica. Quase que instantaneamente, o elétron retorna para seu
estado inicial emitindo um fóton. Como calcular a frequência do fóton emitido e como
registrar a linha de espectro emitida. Dados: no estado n = 3 a energia é E3 = -1,51 eV
e n = 2, a energia é E2 = -3,40 eV.
∆E = h.v → v =
∆E E3 − E2
− 1,51 − (−3,40)
=
→v=
→ v = 4,6.1014 Hz
−15
h
h
4,1.10
Com a utilização de uma chapa fotográfica pode-se registrar essa linha do espectro de emissão.
5.
Notas para aprofundamento (http://ciencia.hsw.uol.com.br/atomos8.htm)
É importante destacar que o modelo de Bohr também apresenta algumas
limitações. Embora explicasse adequadamente como os espectros atômicos
funcionavam, havia alguns problemas que ainda incomodavam os físicos e químicos:
Por que os elétrons ficariam confinados apenas em níveis específicos de
energia?
Por que os elétrons não emitiam luz o tempo todo? (os elétrons por mudarem de
direção em suas órbitas circulares (aceleravam), eles deveriam emitir luz).
O modelo de Bohr conseguia explicar muito bem os espectros de átomos com
um elétron na camada mais externa, mas não era muito bom para os que tinham
mais de um elétron nessa camada.
Estas, dentre outras limitações evidenciavam que o modelo de Bohr necessitava
de “ajustes”. Parafrasenado Lord Kelvin: pequenas “nuvens” no universo atômico. Um
destes ajustes surgiu em 1924, quando o físico francês Louis de Broglie sugeriu que,
assim como a luz, os elétrons podiam agir como partículas e ondas. Fato confirmado
logo depois a partir de experimentos que mostraram que os feixes de elétrons podiam
ser difratados ou curvados com sua passagem através de uma fenda, da mesma maneira
que a luz. Assim, as ondas produzidas por um elétron confinado em sua órbita ao redor
do núcleo definem uma onda estacionária, com λ, E e f específicas (os níveis de energia
de Bohr).
Com as ideias de De Broglie, o físico alemão Werner Heisenberg sugeriu não ser
possível saber com exatidão o momento e a posição de um elétron no átomo, o que
chamou de princípio da incerteza (mesmo se um elétron viajasse como uma onda não
seria possível localizar a posição exata deste elétron dentro dessa onda). Assim, as
ideias de Heisenberg resultam em: para ver um elétron em sua órbita, é preciso iluminálo com um comprimento de onda menor do que o comprimento de onda do elétron. Esse
pequeno comprimento de onda de luz possui energia alta, o elétron irá absorver essa
energia e essa energia absorvida irá mudar a posição do elétron. Ou seja, segundo
Heisenberg, não devemos imaginar os elétrons como se estivessem se movendo em
órbitas bem definidas ao redor do núcleo.
Com a hipótese de Broglie e o princípio da incerteza de Heisenberg, em 1926, um
físico austríaco Erwin Schrodinger criou uma série de equações (chamadas de funções
de onda) para os elétrons. Para Schrodinger, os elétrons confinados em suas órbitas
definiriam ondas estacionárias e se poderia descrever somente a probabilidade de onde
um elétron estaria. As distribuições dessas probabilidades correspondiam às regiões de
espaço formadas ao redor do núcleo que formam as regiões chamadas de orbitais. Neste
40
sentido, os orbitais poderiam ser entendidos como nuvens de densidade de elétrons,
deste modo, a área mais densa da nuvem resulta na região onde se tem a maior
probabilidade de encontrar o elétron e vice versa. Tal função de onda de cada elétron
pode ser descrita como um conjunto de três números quânticos:
principal (n) - descreve o nível de energia,
azimutal (l) - a rapidez com que o elétron se move em sua órbita (momento
angular),
magnético (m) - sua orientação no espaço.
Além destes três números quânticos, posteriormente foi proposto mais um
número, que relacionava à direção em que o elétron gira enquanto se move em sua
órbita (sentido horário ou anti-horário). Esta expansão foi necessária uma vez que dois
elétrons não poderiam estar no mesmo estado. Apenas dois elétrons poderiam
compartilhar o mesmo orbital: um no sentido horário e outro girando no sentido antihorário. Em síntese, o modelo
Figura 8: Modelo resultante do átomo é o que
quântico de um
chamamos hoje de modelo
átomo de sódio.
quântico do átomo, sendo esta a
http://ciencia.hsw. visão mais realística da estrutura
uol.com.br/atomo geral do átomo que temos. Ele
s8.htm
explica muito do que conhecemos
sobre a química e a física.
6.
Construindo um espectroscópio amador com materiais de baixo custo.
São muito frequentes as divulgações pelas mídias sobre descobertas astronômicas.
No entanto, raramente se discute como é possível estudar objetos tão distantes de nós,
como, estrelas situadas a milhares de anos-luz da Terra. Na maioria dos casos a resposta
esta na análise da luz advinda destes objetos e na subsequente análise do seu espectro
eletromagnético, técnica conhecida como espectroscopia.
A presente atividade tem o intuito de propiciar um primeiro contato com a
espectroscopia a partir da construção de um espectroscópio amador utilizando materiais
de baixo custo. A montagem é baseada na situação de aprendizagem “Um equipamento
astronômico” sugerida pela Proposta Curricular do Estado de São Paulo para a 3ª E.M.e
utiliza os seguintes materiais: Fita isolante/adesiva, CD, cola, régua, estilete, tesoura,
tubo de papelão (papel toalha) revestido com papel color set preto.
Figura 9a: Materiais utilizados
Figura 9b: Tampas para o tubo
41
Figura 9c: Retirando a película do CD
Figura 9d: Espectroscópio pronto
Fonte: Proposta Curricular do Estado de São Paulo (SEE/SP, 2009, 3º EM, Ap. 3).
A montagem do espectroscópio: a primeira etapa é fazer duas tampas para o
cilindro (tubo de PVC ou papelão), sendo uma com uma fenda central (2 cm x 1 mm) e
outra com um orifício no centro (1 cm2) (Figura 9b). Em seguida retira-se a película
refletora do CD e corta-se (utilizando as bordas do CD, local onde as linhas de gravação
são mais paralelas) um quadrado de 2 cm2 colando-o sobre a tampa com o orifício
quadrado (Figura 9c). Finalmente são coladas as tampas sobre o tubo de PVC, tomando
o cuidado de deixar a fenda de uma tampa alinhada com o orifício quadrado da outra
tampa, e isolando bem para evitar frestas que possibilitassem a entrada de luz por outro
caminho senão a fenda da tampa (Figura 9d). Pronto já temos nosso espectroscópio
amador!
Um espectroscópio é um instrumento capaz de dispersar a luz branca emitida por
uma fonte de luz, decompondo-a em variadas cores. Isto possibilita-nos determinar os
diferentes comprimentos de onda (λ) que a compõem. O que torna esta ação possível é o
fato do espectroscópio ser construído a partir de uma rede de difração (difração da luz)
ou prisma (refração da luz, devido à mudança no meio de propagação).
Após a construção, algumas atividades são sugeridas: observe diversas fontes de
luz, como o Sol (a partir de observação indireta), lâmpada incandescente, lâmpada
traseira de automóveis..., e faça uma representação das imagens observadas (espectros).
O objetivo é que a partir das observações individuais possamos fomentar nossas
discussões a respeito dos diferentes espectros observados (espectro contínuo, de
absorção e de emissão) e permitir ainda adentrar em outros campos do conhecimento,
particularmente a química, ao discutir as linhas espectrais e os espectros de diferentes
elementos químicos. Sugestão para organização dos dados coletados:*
Fonte
de Luz
Tabela 1: Dados coletados
Tipo do espectro
Representação artística da
imagem observada
Contínuo Absorção Emissão
evidenciando as cores
(
)
(
)
(
)
(
)
(
)
(
)
(
)
(
)
(
)
Cores que se
destacam
(da esq. para dir.)
*Esta forma de sistematização de coleta de dados foi adaptada da dissertação de Azevedo (2008).
Em sala de aula, esta atividade pode ser um adendo a fomentar futuras
discussões sobre abordagens qualitativas relacionadas ao espectro visível, por exemplo:
o espectro solar não ser formado apenas pelo contínuo de cores, mas também por linhas
escuras que se sobrepõem este contínuo; a disposição, intensidade e largura das linhas e
as informações que delas derivam (composição química dos gases e astros celestes); o
estudo e comparação com espectro de elementos químicos presentes na Terra, entre
outras.
42
7.
Atividade interativa: Simulação de linhas espectrais dos elementos químicos
Esta atividade tem o intuito de possibilitar, por meio de simulação (Applet),
visualizar os diferentes tipos de espectros (de emissão e de absorção) dos elementos
químicos. No espectro mostrado, é possível visualizar as faixas de absorção
caracterizando do elemento químico escolhido.
Figura 10: Simulação de linhas
espectrais dos elementos químicos.
Selecione as linhas em emissão ou em
absorção. Clique no elemento o químico de sua
escolha e veja a figura do espectro, de 4000 a
7000 Å. Você pode também clicar sobre uma
linha e segurar para ver o λ (Å).
http://astro.if.ufrgs.br/rad/elements/Elements.htm
8.
Willian Herschel e a descoberta do infravermelho
Podemos não percebê-la diretamente, talvez muitas pessoas nem saibam que ela
existe, porém a radiação infravermelha é mais frequente em nossa vida do que possamos
imaginar. Dentre inúmeros exemplos, a radiação infravermelha está presente nos
diversos controles remotos (TV, DVD, portão eletrônico...), em tratamentos médicos e
odontológicos, e, com um olhar mais amplo, em questões ambientais como o efeito
estufa.
Aqui propomos a discussão, por meio de um experimento bastante simples e a
utilização de materiais de baixo custo, da descoberta do infravermelho por Willian
Herschel (1738-1822). Em 1800, Herschel elaborou um aparato experimental para
analisar a luz advinda do Sol. Herschel estava interessado na medida da quantidade de
calor associada a cada cor do espectro solar. Para fazer isto ele usou termômetros com
bulbos pintados de pretos e mediu a temperatura nas diferentes cores do espectro.
Percebeu que a temperatura crescia da parte azul do espectro para a parte vermelha. A
partir destra constatação, Herschel posicionou outro termômetro um pouco além da
parte vermelha do espectro, em uma região onde não se observava incidência de luz
visível (cores). Para sua surpresa o termômetro indicou uma temperatura acima das
medidas anteriormente (temperatura no azul e no vermelho). Herschel concluiu então
que deveria haver “outro tipo de luz” o qual não podia ser visto nesta região. Esta luz
ele chamou de infravermelho (NASA 2010).
Figura 11: Aparato utilizado por
Herschel (HERSCHEL 1800 apud
KITAGAWA e GASPAR 2011).
43
Descrição experimental7
Para recriar um experimento similar ao realizado por Herschel, utilizaremos um
prisma de vidro, três termômetros a álcool, um pedaço de papel branco, marcador
permanente de tinta preta e uma caixa de papelão. Os bulbos dos termômetros devem
ser escurecidos (pintados de preto), de modo a absorverá melhor o calor do Sol.
Inicialmente deve-se colocar uma folha branca no fundo de uma caixa de papelão
(painel de projeção). Anexar cuidadosamente o prisma de vidro perto da borda da caixa
e guie o “conjunto” de modo que os raios solares incidam diretamente sobre o prisma,
produzindo um espectro suficientemente amplo no fundo da caixa. Dependendo do local
e horário em que se realiza o experimento, talvez seja necessário apoiar o “conjunto”
sobre algum objeto (inclinar a caixa).
Após esta montagem, de modo a “calibrar/verificar” a medição dos termômetros,
é necessário colocá-los e registrar a temperatura do ar ambiente na sombra. Em seguida
colocar os termômetros no espectro de tal forma que um dos bulbos esteja na região
azul, outro na região do amarelo, e o terceiro apenas para além da região (visível)
vermelha. A montagem experimental é bastante simples e está evidenciada na figura
abaixo (figura 12).
Figura 12: Montagem do experimento (NASA 2010).
http://coolcosmos.ipac.caltech.edu/cosmic_classroom/classroom_activities/herschel_experiment2.html
Para um resultado mais satisfatório, algumas ações são sugeridas: este
experimento deve ser realizado ao ar livre em um dia bem ensolarado, com pouca
incidência de nuvens; a temperatura leva de cinco a sete minutos para se estabilizar
(valores finais); não remova os termômetros a partir do espectro ou bloqueie o espectro
durante a leitura das temperaturas.
7
Esta prática é baseada na atividade “Herschel Infrared Experiment” desenvolvida por um grupo de
divulgação científica associado à NASA. http://coolcosmos.ipac.caltech.edu/
44
Tabela 2: Tomada de dados experimentais*
Calibração dos termômetros (ºC)
Termômetro 1
Termômetro 2
Termômetro 3
Temperatura na sombra
Dados coletados no espectro solar (ºC)
Termômetro 1 Termômetro 2
Termômetro 3
Temperatura no espectro
(Azul)
(Amarelo)
(Além do vermelho)
Após 1 minuto
Após 3 minuto
Após 5 minutos
Depois de 7 minutos
(Final)
Variação da temperatura
*Baseado em: Herschel Infrared Experiment - http://coolcosmos.ipac.caltech.edu/
Questões para discussão: O que você notou sobre suas leituras de temperatura?
Você viu alguma tendência? Onde estava a temperatura mais alta? Quais as aplicações
que este experimento pode gerar no entendimento do espectro eletromagnético?
É importante destacar que o experimento de Herschel, apesar de muito simples,
foi extremamente importante, uma vez que pela primeira vez demonstrou-se que
existiam espectros eletromagnéticos além da luz visível. Hoje sabemos que existem
vários espectros além dos observados pelos nossos olhos e que estes visíveis são apenas
uma pequena parte da radiação emitida pelos “corpos”.
9.
Bibliografia Consultada
AZEVEDO, M. C. P. S. Situações de ensino – aprendizagem. Análise de uma
sequência didática de física a partir da Teoria das Situações de Brousseau.
Dissertação de mestrado, Instituto de Física e Faculdade de Educação da USP, 2008.
KITAGAWA, M. S. e GASPAR, M. B. O experimento de Herschel na descoberta da
radiação infravermelha: a utilização de fontes primárias no ensino de física.
XIX Simpósio Nacional de Ensino de Física, 2011, Manaus/AM. Disponível:
<http://www.sbf1.sbfisica.org.br/eventos/snef/xix/sys/resumos/T0543-2.pdf>.
NUPIC (Núcleo de Pesquisa em Inovação curricular). A Transposição das Teorias
Modernas e Contemporâneas para a Sala de Aula: Dualidade Onda-Partícula,
2011.
Disponível
em:
<http://www.nupic.fe.usp.br/Projetos%20e%20Materiais/material-curso-de-linhasespectrais>. Acesso em: 06 Novembro 2011.
KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termo-Nuclear. In: Astronomia e
Astrofísica. São Paulo: Livraria da Física, 2004.
NASA (America's space agency). The Herschel Experiment, 2010. Disponível em:
<http://coolcosmos.ipac.caltech.edu/cosmic_classroom/classroom_activities/herschel
_experiment.html>. Acesso em 01 Novembro 2011.
PIETROCOLA et al. Física moderna e contemporânea, Apostila de Física, módulo 6.
Governo do Estado de São Paulo, Secretária da Educação, 2011.
SEE/SP. Proposta Curricular do Estado de São Paulo. Caderno do Professor: Física.
Secretaria de Estado da Educação de São Paulo, São Paulo, 2009, Ap. 3, p. 25-9.
45
Tema 7:
7: Aspectos gerais de Física Solar
Pedro Donizete Colombo Junior
[email protected]
1.
Vivendo com uma estrela
O que é o Sol? Do que ele é feito? Como ele produz sua energia? Ele traz apenas
benefícios para a Terra? Porque é importante estudar o Sol? Estas são questões muito
comuns quando as pessoas visitam observatórios astronômicos e planetários.
Buscaremos ao longo destes dois encontros discutir sobre tais questões e aprofundar
nossos conhecimentos a respeito de nossa estrela.
Uma rápida reflexão sobre o Sol nos revela sua importância à vida, e diversos
motivos que justificam a escolha em trabalhá-lo em sala de aula com alunos do ensino
médio. O Sol já foi protagonista em debates memoráveis a respeito de nossa visão de
mundo (heliocêntrico ou geocêntrico), foi considerado deus na religiosidade de distintos
povos (Tupis, Incas, Maias, etc.) tamanho sua importância para o desenvolvimento da
vida na Terra, é um assunto que naturalmente possibilita uma abordagem
interdisciplinar, abrangendo uma gama imensa de possibilidades de trabalhos, é um
astro celeste vivenciado por todos, porém pouco conhecido pelo público em geral.
Enfim, é a estrela que torna possível a vida de todas as espécies que hoje habitam nosso
planeta, e também que (direta ou indiretamente) torna possível a leitura deste texto.
O Sol é a estrela mais próxima da Terra e, portanto a mais estudada pelos
cientistas. A partir do Sol podemos inferir a evolução e a constituição física das demais
estrelas, nos servindo de um laboratório de estudos, impossível de ser reproduzido na
Terra. Basicamente nossa estrela é uma gigantesca esfera quente de gases com
aproximadamente 1,4 milhões de quilômetros de diâmetro, situado a aproximadamente
150 milhões de quilômetros da Terra. Ainda assim, a maior parte das estrelas existentes
são maiores que o Sol e encontram-se muito mais distantes (a estrela mais próxima da
Terra depois do Sol, Próxima Centauri, encontra-se a mais de 40 trilhões de quilômetros
da Terra).
Tabela 1. Características Físicas de nossa Estrela, o Sol*
Raio
695 500 Km ~ 109 RTerra
Massa
1,989 x 1030 Kg ~ 332 946 x MTerra
Luminosidade (potência)
3,854 x 1026 W
Constante Solar
1366 W/m2
Temperatura da superfície
5780 K = 5507 ºC
Densidade média
1,409 x 103 Kg/m3
Densidade central
150 000 Kg / m3
Idade
4,55 bilhões de anos
*Fonte: Silva, A. (2006). Nossa estrela: o Sol. São Paulo: Editora Livraria da Física.
46
2.
Estruturas do Sol e eventos solar
Para efeitos de estudos, o Sol pode ser dividido em duas regiões: interior e
atmosfera. Estas duas regiões podem ainda serem interpretadas em função das
estruturas: núcleo, camada radioativa, tacoclina e camada convectiva compreendendo o
interior solar e fotosfera (superfície solar), cromosfera, região de transição e coroa solar
compreendendo a atmosfera solar.
Quanto ao núcleo solar, este se estende até aproximadamente um quarto do raio
solar, e contém em torno de 10% de toda massa solar (SILVA 2006). A temperatura no
núcleo solar gira em torno de 15 milhões de K (Kelvin), decaindo para próximo de 6000
K na superfície solar. Com a densidade ocorre o mesmo efeito, no núcleo é da ordem de
150.000 kg/m3 decrescendo em direção à superfície solar. É em meio a este ambiente
inóspito que ocorrem as reações termo-nucleares, as quais fornecem energia para o Sol e
direta ou indiretamente propícia a vida na Terra.
Sabe-se hoje que a principal fonte de energia solar é a fusão de prótons em núcleos
de hélio. Estima-se que a energia responsável pela luminosidade do Sol é da ordem de
3,8 x 1026 J/s (ZIRIN 1988). Esta energia é muito alta, se comparada, por exemplo, à
potência de todas as usinas hidrelétricas, termelétricas e nucleares no Brasil
(aproximadamente 9 x 1010 J/s).
Até chegar à fotosfera solar, a energia produzida pelo núcleo tem uma longa
jornada, passando por duas regiões ou etapas de transporte. Até aproximadamente 70%
de o raio solar, a energia é transportada por radiação através de uma camada solar
denominada radiativa (a radiação flui sendo absorvida e re-emitida pelos íons do plasma
várias vezes). Acima de 70% de o raio solar ocorre um decréscimo da temperatura para
cerca de 10.000 K, ocorrendo à formação de diversos íons, como o hidrogênio, potentes
absorvedores da radiação proveniente do núcleo. Neste contexto, a absorção da radiação
se torna significativa, o que impede o transporte de energia por este meio. Assim a partir
deste ponto, o mecanismo de transporte torna-se a convecção, ou seja, o transporte
ocorre na chamada camada solar convectiva.
Figura 1: Ilustração das camadas do interior solar
http://www.windows2universe.org/sun/Solar_interior/Sun_layers/ra
diative_zone.html
47
Entre a camada radiativa e a camada convectiva, há uma estreita camada
conhecida como Tacoclina8, que separa a rotação uniforme do núcleo radioativo da
rotação diferencial da zona de convecção. A Tacoclina é importante por ser o local onde
os campos magnéticos do Sol são gerados (SILVA 2006) através de um processo
denominado dínamo solar.
Quanto à atmosfera solar, para efeitos de estudo, podemos dividi-la em camadas.
A primeira camada é conhecida como fotosfera solar, tem cerca de 300 km de extensão
e é relativamente fria (cerca de 6000 k). Comumente esta camada é chamada de
superfície solar, porém é importante destacar que o Sol não tem uma superfície no
sentido amplo da palavra. A segunda camada com aproximadamente 10.000 km de
extensão e temperatura de algumas dezenas de milhares de Kelvin é a cromosfera. Por
fim, a terceira camada conhecida como coroa solar se estende por todo o meio
interplanetário.
Quando nos referimos à fotosfera, estamos falando da “superfície” do Sol. A
fotosfera solar não é uma região lisa, muito pelo contrário, ocorrem diversas estruturas
na fotosfera, como: grânulos, manchas solares e fáculas. A fotosfera solar tem a
aparência da superfície de um líquido denso em ebulição, contendo inúmeros grânulos
(bolhas), que cobrem toda sua estrutura (Figura 2). Os grânulos marcam os topos das
colunas convectivas de gás quente que se formam na zona convectiva, logo abaixo da
fotosfera.
Figura 2: Grânulos da fotosfera (células da camada conectiva) (KEPLER e SARAIVA 2004).
Outra estrutura solar que ocorre na fotosfera são as chamadas manchas solares.
Estas são facilmente observadas na superfície do Sol e consiste de regiões escuras da
fotosfera com temperatura inferior ao seu entorno. Manchas solares muitas vezes
apresentam-se superiores ao tamanho da Terra e possuem uma temperatura média em
torno de 4500 K. Por não estarem fixas no Sol é possível observar seu deslocamento
após poucas horas de observação. As manchas solares têm vida curta, em média
algumas semanas. Apesar de aparentar-se como manchas escuras da fotosfera, se fosse
possível extrair e isolar uma única mancha solar no espaço, veríamos que é mais
brilhante do que a luminosidade refletida pela lua em noite de lua cheia.
O aparecimento das manchas solares é devido ao intenso campo magnético em
certas regiões da fotosfera (principalmente no interior das manchas solares), que
atrapalha a convecção de energia proveniente da camada convectiva e
consequentemente diminui a temperatura local em mais de 1000 K.
8
Tacoclina significa “variação da velocidade”, e tem sua gênese na palavra grega “thacos” (velocidade).
48
A segunda camada da superfície solar é a cromosfera, a qual está localizada logo
acima da fotosfera. Esta pode ser vista durante eclipses solares totais ou em
comprimentos de onda específicos no visível, ultravioleta e em altas frequências de
rádio. Enquanto a temperatura na fotosfera decresce do interior para o exterior, acontece
o contrário na cromosfera, ou seja, sua temperatura é bem superior a da fotosfera
crescendo de ~6.000 K para próximo de ~20.000 K em aproximadamente 10.000 km
(SILVA 2006). Atualmente acredita-se que a fonte de energia responsável pelo
aquecimento brusco da cromosfera são os campos magnéticos variáveis formados na
fotosfera e transportados para a corona solar por correntes elétricas. Nesta jornada, parte
da sua energia é retida pela cromosfera, o que naturalmente eleva sua temperatura
consideravelmente.
A cromosfera é uma camada heterogênea da atmosfera solar que apresenta regiões
com muitas atividades solares, como filamentos, proeminências e espículas. Filamentos
são nuvens de material denso alçadas da superfície solar por intermédio de arcos de
campo magnético. Quando observados no disco solar, os filamentos possuem uma
aparência escura, uma vez que são um pouco mais frios que o entorno, no entanto
quando observados no limbo solar (borda do Sol) sua aparência é brilhante e são
chamados de proeminências (Figura 3).
Figure 3: Proeminência
Esta foto de 1999 mostra uma proeminência
alçando na cromosfera solar (aprox. 127.000
km de altura e temperatura de 60.000 K).
Ilustra também, de modo artístico, um
comparativo com o tamanho da Terra
(SOHO/NASA/ESA)
A última camada da atmosfera solar é a conhecida como coroa solar. Esta é a
camada mais extensa da atmosfera solar, sendo mais concentrada até cerca de dois raios
solares (coroa interna), e se estendendo por todo meio interplanetário (coroa externa).
Assim como a cromosfera, parte da coroa solar é visível durante eclipses solares totais,
ou pelo uso de um coronógrafo (dispositivo que simula um eclipse solar total) ou ainda
por satélites em raios X. A coroa solar, apesar de ter um brilho maior do que o refletido
pela lua cheia, fica obscurecida quando a fotosfera é visível.
A característica mais marcante e intrigante da coroa solar é sem dúvida sua
elevadíssima e praticamente constante temperatura. O estudo da radiação emitida pela
coroa solar, em toda a gama das radiações eletromagnéticas, permite mostrar que ela
apresenta uma temperatura muito acima das temperaturas de outras camadas solares
(fotosfera e cromosfera), atingindo a ordem de 2 a 4 milhões de Kelvin, porém
acompanhada por um considerável decréscimo em sua densidade. O fato da coroa ter
uma temperatura muito acima das demais camadas da atmosfera solar intriga os
pesquisadores, sendo um questionamento com resposta não conclusiva. Apesar de não
se ter uma resposta conclusiva, sabe-se que o aumento brusco da temperatura acontece
49
em uma região transição, situado entre a cromosfera a coroa solar, cuja espessura é
inferior a mil quilômetros. Nesta região a temperatura cresce rapidamente de 20.000 K
para milhões de Kelvin, sendo quase todo o hidrogênio do plasma solar ionizado.
Figura 4: Coroa solar visível durante um eclipse solar total (à esq.). Imagem da coroa solar tirada com o
uso de um coronógrafo (equipamento que bloqueia o disco solar e permite estudar sua atmosfera) (à dir) - o
círculo branco representa a localização e dimensão do Sol (SOHO/NASA/ESA).
Até aqui vimos muito brevemente às estruturas solares, as quais serão discutidas
em detalhes no decorrer de nosso curso. No entanto, quando estudamos o Sol é muito
importante entender alguns de seus fenômenos que afetam diretamente a Terra, por
exemplo: vento solar, tempestade geomagnética e auroras.
Além do calor e da luz, o Sol também emite constantemente, a partir da coroa
solar, um fluxo de partículas (átomos neutros, elétrons e íons) carregadas conhecidas
como vento solar. Este fenômeno solar está intimamente relacionado a variações que
ocorrem na coroa solar, causadas pela própria rotação do Sol e por suas atividades
magnéticas. O vento solar dissipa-se em todas as direções e atinge velocidades da ordem
de 450 Km/s (1,6 milhões de km/h) próximo da órbita da Terra. Apresenta ainda uma
densidade média de 107 partículas por metros cúbicos e temperatura em torno de 105 K
(SILVA 2006). Uma das primeiras evidências observacionais da existência do vento
solar tem origem na observação das caudas dos cometas. Ao aproximarem da superfície
solar os cometas sofrem fortemente a ação das atividades solares. A intensidade de o
vento solar e também da radiação solar interage com estes astros celestes sendo capaz
de retirar matéria dos cometas, criando as suas caudas, as quais se encontram sempre na
direção radial oposta ao Sol.
Uma das maneiras mais severas que o Sol pode afetar a Terra é através das
chamadas tempestades geomagnéticas, que ocorrem com mais frequência em épocas de
alta atividade solar. As causas das tempestades geomagnéticas são devidas basicamente
a ejeção de massa coronal (CME) e interação entre tormentas do vento solar em
velocidades distintas. Durante uma tempestade geomagnética o campo magnético
terrestre apresenta variações rápidas em escala globais. As tempestades geomagnéticas
são praticamente idênticas, consistindo de um aumento abrupto do campo magnético
durante 12 a 24 horas, seguido por uma recuperação gradual que pode cerca de quatro
dias.
Em 1989, uma grande tempestade geomagnética causou um apagão elétrico na
província de Quebec (Canadá) e causou muitos prejuízos em New Jersey (EUA). Os
danos e perda de receita foram estimados em centenas de milhões de dólares (Figura 5).
Outra tempestade solar, ocorrida em dezembro de 2005, tirou do ar diversos satélites de
comunicação e sistemas de posicionamento global (GPS) durante 10 minutos (NASA,
2008).
50
Figura 5: Transformador danificado devido à tempestade
geomagnética em 1989. http://science.nasa.gov/sciencenews/science-at-nasa/2008/06may_carringtonflare/
As tempestades geomagnéticas podem provocar inúmeros danos a Terra, como:
provocar indução de corrente elétrica em sistemas de fornecimento de energia elétrica
provocando variações de frequência e voltagem, afetarem sistemas de navegação, órbita
de satélites, GPS (Global Positioning System). E também emitir radiações ionizantes
que podem atingir missões espaciais tripuladas colocando em risco a vida dos
astronautas pela exposição à grande quantidade de radiação (CECATTO 2010).
Um dos eventos mais fantásticos propiciado pelo Sol e vivenciado na Terra, sem
qualquer uso de aparelhos, são as auroras. Infelizmente este fenômeno é improvável de
ser visto no Brasil, uma vez que acontece nas regiões polares da Terra. A aurora é um
fenômeno estritamente ligado a ejeção de massa coronal do Sol. Algumas das partículas
eletricamente oriundas do vento solar superam a magnetosfera terrestre e espiralando
em torno das linhas de campo magnético penetram na atmosfera terrestre pelas regiões
polares. Ao entrarem na atmosfera, estas partículas solares (elétrons) colidem com
átomos de oxigênio e nitrogênio existentes na atmosfera e colorem o céu local.
Figura 6: Aurora vista da Terra. http://earthobservatory.nasa.gov/Features/ISSAurora/
Como apresentado, embora importante do ponto de vista científico, raramente é
ensinado nas escolas brasileiras, seja na Educação Básica ou em cursos de formação de
professores. Esperamos durante nosso curso discutir muitas das questões aqui
levantadas.
51
3.
Referências
CECATTO, J. R. O Sol. In: Introdução à astronomia e astrofísica, Instituto Nacional
de Pesquisas Espaciais, INPE-7177-PUD/38, São José dos Campos, São Paulo, 2010,
cap. 4, p. 129-170.
ERASO, G. A. G. Estudos numéricos do dínamo Solar. Tese de doutorado, Instituto
de Astronomia, Geofísica e Ciências atmosféricas, Universidade de São Paulo, São
Paulo, 2009.
KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termo-Nuclear. In: Astronomia e
Astrofísica. São Paulo: Livraria da Física, 2004. Disponível em:
<http://astro.if.ufrgs.br/index.htm>. Acesso em: 12 Agosto 2011.
SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006.
ZIRIN, H. Astrophysics of the Sun. New York: Cambridge University Press, 1988.
52
Tema 8:
8: Energia Solar
Pedro Donizete Colombo Junior
[email protected]
1.
Como o sol produz sua energia?
Apesar de enxergar o Sol todos os dias e sobreviver graças a sua energia, sua
natureza é misteriosa e intrigante para a maioria das pessoas. O Sol é a estrela mais
próxima da Terra e a mais estudada pelos cientistas (ZIRIN 1988; BHATNAGER e
LIVINGSTON 2005; SILVA 2006). Aqui somos convidados a ‘olhar’ para o interior do
Sol e buscar compreender o Sol a partir do estudo sobre a produção de energia e as
reações que ocorrem em seu interior.
Ao abordar o núcleo solar é possível discutir vários fenômenos químicos
relacionados diretamente com as estrelas, por exemplo, a produção de energia no
interior das estrelas; a origem dos elementos químicos e evolução estelar. Assim podese entender melhor a dinâmica estelar como gigantescos reatores nucleares responsáveis
pela síntese dos elementos químicos.
No que tange ao nosso Sol, este é composto principalmente de hidrogênio (cerca
de 92,1% do número de átomos, 75% da massa). Hélio também é encontrado no Sol
(7,8% do número de átomos e 25% da massa). Outros elementos (0,1%) também fazem
parte da composição solar, principalmente carbono, nitrogênio, oxigênio, neônio,
magnésio, silício e ferro. É importante destacar que esses valores mudam à medida que
o Sol converte o hidrogênio em hélio em seu núcleo. O Sol não é sólido, nem gás, mas
plasma, ou seja, gás ionizado constituído de elétrons livres, íons e átomos neutros
(NASA 2011). A energia solar é produzida por meio de reações de fusão nuclear,
ocorridas em seu núcleo. Na fusão nuclear prótons dos átomos de hidrogênio, sob a
ação da enorme pressão e da alta temperatura no centro da estrela, “se juntam” (ou "se
fundem"), formando núcleos de hélio. Essa reação é chamada de ciclo próton-próton.
Um esquema artístico (sucinto) das reações nucleares (que ocorrem no núcleo das
estrelas) é explicitado na figura a seguir (Figura 1).
Figura 1: Ciclo próton-próton (KEPLER e SARAIVA 2004).
53
Dois prótons (núcleos do hidrogênio) se juntam para formar um deuteron (núcleo
do deutério) mais um pósitron e um neutrino. Em seguida o deuteron se combina com
outro próton para formar um núcleo de hélio-3. Finalmente, os núcleos de hélio-3 se
juntam para formar um núcleo de hélio-4, liberando dois prótons. A massa do produto
da fusão é um pouco menor que a soma das massas dos núcleos que se fundiram. A
diferença de massa é liberada na forma de energia, segundo a formulação de Einstein, E
= mc2 (KEPLER E SARAIVA 2004).
É importante ressaltar que à medida que se desloca em direção à superfície, a
energia produzida pelo núcleo solar é continuamente absorvida e novamente irradiada a
temperaturas cada vez mais baixas, de modo que ao atingir a superfície ela é
basicamente luz visível. Estima-se que a energia responsável pela luminosidade do Sol é
da ordem de 3,8 x 1026 J/s. Como mencionado em outros momentos do texto, esta
energia é muito alta, se comparada à potência de todas as usinas hidrelétricas,
termelétricas e nucleares no Brasil (aproximadamente 9 x 1010 J/s) (SILVA 2006).
Para aprofundar e fomentar melhor nossas discussões durante o curso recomendase fortemente a leitura dos textos “Fusão Termonuclear” e “A Fonte de Energia das
Estrelas” do livro “Astronomia e Astrofísica” de Kepler de Souza Oliveira Filho e
Maria
de
Fátima
Oliveira
Saraiva
(UFRGS),
disponível
em:
http://astro.if.ufrgs.br/estrelas/node10.htm
2.
Referências
AROCA, S. C. Ensino de física solar em um espaço não formal de educação. Tese
de Doutorado, Instituto de Física de São Carlos, Universidade de São Paulo, 2009.
BHATNAGER, A. e LIVINGSTON, W. Fundamentals of solar astronomy.
Singapura: World Scientic Publishing, 2005.
INPE. Introdução à astronomia e astrofísica, Instituto Nacional de Pesquisas Espaciais,
INPE-7177-PUD/38,
São
José
dos
Campos,
São
Paulo,
2010.
http://www.das.inpe.br/ciaa/cd/HTML/dia_a_dia/1_7_1.htm
KEPLER, S. O. e SARAIVA, M. F. O. Fusão Termonuclear. In: Astronomia e
Astrofísica. São Paulo: Editora Livraria da Física, 2005. Disponível em:
http://astro.if.ufrgs.br/estrelas/node10.htm. . Acesso em 02 fev. 2011.
NASA (America's space agency). Our Star the Sun, 2011. Disponível em:
http://sohowww.nascom.nasa.gov/classroom/classroom.html. Acesso em 28 jan.
2011.
SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006.
ZIRIN, H. Astrophysics of the Sun. New York: Cambridge University Press, 1988.
54
Tema 9:
9: Dimensões e Distâncias Relativas SolSol-Terra
Pedro Donizete Colombo Junior
[email protected]
1.
Descrição experimental: Diâmetro do Sol.
Em temas anteriores estudamos algumas das características de nosso Sol, como:
estruturas e localização e relações com a Terra. Aqui a pretensão é iniciar algumas
atividades práticas concernentes à física solar. Neste sentido, uma ação de
sensibilização inicial é a discussão teórica e prática sobre as dimensões e distâncias
relativas ao Sol-Terra. Para nossos trabalhos, torna-se importante a familiarização com a
noção de distância em que nos encontramos do Sol, ou seja, aproximadamente 150
milhões de quilômetros, o que corresponde a 1 UA (Unidade Astronômica). Para a
estimativa do diâmetro solar utilizaremos uma atividade bastante simples e noções
básicas de geometria (semelhança de triângulos) e cálculos elementares. A atividade
requer alguns materiais escolares básicos, como pedaço de cartolina preta, compasso
com ponta, folha de papel de preferência de cor branca, além de um belo dia ensolarado.
Na determinação do diâmetro do Sol algumas etapas
devem ser seguidas. Inicialmente faz-se um pequeno furo
com o compasso em um pedaço da cartolina. Afastando-se a
cartolina do chão mede-se o mínimo diâmetro possível da
imagem do Sol projetado sobre uma folha branca colocada
no chão (Figura 1). Sabendo as dimensões da imagem
projetada (d), a distância entre a cartolina e a folha branca (h)
e a distância da Terra até o Sol, aplicando o conceito de
semelhança de triângulos e alguns cálculos simples, pode-se
d
DSol
)
estimar o diâmetro solar (DSol) ( imagem =
himagem 1,5x 10 11 m
(AROCA 2009).
Figura 1: Atividade para
se estimar o diâmetro do
Sol (AROCA 2009)
Apesar de uma atividade muito simples e sem aparatos
experimentais sofisticados, esta atividade nos fornece
resultados que se harmoniza muito bem com a literatura, ou
seja, valores para o diâmetro Solar na mesma ordem de
grandezas dos fornecidos pela literatura ( DSol = 1,4x 10 6 Km ).
A partir deste experimento, é possível explorar, entre outras coisas, a relação de
tamanho existente entre o Sol e outros astros celestes, por exemplo, o fato de o Sol
apresentar um diâmetro aproximadamente 110 vezes maior do que o da Terra.
2.
Determinação da distância Sol-Terra a partir do trânsito de Vênus9.
Esta atividade por um lado tem o intuito de discutir como foi obtida a primeira
estimativa da distância relativa Sol-Terra-Lua, e por outro determinar a distância SolTerra a partir de um experimento muito simples apoiado no ‘trânsito de Vênus’.
9
Baseado em Silva (2006, p. 15-28).
55
O primeiro relato da determinação da distância Sol-Terra é atribuída ao astrônomo
grego Aristarco de Samos (310-230 a.C.), o qual utilizou uma configuração específica
do Sistema Sol-Terra-Lua, onde o ângulo entre Sol, Lua e Terra é de 90º.
Figura 2: Configuração do sistema Sol-Terra-Lua usado por Aristarco de Samos
para estimar a distância da Terra ao Sol. http://www.zenite.nu/
Este fato é recorrente quando a Lua se encontra exatamente na fase de quarto
crescente ou em quarto minguante. Com esta observação, Aristarco mediu o ângulo
formado entre a Lua e o Sol (β = A da Figura 2) e a partir de princípios trigonométricos
e geométricos (equações a seguir) determinou quantas vezes mais longe o Sol encontrase da Terra comparado à Lua. O ângulo medido ficou em torno de 87 ° proporcionando
uma distância Terra-Sol (TS) de 7.300.000 km, por volta de 19 vezes menor que a
distância média Terra-Lua (TL) (INPE 2010). Os cálculos realizados por Aristarco
elucidaram à sua época que o Sol encontra-se muito mais longe que se supunhava-se.
b
c
1
= cos β , como β = 87º, assim:
=
= 19
c
b cos β
Para Aristarco, o Sol estaria cerca de 19 vezes mais distante da Terra do que a
Lua, o que foi algo surpreendente para a época (FERRIS apud AROCA 2009).
Atualmente, sabe-se que o ângulo correto é de aproximadamente 89º55´, o que
corresponde a uma distância da Terra ao Sol 400 vezes superior à distância da Terra à
Lua (AROCA 2009), em outras palavras, representa a distância Sol-Terra
aproximadamente 150 milhões de km.
Antes da realização da atividade “Determinação da distância Sol-Terra a partir do
trânsito de Vênus” é importante atentar para algumas considerações:10
- Vênus possui um movimento de revolução ao redor do Sol mais rápido que a Terra,
assim, gasta apenas 0,62 anos terrestre (243 dias) para dar uma volta completa em torno
do Sol.
- A cada 19 meses Vênus "ultrapassa" nosso planeta, ocorrendo um "quase
alinhamento" Sol-Vênus-Terra, no entanto este alinhamento não ocorre perfeitamente.
Só seria perfeito (teríamos então um trânsito de Vênus a cada 19 meses) se os planos
das órbitas de Vênus e da Terra fossem coincidentes. O plano da órbita de Vênus é
10
Baseado no texto: “O Trânsito de Vênus”, do observatório astronômico Frei Rosário da UFMG.
Disponível em: http://www.observatorio.ufmg.br/pas57.htm
56
inclinado de 3,4º em relação ao plano da órbita da Terra. É um ângulo pequeno, porém
suficiente para não termos um alinhamento a cada uma dessas "ultrapassagens".
- Só visualizamos o trânsito Vênus quando este "ultrapassa" a Terra justamente sobre a
reta intersecção desses dois planos (a Terra cruza essa reta no início dos meses de junho
e dezembro).
- Se o Sol tivesse aproximadamente metade de seu diâmetro o trânsito de Vênus
ocorreria apenas a cada 121,5 anos, porém devido à grande extensão angular do Sol,
temos outro trânsito de Vênus oito anos antes do período de 121,5 anos completos
(Figura 3). Em 8 de junho de 2004, o planeta Vênus passou em frente do sol e inúmeras
pessoas em todo o mundo viram uma pequena mancha preta se movendo em frente do
sol.
Figura 3: Periodicidade do transito de Vênus.
Fonte: http://www.observatorio.ufmg.br/pas57.htm
Realizadas as devidas considerações, partimos agora para a atividade prática da
determinação da distância Sol-Terra usando o trânsito de Vênus. Reforçamos que esta
atividade é baseada na proposta de Silva (2006). Para a realização deste experimento,
utilizaremos fotografias do trânsito de Vênus de dois locais distintos sobre o globo
terrestre, suas coordenadas, régua e calculadora.
Adotando (L) como sendo a distância entre as localidades de observação do
trânsito de Vênus (Índia e Austrália), e medindo o ângulo 2α a partir da diferença da
posição de Vênus projetada no Sol (Figura 4) pode-se calcular a distância
(Terra-Sol e Vênus-Sol) pela relação:
dt − d v
L
tgα =
2
(eq.1).
dt − dv
Figura 4: Eclipse do Sol devido ao trânsito de Vênus observado da Índia e da Austrália
57
Da derivação da terceira lei de Kepler11 e conhecendo-se o período de revolução
dos dois planetas (Tt= 365,26 e Tv=224,7 dias) obtemos a relação entre as distâncias das
órbitas entre os dois planetas como sendo:
 dv

 dt
  Tv 
 = = 
  Tt 
2
3
d v0,=723
0, 723
d tseja,
0, d277
dt
→ d→
dt, →
d→
277
v =
v =
t −ddt v−=d0,
t
ou
(eq. 2)
L
Portanto, isolando dt na eq.1, temos que:
dt =
2
0, 277tgα
(distância Sol-Terra).
Para a estimativa de L, é necessário saber as
coordenadas dos pontos de observação. Neste
caso, as coordenadas: 73,71E 24,59N
( θ1 = 24, 59 o ) na índia e 114,60E 22,12S
( θ 2 = 22,12o ) na Austrália. Com isso, a partir
de cálculos trigonométricos (dois triângulos
retângulo) e sabendo o valor do raio da Terra
(Rt = 6,378x106), obtêm-se L (distância entre
as duas observações de aproximadamente L=
5,05x106 m.
Agora a tarefa passa a ser prática, ou seja, medir o ângulo α , a partir das duas
observações simultâneas realizadas. Para isto faz-se uso da interpolação das fotografias
representadas abaixo (Figuras 5 a,b,c).
11
Os quadrados dos períodos de revolução dos planetas são proporcionais aos cubos dos eixos maiores de
suas órbitas.
58
Figura 5a: Eclipse de Vênus, 2004 (ponto escuro
na fotosfera) observado na Índia (SILVA 2006).
Figura 5b: Eclipse de Vênus, 2004 (ponto escuro
na fotosfera) observado na Austrália (SILVA
2006).
Figura 5c: Interpolação das imagens e diferença as imagens observadas (SILVA 2006).
O ângulo 2α (ver Figura 5) é a diferença entre as duas posições de Vênus, e
equivale ao tamanho da seta branca (ver Figura 5 ampliada). É importante ressaltar que
a seta branca na figura é representada com uma ampliação de 5 vezes, ou seja, para os
cálculos é necessário dividir o valor medido da seta por cinco. Agora basta medir o
diâmetro do sol medido na figura e realizar uma simples regra de três, usando o fato que
o tamanho angular do Sol no dia do eclipse valia 0,53º no céu, para saber o valor de α.
Após os cálculos, o resultado obtido ficou próximo de 1,5x1011 m? Quais as maiores
fontes de erro? (SILVA 2006).
3.
Referência
SILVA, A. Nossa estrela: o Sol. São Paulo: Editora Livraria da Física, 2006.
59
Download

CURSO: Parceria entre professor e centro de ciências: inserção de