Os pioneiros
da
nuclear
fusão
página 10
Distribuição Gratuita nº 07 | Agosto 2014
Biociências | Empreendedorismo e Inovação
Computação | Sustentabilidade e Ambiente
www.polyteck.com.br | Revista Polyteck | 1
Engenharia,
Energia e Materiais | Nanotecnologia
Produtos Personalizados
para quem curte QUALIDADE
Mostre quem você é...
IDENTIFIQUE, você com + estilo.
Moletons
Colleges
Mochilas
Moletons Polo
Camisetas
Moletinhos
e vários outros produtos...
2 | Revista Polyteck | www.polyteck.com.br
Foto: Metaio
Câmera térmica
cria superfícies interativas
Por Raisa Jakubiak
toques apenas após eles terem ocorrido e só funciona em
superfícies planas ou em superfícies tridimensionais que o
computador já conheça previamente.
Mesmo assim, a empresa está otimista e planeja lançar
uma versão do Thermal Touch para iPhone ainda este ano.
Mais informações virão em um artigo que será apresentado
em setembro no International Symposium on Mixed and
Augmented Reality. ■
Fontes:
»» Rachel Metz, MIT Technology Review, 13/06/2014
»» www.metaio.com
»»Agradecimento a Walmor Cardoso Godoi, doutor em Engenharia e Ciência
dos Materiais e professor da UTFPR pela revisão e contribuição
Realidade Aumentada
Foto: Google Glass
A
realidade aumentada (RA) é um tipo de visão computadorizada que usa câmeras para reconhecer objetos e
ambientes. A possibilidade de relacionar informações
e dados virtuais à realidade torna esta tecnologia muito interessante para a exibição de vídeos, áudio e imagens baseado
na atividade que se realiza. Receber instruções em tempo real
ao realizar tarefas manuais pode virar rotina com o avanço
dos dispositívos móveis vestíveis - como smart watches ou
o Google Glass.
Estamos tão acostumados a interagir com smartphones
e laptops que às vezes nossos movimentos e comandos são
tão naturais que estes dispositivos parecem até uma extensão
do nosso corpo. No entanto, quando se diz respeito a dispositivos vestíveis, esta interação pode ficar mais complicada,
já que não há uma tela em que se possa tocar o tempo todo.
Pensando nisso, a empresa Metaio resolveu investir em algo
bem diferente: o Thermal Touch, que detecta os traços de calor
que são deixados para trás quando você toca algo. Você já
deve ter visto isso no filme O Predador, mas aqui a tecnologia é usada para fins mais pacíficos, como transformar paredes, livros ou várias outras coisas em superfícies interativas.
A tecnologia combina dois tipos de câmeras: uma câmera
de infravermelho detecta o calor residual de um toque; Ao
mesmo tempo a outra câmera, que registra luz visível, determina a localização do objeto que está sendo tocado. As duas
câmeras são combinadas em um dispositivo chamado Optris
PI 200, que pode ser acoplado a um computador ou um tablet
para testes. Assim, o software desenvolvido pela Metaio consegue mapear o local do toque no objeto. O Thermal Touch
pode funcionar dentro de uma grande faixa de temperaturas,
contanto que a superfície tocada esteja mais fria ou quente
do que o corpo humano. Quanto maior a diferença entre
as temperaturas, mais fácil detectar as assinaturas de calor.
Ainda há alguns problemas. O Thermal Touch não
pode ser usado em superfícies metálicas devido à sua alta
condutividade térmica. Além disso, o protótipo atual detecta
O Google Glass e os smart watches não
são, em essência, realidade aumentada móvel.
Eles são dispositivos de Computação Ubíqua
(Ubiquitous Computing - Ubicomp), também
denominada computação pervasiva ou “computadores vestíveis”. No entanto, esses dispositivos podem ser utilizados para aplicações
em realidade aumentada como, por exemplo,
o Thermal Touch.
www.polyteck.com.br | Revista Polyteck | 3
Sistema de
monitoramento
estrutural
Por André Sionek e Tainan Pantano Tomaz
Um novo sistema desenvolvido
por pesquisadores do Parque
Tecnológico Itaipu permite o
monitoramento da estrutura da
barragem de Itaipu Binacional
em tempo real e ainda envia
notificações por e-mail e SMS
para os especialistas.
4 | Revista Polyteck | www.polyteck.com.br
Foto: Itaipu Binacional
A
Itaipu Binacional é a maior
geradora de energia elétrica do
mundo. A usina tem capacidade instalada de 14.000 MW e, sozinha, é capaz de produzir 16,8% de
toda a energia elétrica consumida
no Brasil e 75,2% da energia utilizada pelo Paraguai. A barragem possui 8 km de extensão, 185 metros de
altura e mais de 2.700 instrumentos funcionando em tempo real.
A usina sempre busca promover a segurança e o monitoramento da
barragem de forma proativa, e por isso
a estrutura conta com vários equipamentos de instrumentação que podem
detectar comportamentos anormais
da estrutura. Eles fornecem informações como: tensão, temperatura, deslocamento, entre outras. Fazendo bom
uso de todas as informações geradas
por estes instrumentos, aliado à técnica da análise de árvore de falhas,
o Centro de Estudos Avançados em
Segurança de Barragens (CEASB) do
Parque Tecnológico Itaipu desenvolveu
um sistema que realiza a análise dos
dados fornecidos pelos instrumentos
de medição e gera notificações sobre
a situação da estrutura da barragem.
O sistema envia alertas por e-mail e
SMS para os responsáveis previamente
cadastrados e permite a visualização
das leituras dos instrumentos na tela
do smartphone, tornando a análise da
estrutura proativa ao invés de reativa.
Caso os dados coletados pelos
instrumentos se apresentem fora dos
níveis padrão do histórico da barragem, eles são analisados pela técnica
de árvore de falhas, que apresenta ao
engenheiro as possíveis inconsistências na estrutura e suas respectivas
causas, dando suporte na tomada de
decisão por parte do especialista.
Mensagem de alerta
Caso o sistema detecte qualquer variação nas leituras coletadas, o
especialista recebe imediatamente um
e-mail com as informações do evento.
No corpo do e-mail também há um
link para o módulo de visualização do
sistema, que contém informações complementares sobre o evento e auxilia
a tomada de decisão do engenheiro.
O módulo de visualização consiste em uma interface WEB responsiva, de forma que a disposição das
informações se adequam ao dispositivo
utilizado para acesso. Dessa maneira os
engenheiros podem acessar os dados
utilizando notebooks, smartphones ou
tablets. O sistema conta com três funcionalidades: Alarme, Gráfico e Mapa.
Árvore de Falhas
OU
FALHAS DE COMPONENTES
FALHAS HUMANAS
E
A técnica de árvore de falhas, conhecida também com FAT (Fault Tree Analysis), foi criada em
1961 pela empresa americana Bell Telephone e
consiste numa metodologia lógica e dedutiva
que inicia a partir de um evento indesejável
(evento topo) e conecta, na direção vertical, as
possíveis causas deste evento, formando assim
uma “árvore”. Esta metodologia pode ser qualitativa, visando identificar os pontos falhos do
sistema, ou quantitativa, com o objetivo de
avaliar numericamente os riscos e verificar a
confiabilidade da estrutura.
www.polyteck.com.br | Revista Polyteck | 5
Monitoramento por Celular
Ao acessar a seção Alarme, o engenheiro tem acesso à informações detalhadas sobre o evento detectado, podendo visualizar a árvore de falhas e também imagens que auxiliam na
identificação dos instrumentos que apresentaram leituras alteradas. Na seção Gráfico é possível acessar os gráficos com dados
históricos dos instrumentos vinculados ao evento. Por fim, na
seção Mapa, o engenheiro pode localizar os instrumentos na
barragem utilizando uma ferramenta de georeferenciamento.
Foto: CEASB, PTI
Os eventos são divididos em
quatro níveis: Laranja, para quando
não há leitura dos dados. Verde,
quando algum indicador ultrapassa o nível máximo anual registrado na barragem. Amarelo, quando
os dados coletados indicam leituras maiores que o máximo histórico. Finalmente o vermelho, para
quando as leituras ultrapassam o
limite do projeto da barragem.
Homologação
O sistema está em fase final de
homologação pela equipe técnica do
CEASB. Após homologação, o sistema será submetido para a área de
TI da Itaipu, que tem como responsabilidade garantir a segurança da
aplicação e dos outros sistemas computacionais em funcionamento.
A expectativa é que o sistema
seja implantado em breve e passe a
6 | Revista Polyteck | www.polyteck.com.br
utilizar dados coletados em tempo
real, garantindo maior segurança
e eficiência no monitoramento da
barragem da maior usina geradora
de energia elétrica do mundo. ■
Fontes:
»» PTI - Parque Tecnológico Itaipu
»» CEASB - Centro de Estudos Avançados em
Segurança de Barragens
© PHOTOTAKE Inc./Alamy.
Quando a
eletrônica
orgânica
POLÍMEROS E MOLÉCULAS ORGÂNICAS
(FITAS AZUIS) TÊM SEMELHANÇA
ESTRUTURAL E FUNCIONAL COM
MACROMOLÉCULAS BIOLÓGICAS
ESSENCIAIS PARA A VIDA, COMO PROTEÍNAS,
ÁCIDOS NUCLÉICOS E CARBOIDRATOS.
encontra a
biologia
Por André Sionek
A
pesar dos blocos de construção de sistemas biológicos serem substancialmente diferentes daqueles utilizados em sistemas eletrônicos, a pesquisa de ponta
em interfaces cérebro/máquina, nanomedicina e robótica
aponta para uma profunda interação da tecnologia com
a natureza. Essa integração entre seres vivos e tecnologia
depende da habilidade de realizar traduções eficientes entre
sinais elétricos e biológicos. O sucesso deste campo depende
dos esforços conjuntos de biólogos, químicos, físicos e engenheiros que, juntos, podem discutir e criar interfaces entre
dispositivos artificiais e sistemas vivos. Apesar dos recentes avanços nesta área multidiscilpinar, a principal barreira
para o avanço da bioeletrônica é a falta de uma linguagem
comum entre diferentes áreas do conhecimento.
Semicondutores inorgânicos e óxidos desempenham
um papel importante nas interfaces entre sistemas vivos e
dispositivos eletrônicos. Para a criação de peles artificiais
que imitam a sensibilidade do tato humano, já foi proposta
As semelhanças estruturais entre
semicondutores orgânicos e compostos biológicos sugere o uso desses materiais em aplicações biomédicas. Como consequência uma
nova área multidisciplinar está nascendo: a bioeletrônica.
www.polyteck.com.br | Revista Polyteck | 7
O POLI(3,4-ETILENDIOXITIOFENO) DOPADO COM POLIESTIRENO
SULFONADO (PEDOT:PSS) APRESENTA BOA MOBILIDADE DE ÍONS E
ELÉTRONS E É UM DOS POLÍMEROS CONJUGADOS MAIS UTILIZADOS
EM BIOELETRÔNICA.
a utilização de nanofios de óxido de zinco - que
têm a capacidade de gerar uma diferença de tensão
quando dobrados, e por isso podem ser utilizados
como sensores de pressão. Os dispositivos à base de
silício já foram utilizados em implantes de retina por
pesquisadores da Universidade de Stanford, EUA.
Eles demonstraram uma prótese sub-retiniana fotovoltaica na qual fotodiodos de silício recebem energia
e dados através de iluminação pulsada no infravermelho próximo e, consequentemente, estimulam elétricamente os neurônios das camadas mais internas
da retina. Sensores neurais revestidos com carbeto
de silício amorfo também já foram relatados.
Orgânicos vs Inorgânicos
Materiais para
bioeletrônica
Um dos polímeros conjugados mais utilizados na bioeletrônica é o Poli(3,4-etilendioxitiofeno) dopado com Poliestireno
Sulfonado PEDOT:PSS. Além de apresentar boa mobilidade de
íons e elétrons, este polímero também é um excelente revestimento para eletrodos metálicos, como mostraram pesquisadores
da Universidade de Nova Gales do Sul, na Austrália. Segundo o
estudo, a modificação de eletrodos metálicos com revestimentos PEDOT:PSS pode melhorar a interface entre o tecido neural
e o eletrodo, aumentando o tempo de vida destes implantes.
Os resultados mostraram aumento na integração com o tecido,
assim como aumento na área de superfície do eletrodo, permitindo a entrega de sinais de bioativos para as células neurais.
O grafeno também já foi proposto para engenharia de tecidos como um material de enchimento em compósitos poliméricos. Entre os outros materiais estudados para a bioeletrônica
estão os materiais bioderivados - tal como o DNA, peptídeos
e copolímeros à base de açúcares já identificados como semicondutores naturais. Também existe a possibilidade de utilizar
nanofios biológicos derivados de bactérias anaeróbicas como
material condutor. No campo de eletrônica comestível, há a
necessidade de utilizar materiais condutores que degradem
rapidamente no corpo. Nesta área a atenção volta-se para o
desenvolvimento de baterias comestíveis fabricadas a partir de
pigmentos de melanina. Isso permitiria o desenvolvimento de
pílulas inteligentes, que podem fornecer um monitoramento
versátil, não invasivo e digerível.
8 | Revista Polyteck | www.polyteck.com.br
Quando se pretende criar interfaces entre dispositivos eletrônicos e seres vivos, a observação fundamental é que os semicondutores inorgânicos são
estruturalmente diferentes de compostos biológicos.
Isto cria uma barreira em termos de biocompatibilidade e abrangência de aplicações. Por isso, as
publicações sobre semicondutores orgânicos têm
ganhado cada vez mais relevância quando se trata
de aplicações em bioeletrônica.
Os semicondutores orgânicos apresentam várias
semelhanças com proteínas, carboidratos e ácidos
nucleicos. Do ponto de vista estrutural, semicondutores orgânicos podem ser biocompatíveis, biodegradáveis, macios e adaptáveis. Em relação às suas
funcionalidades, eles podem suportar transporte
eletrônico e iônico e ser facilmente modificados para
permitir sondagem e detecção.
Materiais orgânicos capazes de conduzir íons
são uma escolha óbvia quando se trata de construir
interfaces com neurônios, pois a comunicação elétrica
entre estas células ocorre por meio do fluxo controlado de moléculas iônicas em líquidos. Pesquisadores
da Escola Nacional Superior "des Mines de SaintEtienne", França, mostraram que transistores orgânicos eletroquímicos são capazes de realizar a transdução eficiente entre sinais iônicos e eletrônicos. Em tais
dispositivos, o canal do transistor fica diretamente
exposto a um meio líquido. A corrente que flui entre
o gate e a fonte é modulada diretamente por variações de concentrações iônicas neste líquido devido à
atividade neural. Este transistor é capaz de amplificar
fortemente o sinal proveniente dos neurônios, resultando assim numa melhoria da relação sinal/ruído
quando comparado com os transdutores passivos.
Numa configuração alternativa do dispositivo, filmes
finos orgânicos podem ser utilizados para converter
sinais luminosos em estímulos elétricos para células
neuronais com elevadas especificidade biológica e
resolução espacial. Como consequência direta destes
estudos, uma retina artificial totalmente orgânica e
flexível, capaz de substituir a função de células fotorreceptoras, está sendo testada em animais.
Circuitos eletrônicos orgânicos flexíveis e adaptáveis q
​​ ue podem ser enrolados em torno de tecidos
biológicos podem fornecer uma nova ferramenta para
a medicina. Eles podem ser utilizados p
​​ ara diagnósticos locais, assim como na a liberação controlada de
medicamentos e na regeneração de tecidos.
As publicações de artigos em periódicos e congressos mostram claramente que há um aumento do
interesse dos cientistas em contribuir para a compreensão dos mecanismos biológicos destes dispositivos,
assim como no desenvolvimento de novas aplicações
em bioeletrônica. Porém, a grande barreira à entrada
de pesquisadores dispostos a contribuir para o avanço
desta área é a falta de uma linguagem comum entre
cientistas de diferentes origens. Isso pode ser resolvido com o aumento do interesse e proatividade dos
pesquisadores por outras áreas do conhecimento.
A leitura de artigos, participação em congressos e
networking com profissionais variados são fatores
que podem criar um ambiente fértil baseado em
colaborações entre diferentes ciências. Assim, esta
comunidade multidisciplinar poderá crescer. E os
seus resultados também. ■
Fontes:
»» G. Lanzani, Nature Materials 13, 775–776 (2014)
»» J. Rivnay e G. Malliaras, 2014 MRS Spring Meeting & Exhibit, 21 a 25 de Abril
de 2014, São Francisco, Califórnia, EUA
»» R. A. Green et al. Biomaterials 29, 3393–3399 (2008).
»» K. Mathieson et al., Nature Photon. 6, 391–397 (2012).
CIRCUITOS ELETRÔNICOS ORGÂNICOS FLEXÍVEIS E ADAPTÁVEIS
PODEM SER UTILIZADOS PARA
​​
DIAGNÓSTICOS, LIBERAÇÃO
CONTROLADA DE MEDICAMENTOS E REGENERAÇÃO DE TECIDOS.
Anuncio Revista Polyteck_Final.pdf
1
8/3/14
9:12 PM
www.facebook.com/clinicadapi
www.polyteck.com.br | Revista Polyteck | 9
Os pioneiros
da
fusão
nuclear
Por André Sionek
As estrelas que vemos no céu são mantidas coesas por forças gravitacionais
que fazem com que os seus átomos
fiquem sujeitos a altíssimas pressões e
temperaturas. Estas condições fazem
com que átomos fundam-se, dando
origem a elementos mais pesados, e
liberando energia contida em seus
núcleos. Replicar estes processos físicos e químicos que ocorrem no interior de estrelas pode abrir caminho
para a produção de muita energia a
partir de pequenas quantidades de
combustível.
Foto:
Técnicos fazendo manutenção e
inspeção dentro da câmara do alvo
no National Ignition Facility (NIF)
10 | Revista Polyteck | www.polyteck.com.br
Confinamento
magnético:
Tokamak
O maior desafio da fusão nuclear é o
confinamento do plasma. Um Tokamak é
um equipamento de confinamento magnético, no qual o plasma é contido numa
câmara de vácuo em forma de donut. Para
experimentos de fusão, o combustível
- uma mistura de deutério e trítio, dois
isótopos de hidrogênio - é aquecido a
temperaturas superiores a 150 milhões
de graus Celsius, formando um plasma
quente. Fortes campos magnéticos produzidos por bobinas supercondutoras
que cercam a câmara, e por uma corrente
elétrica que flui no plasma, são utilizados
para manter o plasma longe das paredes
do equipamento.
As ilustrações são do maior Tokamak
do mundo, que fica localizado na França,
dentro das instalações do International
Thermonuclear Experimental Reactor
(ITER). O projeto, uma colaboração entre
sete países, deve começar a operar no
final de 2020.
www.polyteck.com.br | Revista Polyteck | 11
Ilustrações: ITER
E
m física nuclear, a fusão nuclear é uma reação na qual dois ou mais núcleos atômicos
colidem a altíssimas velocidades e unem-se
para formar um outro núcleo de maior número
atômico. Estrelas como o Sol são alimentadas por
processos de fusão nuclear, sendo a de hidrogênio
em hélio o principal tipo que ocorre no seu interior. Neste processo, dois prótons fundem-se em
um núcleo de hélio. Entretanto, a massa resultante
do átomo de hélio não é a soma exata da massa
dos dois átomos iniciais. Isso por que ao mesmo
tempo que um pouco de massa foi perdida, grandes quantidades de energia foram geradas. É isso
que a famosa fórmula de Einstein, E=mc², descreve: uma pequena quantia de massa (m), multiplicada pelo quadrado da velocidade da luz (c²),
resulta em uma enorme quantidade de energia (E).
A fusão nuclear requer muita energia para
acontecer, já que uma grande barreira de potencial, causada por forças eletrostáticas, precisa
ser superada antes que a junção dos dois núcleos
ocorra. A grandes distâncias, dois núcleos repelem um ao outro devido às forças eletrostáticas
repulsivas existentes entre seus prótons (positivamente carregados). Se dois núcleos são colocados
suficientemente próximos um do outro, a repulsão eletrostática é superada pela força nuclear, que
é atrativa. Por isso, o pré-requisito essencial para
que ocorra fusão é que os núcleos tenham energia cinética suficiente para que possam se aproximar um do outro, apesar da repulsão eletrostática.
Já faz mais de seis décadas que pesquisadores vêm tentando replicar a fonte de calor do
Sol - fundir átomos para liberar a energia presa
nos seus núcleos. Nesse período, os reatores de
fusão nuclear cresceram de dispositivos de mesa
para gigantes multibilionários. O International
Thermonuclear Experimental Reactor (ITER), por
exemplo, é um projeto de reator experimental de
fusão nuclear baseado na tecnologia de Tokamak
que irá pesar 23.000 toneladas quando completo
(três vezes o peso da Torre Eiffel) e custará aproximadamente 20 bilhões de dólares. Já o National
Ignition Facility (NIF), que usa tecnologia de
fusão baseada em laser, custou aproximadamente 3,5 bilhões de dólares para ser construído.
A estratégia de fusão dos dois laboratórios requer tecnologia complexa, de alto custo e
grande porte. O ITER tem como objetivo confinar um plasma em campos magnéticos e deixá-lo
queimando pelo maior tempo possível; já a estratégia do NIF é utilizar lasers ultrapotentes para
bombardear o combustível de fusão, comprimindo-o à uma densidade tão alta quanto possível.
Startups
Foto: Kathryn Richardson, General Fusion
com novas
tecnologias
Já deu pra perceber que fusão nuclear é um
negócio complicado: envolve partículas de alta energia, temperaturas, pressões e quantidades de dinheiro
colossais. Quem seria louco o suficiente para tentar
construir um reator de fusão de forma independente?
A verdade é que pequenas equipes de cientistas e
engenheiros amparados por financiamento privado ou
por uma mistura de fundos governamentais e privados
estão desenvolvendo novas abordagens para a fusão.
Eles não estão apenas fazendo pesquisa: o objetivo é
construir reatores financeiramente viáveis e simples,
​​
e eles esperam fazer isso muito mais rápido do que
os atuais projetos financiados com fundos públicos.
Estas startups situam-se entre os extremos:
não são projetos megalomaníacos e, ao mesmo
tempo, são cientificamente plausíveis - ao contrário da notória fusão a frio. Porém, os imensos custos de construção de laboratórios públicos,
como o ITER e o NIF, drenaram os financiamentos destes programas de fusão mais modestos.
Projetos Públicos
Tanto o ITER quanto o NIF são os atuais projetos publicamente financiados que carregam a responsabilidade de mostrar que um reator de fusão
pode produzir mais energia do que consome. Essa é
uma grande tarefa, pois as reações de fusão consomem imensas quantidades de energia: o combustível,
por exemplo, tem que ser aquecido e mantido a mais
de 150 milhões de graus Celsius. Na teoria, assim que
a reação ultrapassa o ponto de equilíbrio - no qual o
dispositivo gera a mesma quantidade de energia que
é injetada, ela gera calor suficiente para aquecer a si
mesma. Porém, ninguém até hoje chegou perto de atingir isso. O ITER ainda está em construção e os experimentos com plasma a altas temperaturas não devem
começar até 2021. Era esperado que o NIF tivesse
produzido essa “ignição” inicial há vários anos, o que
ainda não ocorreu. No entanto já foram reportados
avanços: recentemente, pesquisadores do laboratório
conseguiram comprimir diamante, o material menos
compressível conhecido, a uma densidade de 12 gcm-3
- densidade maior do que a do chumbo em condições
ambiente. A pressão exercida sobre o diamante foi
similar àquelas encontradas no centro de Saturno.
12 | Revista Polyteck | www.polyteck.com.br
General Fusion
Após passar boa parte da sua carreira desenvolvendo impressoras laser, Michel Laberge resolveu se aventurar com reatores de
fusão nuclear. Ele convenceu alguns antigos colegas de trabalho
a investir num projeto desenvolvido, e posteriormente abandonado, pelo Laboratório de Pesquisa Naval em Washington,
D.C na década de 70.
Com esse investimento inicial ele construiu um dispositivo
de mesa que simula o reator utilizando pulsos elétricos. Isso
foi suficiente para produzir uns poucos nêutrons, sinais de que
uma reação de fusão está ocorrendo. Em 2002, Laberge e seus
parceiros fundaram a General Fusion. Desde 2009, eles já levantaram 62 milhões de dólares canadenses, 80% vindos de fontes
privadas, que incluem uma empresa de petróleo e a companhia de investimentos do fundador da Amazon.com, Jeff Bezos.
Com o dinheiro em mãos, eles construíram uma máquina
que parece ter saído de um livro de ficção científica. Em volta
de uma câmara de reação esférica ficam 14 pistões pneumáticos.
O modo de funcionamento soa apocalíptico. Primeiramente
os pesquisadores fazem chumbo derretido girar dentro da
câmara, criando um vórtice com o centro vazio. Neste espaço
eles disparam um “toróide compacto” de combustível de fusão
- essencialmente um anel de plasma. Em seguida, os pistões
vêm a 50 metros por segundo e batem em plugs na parede da
câmara, enviando uma onda de choque através do chumbo. A
onda de choque esmaga o combustível a uma enorme pressão e temperatura e… bang! Uma pequena explosão de fusão
ocorre (em teoria).
O sistema atual não deve atingir fusão; serve somente para
validar o sistema de compressão. No momento eles ainda não
tem dados suficientes para estimar o ponto de equilíbrio. Até
agora a estimativa é de que será necessário construir uma “versão monstro” do equipamento, com uma câmara três vezes
maior e até 400 pistões.
Foto: Eric Lerner, Lawrenceville Plasma Physics
Lawrenceville
Plasma Physics
O projeto começou com o trabalho de Eric Lerner, que
ao estudar dispositivos de fusão se deparou com o dense
plasma focus (DPF), inventado na Rússia na década de 50. O
DPF cria um toróide compacto de combustível de fusão e o
comprime a um tamanho minúsculo por meio de um efeito
eletromagnético conhecido como pinch. Depois de 10 anos
de pesquisa, Lerner recebeu investimentos do Laboratório
de Propulsão a Jato da NASA, mas depois de investir 300
mil dólares a NASA cancelou o financiamento. Depois de
7 anos, Lerner conseguiu levantar 1,2 milhões de dólares e
mais tarde mais 2 milhões de mais de 60 investidores diferentes. A verdade é que o monstro pneumático da General
Fusion faz o dispositivo de Lerner parecer um brinquedo.
O coração da máquina da Lawrenceville Plasma Physics
é composto por dois eletrodos cilíndricos, um dentro do
outro. O eletrodo externo tem somente 18 centímetros de
diâmetro, e o dispositivo inteiro fica dentro de um recipiente
preenchido com gás difuso. Um pulso elétrico é descarregado do eletrodo externo para o interno, criando um anel
de plasma que escapa para o interior do recipiente. Em
seguida, o campo magnético gerado pela corrente faz o anel
virar uma pequena e densa esfera de plasma. O colapso do
campo magnético induz um campo elétrico, que faz com
que um feixe de elétrons atravesse o plasma, aquecendo-o
a temperaturas superiores a bilhões de graus Celsius. Se
tudo ocorrer como planejado, a bola de plasma, que dura
apenas 10 bilionésimos de segundo, ficará quente e densa
o suficiente para que a fusão ocorra.
Foto: Norman Rostoker, Science 278, 5342, 1419-1422 (1997)
Tri Alpha Energy
O time da Tri Alpha começa com um diferencial: dinheiro.
Já receberam centenas de milhões de dólares da iniciativa
privada. “Tri Alpha entrou para a história da fusão como
a única vez em que tal quantia foi investida num projeto
de iniciativa privada.” Segundo Stewart Prager, diretor do
Laboratório de Física de Plasmas de Princeton em Nova
Jersey.
Tri Alpha é “filha” do físico de plasmas canadense Norman
Rostoker, que agora é professor emérito na Universidade
da Califórnia, Irvine. A empresa nasceu após a publicação
de um paper em 1997, na revista Science, descrevendo um
Reator de Fusão por Colisão de Feixes (Colliding Beam Fusion
Reactor, em inglês). A empresa já tem mais de 150 empregados e recebeu investimento de fontes como o banco
Goldman Sachs e Paul Allen, co-fundador da Microsoft.
O reator da empresa tem o tamanho de uma quadra de
tênis e funciona com a criação de dois toróides compactos,
seguidos pela sua aceleração a 250 quilômetros por segundo
para então colidirem de frente. Os toróides se fundem e
são confinados em configuração invertida de campo (FRC),
convertendo sua energia cinética em calor. Calor extra é
fornecido por feixes de íons. O dispositivo da Tri Alpha não
comprime o plasma, o processo de fusão baseia-se em altas
temperaturas e longo confinamento. Por isso, a equipe vem
desenvolvendo algumas maneiras de aumentar a vida útil do
confinamento após a colisão dos toróides. Num artigo de
2012 para a Physical Review Letters, descreveram durações
de até 4 milissegundos, muito superiores às atuais reações
de nanosegundos encontradas outros reatores.
A empresa se envolve em mistério. Não tem website e
não faz anúncios públicos. Os detalhes sobre o trabalho ali
desenvolvido vêm de artigos ocasionalmente publicados
em periódicos.
www.polyteck.com.br | Revista Polyteck | 13
Fotos: National Ignition Facility (NIF)
Novos desafios
É difícil dizer qual desses projetos
vai realmente funcionar. A maior parte
deles produziu dispositivos em escala de
laboratório e todos convenceram alguns
investidores de que poderiam, um dia, iniciar uma indústria altamente lucrativa.
Os cientistas de fusão têm opiniões
diferentes sobre estas startups. Em geral,
há certo ceticismo quanto à viabilidade
estes projetos independentes, o mesmo não
ocorre com o NIF e ITER - gigantes publicamente financiados. Dispositivos de fusão
são complexos e possuem muitos subsistemas interativos, e parece que muitas destas empresas estão exagerando em quão
rápidas e baratas são as suas soluções.
O próximo passo para elas - construir um reator de demonstração que atinja
ou chegue perto do ponto de equilíbrio irá
requerer um novo nível de investimento:
não milhões de dólares, mas sim centenas de milhões. Mas é justamente o desafio que inspira essas startups: seja de conseguir construir um dispositivo de fusão
eficiente, ou conseguir dinheiro para pelo
menos tentar. E, apesar do ceticismo que
paira sobre a viabilidade destes projetos, seria
ótimo se algum deles fosse bem sucedido. ■
Fontes:
»» http://www.iter.org/
»» https://lasers.llnl.gov/
»» Daniel Clery, Science 345, 6195, 370-375 (2014)
»» Norman Rostoker et al., Science 278, 5342, 1419-1422
(1997)
»» R. F. Smith et al., Nature 511, 330-333 (2014)
»» M. Tuszewski et al., Phys. Rev. Lett. 108, 255008 (2012)
14 | Revista Polyteck | www.polyteck.com.br
UM CILINDRO HOHLRAUM UTILIZADO NO NIF.
ESTE CILINDRO DE OURO CONTÉM A CÁPSULA DE
COMBUSTÍVEL DE FUSÃO. O HOHLRAUM TEM APENAS
ALGUNS MILÍMETROS DE LARGURA, APROXIMADAMENTE
O TAMANHO DE UMA BORRACHA, COM ORIFÍCIOS
PARA A ENTRADA DO FEIXE DE LASER EM CADA
EXTREMIDADE. A CÁPSULA DE COMBUSTÍVEL É
DO TAMANHO DE UMA ERVILHA PEQUENA.
NA IMAGEM À ESQUERDA: VISTA EXTERNA DO NIF.
Diamante tão denso
quanto chumbo
Em um trabalho publicado em julho deste ano na revista
Nature, pesquisadores do National Ignition Facility (NIF) demonstraram que é possível comprimir diamante a uma pressão de 5
terapascal (5 x 1012 Pa) - 11 vezes a pressão no centro da Terra.
Nestes experimentos, 176 feixes de laser entregaram um pico
total de potência de 2,2 terawatts durante 20 nanosegundos.
Segundo os pesquisadores, se o diamante for comprimido
muito rapidamente, ele fica muito quente e derrete, virando
apenas carbono líquido. Para evitar isso, foi utilizada uma
técnica, chamada de ramp compression, que os engenheiros
do NIF desenvolveram para implodir cápsulas de combustível
para pesquisas de fusão termonuclear. A equipe fixou o diamante dentro de um buraco cortado em um pequeno cilindro
de ouro, e então pulsos de laser atingiram as paredes internas
do cilindro. Isso fez com que o ouro emitisse uma avalanche
de raios-x que bombardearam o diamante, desencadeando
poderosas ondas de compressão dentro dele.
O trabalho publicado pelos pesquisadores é de grande importância, mesmo ainda longe de atingir o ponto de equilíbrio numa
reação de fusão. Replicar as condições de pressão e temperatura
existentes no interior dos chamados “gigantes gasosos”, planetas
de grandes dimensões compostos majoritariamente de matéria
gasosa, ajuda no entendimento e ajuste de teorias utilizadas para
descrever matéria sujeita a altíssimas pressões.
Foto: Mulher holandesa durante o Inverno da Fome de 1944. Capturado por Menno Huizinga em janeiro de 1945
Subnutrição
durante a gestação
pode alterar
a expressão
de DNA
por duas gerações
Pais expostos a condições
ambientais desfavoráveis
podem causar doenças
metabólicas na prole e nas
gerações seguintes. Apesar
de o mecanismo ainda
ser desconhecido, modelos animais e dados epidemiológicos indicam que
estas condições implicam
em herança epigenética.
Por Raisa Jakubiak e Felipe Luiz
U
ma grande quantidade de estudos
sugere que condições ambientais
desfavoráveis a um genitor podem
afetar – negativamente – a saúde das gerações subsequentes. Por exemplo, mulheres
holandesas que estavam grávidas durante
uma grande fome em 1944, conhecido como
o Inverno Holandês da Fome, tiveram filhos
e netos que eram incomumente pequenos ou
propensos à diabetes ou obesidade. Estudos
com animais também mostraram que, expor
uma rata grávida a compostos tóxicos ou simplesmente fazê-la sentir medo de um odor,
pode resultar em efeitos como infertilidade
e mudanças de comportamento que podem
persistir por duas gerações. No entanto, os
mecanismos ainda não podem ser explicados por mutações genéticas.
Alguns cientistas suspeitam que estes
efeitos sejam passados adiante através de
mudanças epigenéticas. O termo epigenética é relativo às mudanças reversíveis e
herdáveis do genoma funcional que não
alteram a sequência de nucleotídeos do
DNA. Fazem parte da epigenética o estudo
de como os padrões de expressão são passados para os descendentes; A investigação da
mudança de expressão espaço temporal de
genes durante a diferenciação de um tipo de
célula; E também o estudo de como fatores
www.polyteck.com.br | Revista Polyteck | 15
Efeitos epigenéticos da subnutrição
Uma equipe de cientistas liderada pela geneticista Anne Ferguson-Smith, da Universidade de
Cambridge no Reino Unido, e a pesquisadora
em diabetes Mary-Elizabeth Patti, da Escola de
Medicina de Harvard, explorou a abrangência
dos efeitos epigenéticos através do estudo do
DNA de duas gerações de ratos descendentes
de uma mãe com subnutrição.
Durante a última semana de gestação de
um grupo de ratas, os cientistas as alimentaram com ração contendo apenas metade das
calorias necessárias para uma gestação saudável. Durante este período gestacional para uma
rata, os padrões epigenéticos no esperma de
um embrião masculino são apagados e então
ressetados. O tratamento resultou em uma
prole e em netos abaixo do peso normal e com
tendências à diabetes.
Nucleossomo
Nucleossomo é uma unidade básica da cromatina. Consiste em
aproximadamente 146 pares de bases de DNA enroladas ao redor de
um octâmero central de proteínas, conhecidas como histonas. Essas
proteínas básicas foram inicialmente consideradas como componentes
meramente estruturais, mas agora são reconhecidas pelo importante
papel que desempenham na manutenção do equilíbrio dinâmico da
cromatina.
16 | Revista Polyteck | www.polyteck.com.br
O grupo analisou então o DNA do esperma
dos machos nascidos das mães subnutridas (F1).
Comparados com a prole dos ratos controle, seu
esperma tinha muito menos grupos metil em
cerca de 110 braços do DNA. Frequentemente,
o grupo metil estava faltando perto de genes
envolvidos no metabolismo. Basicamente, o
ambiente nutricional dos embriões F1 alterou
o metiloma da linhagem germinativa no DNA
dos machos adultos F1 no locus específico. Essa
mutação do locus específico é caracterizada por
uma alteração genética que acontece a partir
de uma lesão de DNA, causando alterações
em proteínas que podem ser detectadas por
métodos de eletroforese.
Diferentes regiões de metilação do DNA
(relacionadas ao silenciamento de genes) apresentaram hipometilação e retenção de nucleossomos. Uma parte substancial é resistente
à reprogramação da metilação inicial, impactando fortemente no desenvolvimento dos netos
(F2). Assim, quando o útero é exposto à subnutrição durante o desenvolvimento de células
germinativas, pode haver impacto no metiloma
da linhagem germinativa masculina, o que é
associado a doenças metabólicas em F2.
No entanto, apesar de os tecidos fetais
nos netos das ratas que sofreram desnutrição
também apresentarem mudanças na expressão
dos genes, surpreendentemente o DNA nestes tecidos não carregavam estas mudanças
na metilação. Isto sugere que as mudanças
eventualmente desaparecem. Ferguson-Smith
acredita que as mudanças na metilação do
esperma de F1 refletem o legado na sua subnutrição enquanto estava no útero mas, como
este estado não persistiu, não é suficiente para
explicar a doença na geração F2. A pesquisadora disse em entrevista à Science que os
marcadores de metilação “não são a memória
a longo prazo que relacionam a doença de uma
geração com a outra”.
Para continuar os estudos e demonstrar
que esses padrões de metilação realmente causam efeitos negativos na saúde de gerações
subsequentes, é necessário desligar ou ligar
artificialmente os genes em questão e mostrar
que isto leva aos mesmos resultados. Este é o
grande desafio para a área. ■
Fontes:
»»1) Elizabeth J. Radford et al., Science (2014) DOI: 10.1126/
science.1255903
»»2) Jocelyn Kaiser, Science (10/07/2014)
»» 3) Fernanda Salvato, Epigenética, Seminários em
Genética e Melhoramento de Plantas - USP
Ilustração: Thiago Rennó
AS CÉLULAS
DE LINHAGEM
GERMINATIVA TÊM
A CAPACIDADE DE
GERAR GAMETAS.
MUTAÇÕES
QUE OCORREM
NAS CÉLULAS
GERMINATIVAS
PODEM SER
TRANSMITIDAS
PARA GERAÇÕES
SEGUINTES.
LOGO, A
LINHAGEM
GERMINATIVA
É DE GRANDE
IMPORTÂNCIA
NO ESTUDO DAS
CONSEQUÊNCIAS
DAS MUTAÇÕES
GENÉTICAS.
ambientais podem gerar alterações na maneira
como os genes são expressos. A pesquisa na
área da epigenética inclui implicações em agricultura, na biologia e em doenças humanas,
incluindo o entendimento sobre células-tronco,
câncer e envelhecimento.
THE OXFORD COMPONENT OF THE EPIC-OXFORD STUDY
HAS AS MAIN OBJECTIVE STUDYING HOW PEOPLE’S
DIET INFLUENCES THE RISK OF CANCER AND OTHER
DISEASES. IT BEGAN IN 1993 AND HAS A PROSPECTIVE
COHORT OF 65,000 MEN AND WOMEN LIVING IN THE UK.
V
egetarian militants and meat eaters have been fighting for years over the pros and cons of eating meat.
You have probably already stumbled over this discussion in some social media yourself. Meat eaters defend that
meat has lots of nutrients which are fundamental to a healthy nutrition of the human body, such as proteins, aminoacids and B12 vitamin. On the other hand, vegetarians and
vegans defend several points of view, like seeking a healthier
life and the defense of animal rights. But nowadays the global warming brings up a new field of discussion and, with
it, a new branch of study: what is better for Earth’s atmosphere, meat eating or vegetarian and vegan diets? A recent
study performed by researchers in the University of Oxford,
involved in the European Prospective Investigation into
Cancer and Nutrition (EPIC - Oxford Study), gives clues that
the less meat you eat, the lower your carbon footprint is.
EPIC - Oxford Study
Dietary
greenhouse
gas
emissions
By Raisa Jakubiak
In order to estimate the difference in CO2 emissions
between diets in the UK, a team at the University of Oxford
analyzed the diets of 2,041 vegans, 15,751 vegetarians, 8,123
fish-eaters (people who eat only fish and seafood) and 29,589
meat-eaters aged between 20 and 79 years. Data were assessed
using a validated food frequency questionnaire that estimates the intake of 130 different food items over the previous 12
months. Subjects were participants in the EPIC- Oxford Study.
First of all, dietary groups were divided as far as the
meat intake is concerned: heavy meat-eaters (people who consume more than 100 g of meat per day), medium meat-eaters
(50 to 99 g/day), low meat-eaters (>0 and <50 g/day), fish-eaters, vegetarians and vegans. These options were self-chosen.
The nutritional analyses of the 130 items were based on
nutritional data for 289 food codes taken from UK food composition tables, primarily the McCance & Widdowson series.
The researchers estimated the GHG emissions associated with
these 289 food codes, measured as kgCO2-eq, i.e.: kg of GHG
weighted by global warming potential over a 100 year time
frame, with carbon dioxide weighted as 1, methane weighted as 25 and nitrous oxide weighted as 298 per 100g of food.
Audrey table, the source document for GHG parameters, estimates comparable GHG emissions for 94 food commodities
consumed in the UK. These parameters incorporate the life
cycle of food commodities from the earliest stages of production to the retail distribution center. Different parameters are
estimated for foods produced in the UK, the EU and outside
the EU. The dietary data were standardized to a 2000 kcal diet.
The results have shown that the CHG emissions related to food are strongly associated with the quantity of
www.polyteck.com.br | Revista Polyteck | 17
animal-based products consumed in the
diet. After the data were adjusted for sex
and age, it was shown that an average
meat eater has 2.5 times as many CGH
emissions than an average vegan. Not
only that, but the analysis also revealed that even eating less meat can diminish the CGH emissions in your diet.
Considering that a recent research performed by the National Diet and Nutrition
Survey estimated the average meat consumption of meat per adult in UK to be of
110 g/day, you can say that most adults in
the UK are heavy meat eaters. Although
the vegan diet presents the most environment friendly results, it does not mean
that you must stop eating meat since,
according to the study, reducing the
consumption a bit can already produce
good drop in your carbon footprint. ■
Sources:
»» Peter Scarborough et al., Climate Change 125, 179–
192 (2014)
»» Laurence A. Wright et al., Carbon Management Vol.
2, No. 1, 61-72 (2011)
»» EPIC-Oxford, http://www.epic-oxford.org/
Carbon footprint and
what we eat
When we think about greenhouse gas (GHG) emissions the first things
that come to our mind are certainly fossil fuels and energy production.
However, almost every activity has something called carbon footprint.
Historically, the term is defined as the total sets of greenhouse gas emissions
caused by an organization, event, production or person. Being impossible
to calculate the real carbon footprint of an activity due to the enormous
amount of data necessary, Wright, Kempf and Willians suggested in a paper
to the journal Carbon Management that “A measure of the total amount
of carbon dioxide (CO2) and methane (CH4) emissions of a defined population, system or activity, considering all relevant sources, sinks and storage
within the spatial and temporal boundary of the population, system or
activity of interest. Calculated as carbon dioxide equivalent (CO2-eq) using
the relevant 100-year global warming potential (GWP100)”.
Although transports and energy have the larger GHG emissions, production, transport, storage, cooking and wastage of food are also substantial contributors to the greenhouse effect. In the UK, it is estimated that
food is responsible for about one fifth of the total GHG emissions. This
number rises to one fourth considering the whole world. The majority of
the emissions are in the form of carbon dioxide from food transport and
farm machinery, methane from enteric fermentation of ruminant livestock
and nitrate (NO3-) from fertilized fields. As far as these gases are concerned,
CH4 and NO3- are far more powerful GHGs than CO2, and animal-based
foods are associated with higher GHG emissions than plant-based food.
Less meat,
fewer emissions
Carbon footprint of various UK
diets, in kg of CO2-eq per day.
Source: Scarborough et al. (2014)
Patrocínio:
Edição 07 | agosto de 2014
Tiragem: 10 mil exemplares
Distribuição Gratuita
A Polyteck é uma revista interdisciplinar de
tecnologia e ciência distribuída gratuitamente
dentro das principais universidades e centros de
pesquisa.
Informações sobre anúncios e parcerias estão
disponíveis em: www.polyteck.com.br/anuncie
Envie sua crítica, elogio ou sugestão para:
[email protected]
Editora Polyteck Ltda - ME
Rua Irene Túlio, 192, casa 4
Santa Felicidade, Curitiba - PR
82.410-440
CNPJ: 18.786.870/0001-01
Diretor Executivo: André Sionek
Diretora de Redação: Raisa Requi Jakubiak
Diretor Comercial: Fábio A. S. Rahal
Revisão: Tainan Pantano Tomaz
Imagens: Shutterstock, stock.xchng
Impressão: Gráfica Radial
Parceiros:
Este trabalho é licenciado sob Creative Commons Attribution-NonCommercial 4.0
International License. Os pontos de vista expressos nos artigos não refletem necessariamente a posição da Editora Polyteck.
Download

Baixe o PDF aqui