Os pioneiros da nuclear fusão página 10 Distribuição Gratuita nº 07 | Agosto 2014 Biociências | Empreendedorismo e Inovação Computação | Sustentabilidade e Ambiente www.polyteck.com.br | Revista Polyteck | 1 Engenharia, Energia e Materiais | Nanotecnologia Produtos Personalizados para quem curte QUALIDADE Mostre quem você é... IDENTIFIQUE, você com + estilo. Moletons Colleges Mochilas Moletons Polo Camisetas Moletinhos e vários outros produtos... 2 | Revista Polyteck | www.polyteck.com.br Foto: Metaio Câmera térmica cria superfícies interativas Por Raisa Jakubiak toques apenas após eles terem ocorrido e só funciona em superfícies planas ou em superfícies tridimensionais que o computador já conheça previamente. Mesmo assim, a empresa está otimista e planeja lançar uma versão do Thermal Touch para iPhone ainda este ano. Mais informações virão em um artigo que será apresentado em setembro no International Symposium on Mixed and Augmented Reality. ■ Fontes: »» Rachel Metz, MIT Technology Review, 13/06/2014 »» www.metaio.com »»Agradecimento a Walmor Cardoso Godoi, doutor em Engenharia e Ciência dos Materiais e professor da UTFPR pela revisão e contribuição Realidade Aumentada Foto: Google Glass A realidade aumentada (RA) é um tipo de visão computadorizada que usa câmeras para reconhecer objetos e ambientes. A possibilidade de relacionar informações e dados virtuais à realidade torna esta tecnologia muito interessante para a exibição de vídeos, áudio e imagens baseado na atividade que se realiza. Receber instruções em tempo real ao realizar tarefas manuais pode virar rotina com o avanço dos dispositívos móveis vestíveis - como smart watches ou o Google Glass. Estamos tão acostumados a interagir com smartphones e laptops que às vezes nossos movimentos e comandos são tão naturais que estes dispositivos parecem até uma extensão do nosso corpo. No entanto, quando se diz respeito a dispositivos vestíveis, esta interação pode ficar mais complicada, já que não há uma tela em que se possa tocar o tempo todo. Pensando nisso, a empresa Metaio resolveu investir em algo bem diferente: o Thermal Touch, que detecta os traços de calor que são deixados para trás quando você toca algo. Você já deve ter visto isso no filme O Predador, mas aqui a tecnologia é usada para fins mais pacíficos, como transformar paredes, livros ou várias outras coisas em superfícies interativas. A tecnologia combina dois tipos de câmeras: uma câmera de infravermelho detecta o calor residual de um toque; Ao mesmo tempo a outra câmera, que registra luz visível, determina a localização do objeto que está sendo tocado. As duas câmeras são combinadas em um dispositivo chamado Optris PI 200, que pode ser acoplado a um computador ou um tablet para testes. Assim, o software desenvolvido pela Metaio consegue mapear o local do toque no objeto. O Thermal Touch pode funcionar dentro de uma grande faixa de temperaturas, contanto que a superfície tocada esteja mais fria ou quente do que o corpo humano. Quanto maior a diferença entre as temperaturas, mais fácil detectar as assinaturas de calor. Ainda há alguns problemas. O Thermal Touch não pode ser usado em superfícies metálicas devido à sua alta condutividade térmica. Além disso, o protótipo atual detecta O Google Glass e os smart watches não são, em essência, realidade aumentada móvel. Eles são dispositivos de Computação Ubíqua (Ubiquitous Computing - Ubicomp), também denominada computação pervasiva ou “computadores vestíveis”. No entanto, esses dispositivos podem ser utilizados para aplicações em realidade aumentada como, por exemplo, o Thermal Touch. www.polyteck.com.br | Revista Polyteck | 3 Sistema de monitoramento estrutural Por André Sionek e Tainan Pantano Tomaz Um novo sistema desenvolvido por pesquisadores do Parque Tecnológico Itaipu permite o monitoramento da estrutura da barragem de Itaipu Binacional em tempo real e ainda envia notificações por e-mail e SMS para os especialistas. 4 | Revista Polyteck | www.polyteck.com.br Foto: Itaipu Binacional A Itaipu Binacional é a maior geradora de energia elétrica do mundo. A usina tem capacidade instalada de 14.000 MW e, sozinha, é capaz de produzir 16,8% de toda a energia elétrica consumida no Brasil e 75,2% da energia utilizada pelo Paraguai. A barragem possui 8 km de extensão, 185 metros de altura e mais de 2.700 instrumentos funcionando em tempo real. A usina sempre busca promover a segurança e o monitoramento da barragem de forma proativa, e por isso a estrutura conta com vários equipamentos de instrumentação que podem detectar comportamentos anormais da estrutura. Eles fornecem informações como: tensão, temperatura, deslocamento, entre outras. Fazendo bom uso de todas as informações geradas por estes instrumentos, aliado à técnica da análise de árvore de falhas, o Centro de Estudos Avançados em Segurança de Barragens (CEASB) do Parque Tecnológico Itaipu desenvolveu um sistema que realiza a análise dos dados fornecidos pelos instrumentos de medição e gera notificações sobre a situação da estrutura da barragem. O sistema envia alertas por e-mail e SMS para os responsáveis previamente cadastrados e permite a visualização das leituras dos instrumentos na tela do smartphone, tornando a análise da estrutura proativa ao invés de reativa. Caso os dados coletados pelos instrumentos se apresentem fora dos níveis padrão do histórico da barragem, eles são analisados pela técnica de árvore de falhas, que apresenta ao engenheiro as possíveis inconsistências na estrutura e suas respectivas causas, dando suporte na tomada de decisão por parte do especialista. Mensagem de alerta Caso o sistema detecte qualquer variação nas leituras coletadas, o especialista recebe imediatamente um e-mail com as informações do evento. No corpo do e-mail também há um link para o módulo de visualização do sistema, que contém informações complementares sobre o evento e auxilia a tomada de decisão do engenheiro. O módulo de visualização consiste em uma interface WEB responsiva, de forma que a disposição das informações se adequam ao dispositivo utilizado para acesso. Dessa maneira os engenheiros podem acessar os dados utilizando notebooks, smartphones ou tablets. O sistema conta com três funcionalidades: Alarme, Gráfico e Mapa. Árvore de Falhas OU FALHAS DE COMPONENTES FALHAS HUMANAS E A técnica de árvore de falhas, conhecida também com FAT (Fault Tree Analysis), foi criada em 1961 pela empresa americana Bell Telephone e consiste numa metodologia lógica e dedutiva que inicia a partir de um evento indesejável (evento topo) e conecta, na direção vertical, as possíveis causas deste evento, formando assim uma “árvore”. Esta metodologia pode ser qualitativa, visando identificar os pontos falhos do sistema, ou quantitativa, com o objetivo de avaliar numericamente os riscos e verificar a confiabilidade da estrutura. www.polyteck.com.br | Revista Polyteck | 5 Monitoramento por Celular Ao acessar a seção Alarme, o engenheiro tem acesso à informações detalhadas sobre o evento detectado, podendo visualizar a árvore de falhas e também imagens que auxiliam na identificação dos instrumentos que apresentaram leituras alteradas. Na seção Gráfico é possível acessar os gráficos com dados históricos dos instrumentos vinculados ao evento. Por fim, na seção Mapa, o engenheiro pode localizar os instrumentos na barragem utilizando uma ferramenta de georeferenciamento. Foto: CEASB, PTI Os eventos são divididos em quatro níveis: Laranja, para quando não há leitura dos dados. Verde, quando algum indicador ultrapassa o nível máximo anual registrado na barragem. Amarelo, quando os dados coletados indicam leituras maiores que o máximo histórico. Finalmente o vermelho, para quando as leituras ultrapassam o limite do projeto da barragem. Homologação O sistema está em fase final de homologação pela equipe técnica do CEASB. Após homologação, o sistema será submetido para a área de TI da Itaipu, que tem como responsabilidade garantir a segurança da aplicação e dos outros sistemas computacionais em funcionamento. A expectativa é que o sistema seja implantado em breve e passe a 6 | Revista Polyteck | www.polyteck.com.br utilizar dados coletados em tempo real, garantindo maior segurança e eficiência no monitoramento da barragem da maior usina geradora de energia elétrica do mundo. ■ Fontes: »» PTI - Parque Tecnológico Itaipu »» CEASB - Centro de Estudos Avançados em Segurança de Barragens © PHOTOTAKE Inc./Alamy. Quando a eletrônica orgânica POLÍMEROS E MOLÉCULAS ORGÂNICAS (FITAS AZUIS) TÊM SEMELHANÇA ESTRUTURAL E FUNCIONAL COM MACROMOLÉCULAS BIOLÓGICAS ESSENCIAIS PARA A VIDA, COMO PROTEÍNAS, ÁCIDOS NUCLÉICOS E CARBOIDRATOS. encontra a biologia Por André Sionek A pesar dos blocos de construção de sistemas biológicos serem substancialmente diferentes daqueles utilizados em sistemas eletrônicos, a pesquisa de ponta em interfaces cérebro/máquina, nanomedicina e robótica aponta para uma profunda interação da tecnologia com a natureza. Essa integração entre seres vivos e tecnologia depende da habilidade de realizar traduções eficientes entre sinais elétricos e biológicos. O sucesso deste campo depende dos esforços conjuntos de biólogos, químicos, físicos e engenheiros que, juntos, podem discutir e criar interfaces entre dispositivos artificiais e sistemas vivos. Apesar dos recentes avanços nesta área multidiscilpinar, a principal barreira para o avanço da bioeletrônica é a falta de uma linguagem comum entre diferentes áreas do conhecimento. Semicondutores inorgânicos e óxidos desempenham um papel importante nas interfaces entre sistemas vivos e dispositivos eletrônicos. Para a criação de peles artificiais que imitam a sensibilidade do tato humano, já foi proposta As semelhanças estruturais entre semicondutores orgânicos e compostos biológicos sugere o uso desses materiais em aplicações biomédicas. Como consequência uma nova área multidisciplinar está nascendo: a bioeletrônica. www.polyteck.com.br | Revista Polyteck | 7 O POLI(3,4-ETILENDIOXITIOFENO) DOPADO COM POLIESTIRENO SULFONADO (PEDOT:PSS) APRESENTA BOA MOBILIDADE DE ÍONS E ELÉTRONS E É UM DOS POLÍMEROS CONJUGADOS MAIS UTILIZADOS EM BIOELETRÔNICA. a utilização de nanofios de óxido de zinco - que têm a capacidade de gerar uma diferença de tensão quando dobrados, e por isso podem ser utilizados como sensores de pressão. Os dispositivos à base de silício já foram utilizados em implantes de retina por pesquisadores da Universidade de Stanford, EUA. Eles demonstraram uma prótese sub-retiniana fotovoltaica na qual fotodiodos de silício recebem energia e dados através de iluminação pulsada no infravermelho próximo e, consequentemente, estimulam elétricamente os neurônios das camadas mais internas da retina. Sensores neurais revestidos com carbeto de silício amorfo também já foram relatados. Orgânicos vs Inorgânicos Materiais para bioeletrônica Um dos polímeros conjugados mais utilizados na bioeletrônica é o Poli(3,4-etilendioxitiofeno) dopado com Poliestireno Sulfonado PEDOT:PSS. Além de apresentar boa mobilidade de íons e elétrons, este polímero também é um excelente revestimento para eletrodos metálicos, como mostraram pesquisadores da Universidade de Nova Gales do Sul, na Austrália. Segundo o estudo, a modificação de eletrodos metálicos com revestimentos PEDOT:PSS pode melhorar a interface entre o tecido neural e o eletrodo, aumentando o tempo de vida destes implantes. Os resultados mostraram aumento na integração com o tecido, assim como aumento na área de superfície do eletrodo, permitindo a entrega de sinais de bioativos para as células neurais. O grafeno também já foi proposto para engenharia de tecidos como um material de enchimento em compósitos poliméricos. Entre os outros materiais estudados para a bioeletrônica estão os materiais bioderivados - tal como o DNA, peptídeos e copolímeros à base de açúcares já identificados como semicondutores naturais. Também existe a possibilidade de utilizar nanofios biológicos derivados de bactérias anaeróbicas como material condutor. No campo de eletrônica comestível, há a necessidade de utilizar materiais condutores que degradem rapidamente no corpo. Nesta área a atenção volta-se para o desenvolvimento de baterias comestíveis fabricadas a partir de pigmentos de melanina. Isso permitiria o desenvolvimento de pílulas inteligentes, que podem fornecer um monitoramento versátil, não invasivo e digerível. 8 | Revista Polyteck | www.polyteck.com.br Quando se pretende criar interfaces entre dispositivos eletrônicos e seres vivos, a observação fundamental é que os semicondutores inorgânicos são estruturalmente diferentes de compostos biológicos. Isto cria uma barreira em termos de biocompatibilidade e abrangência de aplicações. Por isso, as publicações sobre semicondutores orgânicos têm ganhado cada vez mais relevância quando se trata de aplicações em bioeletrônica. Os semicondutores orgânicos apresentam várias semelhanças com proteínas, carboidratos e ácidos nucleicos. Do ponto de vista estrutural, semicondutores orgânicos podem ser biocompatíveis, biodegradáveis, macios e adaptáveis. Em relação às suas funcionalidades, eles podem suportar transporte eletrônico e iônico e ser facilmente modificados para permitir sondagem e detecção. Materiais orgânicos capazes de conduzir íons são uma escolha óbvia quando se trata de construir interfaces com neurônios, pois a comunicação elétrica entre estas células ocorre por meio do fluxo controlado de moléculas iônicas em líquidos. Pesquisadores da Escola Nacional Superior "des Mines de SaintEtienne", França, mostraram que transistores orgânicos eletroquímicos são capazes de realizar a transdução eficiente entre sinais iônicos e eletrônicos. Em tais dispositivos, o canal do transistor fica diretamente exposto a um meio líquido. A corrente que flui entre o gate e a fonte é modulada diretamente por variações de concentrações iônicas neste líquido devido à atividade neural. Este transistor é capaz de amplificar fortemente o sinal proveniente dos neurônios, resultando assim numa melhoria da relação sinal/ruído quando comparado com os transdutores passivos. Numa configuração alternativa do dispositivo, filmes finos orgânicos podem ser utilizados para converter sinais luminosos em estímulos elétricos para células neuronais com elevadas especificidade biológica e resolução espacial. Como consequência direta destes estudos, uma retina artificial totalmente orgânica e flexível, capaz de substituir a função de células fotorreceptoras, está sendo testada em animais. Circuitos eletrônicos orgânicos flexíveis e adaptáveis q ue podem ser enrolados em torno de tecidos biológicos podem fornecer uma nova ferramenta para a medicina. Eles podem ser utilizados p ara diagnósticos locais, assim como na a liberação controlada de medicamentos e na regeneração de tecidos. As publicações de artigos em periódicos e congressos mostram claramente que há um aumento do interesse dos cientistas em contribuir para a compreensão dos mecanismos biológicos destes dispositivos, assim como no desenvolvimento de novas aplicações em bioeletrônica. Porém, a grande barreira à entrada de pesquisadores dispostos a contribuir para o avanço desta área é a falta de uma linguagem comum entre cientistas de diferentes origens. Isso pode ser resolvido com o aumento do interesse e proatividade dos pesquisadores por outras áreas do conhecimento. A leitura de artigos, participação em congressos e networking com profissionais variados são fatores que podem criar um ambiente fértil baseado em colaborações entre diferentes ciências. Assim, esta comunidade multidisciplinar poderá crescer. E os seus resultados também. ■ Fontes: »» G. Lanzani, Nature Materials 13, 775–776 (2014) »» J. Rivnay e G. Malliaras, 2014 MRS Spring Meeting & Exhibit, 21 a 25 de Abril de 2014, São Francisco, Califórnia, EUA »» R. A. Green et al. Biomaterials 29, 3393–3399 (2008). »» K. Mathieson et al., Nature Photon. 6, 391–397 (2012). CIRCUITOS ELETRÔNICOS ORGÂNICOS FLEXÍVEIS E ADAPTÁVEIS PODEM SER UTILIZADOS PARA DIAGNÓSTICOS, LIBERAÇÃO CONTROLADA DE MEDICAMENTOS E REGENERAÇÃO DE TECIDOS. Anuncio Revista Polyteck_Final.pdf 1 8/3/14 9:12 PM www.facebook.com/clinicadapi www.polyteck.com.br | Revista Polyteck | 9 Os pioneiros da fusão nuclear Por André Sionek As estrelas que vemos no céu são mantidas coesas por forças gravitacionais que fazem com que os seus átomos fiquem sujeitos a altíssimas pressões e temperaturas. Estas condições fazem com que átomos fundam-se, dando origem a elementos mais pesados, e liberando energia contida em seus núcleos. Replicar estes processos físicos e químicos que ocorrem no interior de estrelas pode abrir caminho para a produção de muita energia a partir de pequenas quantidades de combustível. Foto: Técnicos fazendo manutenção e inspeção dentro da câmara do alvo no National Ignition Facility (NIF) 10 | Revista Polyteck | www.polyteck.com.br Confinamento magnético: Tokamak O maior desafio da fusão nuclear é o confinamento do plasma. Um Tokamak é um equipamento de confinamento magnético, no qual o plasma é contido numa câmara de vácuo em forma de donut. Para experimentos de fusão, o combustível - uma mistura de deutério e trítio, dois isótopos de hidrogênio - é aquecido a temperaturas superiores a 150 milhões de graus Celsius, formando um plasma quente. Fortes campos magnéticos produzidos por bobinas supercondutoras que cercam a câmara, e por uma corrente elétrica que flui no plasma, são utilizados para manter o plasma longe das paredes do equipamento. As ilustrações são do maior Tokamak do mundo, que fica localizado na França, dentro das instalações do International Thermonuclear Experimental Reactor (ITER). O projeto, uma colaboração entre sete países, deve começar a operar no final de 2020. www.polyteck.com.br | Revista Polyteck | 11 Ilustrações: ITER E m física nuclear, a fusão nuclear é uma reação na qual dois ou mais núcleos atômicos colidem a altíssimas velocidades e unem-se para formar um outro núcleo de maior número atômico. Estrelas como o Sol são alimentadas por processos de fusão nuclear, sendo a de hidrogênio em hélio o principal tipo que ocorre no seu interior. Neste processo, dois prótons fundem-se em um núcleo de hélio. Entretanto, a massa resultante do átomo de hélio não é a soma exata da massa dos dois átomos iniciais. Isso por que ao mesmo tempo que um pouco de massa foi perdida, grandes quantidades de energia foram geradas. É isso que a famosa fórmula de Einstein, E=mc², descreve: uma pequena quantia de massa (m), multiplicada pelo quadrado da velocidade da luz (c²), resulta em uma enorme quantidade de energia (E). A fusão nuclear requer muita energia para acontecer, já que uma grande barreira de potencial, causada por forças eletrostáticas, precisa ser superada antes que a junção dos dois núcleos ocorra. A grandes distâncias, dois núcleos repelem um ao outro devido às forças eletrostáticas repulsivas existentes entre seus prótons (positivamente carregados). Se dois núcleos são colocados suficientemente próximos um do outro, a repulsão eletrostática é superada pela força nuclear, que é atrativa. Por isso, o pré-requisito essencial para que ocorra fusão é que os núcleos tenham energia cinética suficiente para que possam se aproximar um do outro, apesar da repulsão eletrostática. Já faz mais de seis décadas que pesquisadores vêm tentando replicar a fonte de calor do Sol - fundir átomos para liberar a energia presa nos seus núcleos. Nesse período, os reatores de fusão nuclear cresceram de dispositivos de mesa para gigantes multibilionários. O International Thermonuclear Experimental Reactor (ITER), por exemplo, é um projeto de reator experimental de fusão nuclear baseado na tecnologia de Tokamak que irá pesar 23.000 toneladas quando completo (três vezes o peso da Torre Eiffel) e custará aproximadamente 20 bilhões de dólares. Já o National Ignition Facility (NIF), que usa tecnologia de fusão baseada em laser, custou aproximadamente 3,5 bilhões de dólares para ser construído. A estratégia de fusão dos dois laboratórios requer tecnologia complexa, de alto custo e grande porte. O ITER tem como objetivo confinar um plasma em campos magnéticos e deixá-lo queimando pelo maior tempo possível; já a estratégia do NIF é utilizar lasers ultrapotentes para bombardear o combustível de fusão, comprimindo-o à uma densidade tão alta quanto possível. Startups Foto: Kathryn Richardson, General Fusion com novas tecnologias Já deu pra perceber que fusão nuclear é um negócio complicado: envolve partículas de alta energia, temperaturas, pressões e quantidades de dinheiro colossais. Quem seria louco o suficiente para tentar construir um reator de fusão de forma independente? A verdade é que pequenas equipes de cientistas e engenheiros amparados por financiamento privado ou por uma mistura de fundos governamentais e privados estão desenvolvendo novas abordagens para a fusão. Eles não estão apenas fazendo pesquisa: o objetivo é construir reatores financeiramente viáveis e simples, e eles esperam fazer isso muito mais rápido do que os atuais projetos financiados com fundos públicos. Estas startups situam-se entre os extremos: não são projetos megalomaníacos e, ao mesmo tempo, são cientificamente plausíveis - ao contrário da notória fusão a frio. Porém, os imensos custos de construção de laboratórios públicos, como o ITER e o NIF, drenaram os financiamentos destes programas de fusão mais modestos. Projetos Públicos Tanto o ITER quanto o NIF são os atuais projetos publicamente financiados que carregam a responsabilidade de mostrar que um reator de fusão pode produzir mais energia do que consome. Essa é uma grande tarefa, pois as reações de fusão consomem imensas quantidades de energia: o combustível, por exemplo, tem que ser aquecido e mantido a mais de 150 milhões de graus Celsius. Na teoria, assim que a reação ultrapassa o ponto de equilíbrio - no qual o dispositivo gera a mesma quantidade de energia que é injetada, ela gera calor suficiente para aquecer a si mesma. Porém, ninguém até hoje chegou perto de atingir isso. O ITER ainda está em construção e os experimentos com plasma a altas temperaturas não devem começar até 2021. Era esperado que o NIF tivesse produzido essa “ignição” inicial há vários anos, o que ainda não ocorreu. No entanto já foram reportados avanços: recentemente, pesquisadores do laboratório conseguiram comprimir diamante, o material menos compressível conhecido, a uma densidade de 12 gcm-3 - densidade maior do que a do chumbo em condições ambiente. A pressão exercida sobre o diamante foi similar àquelas encontradas no centro de Saturno. 12 | Revista Polyteck | www.polyteck.com.br General Fusion Após passar boa parte da sua carreira desenvolvendo impressoras laser, Michel Laberge resolveu se aventurar com reatores de fusão nuclear. Ele convenceu alguns antigos colegas de trabalho a investir num projeto desenvolvido, e posteriormente abandonado, pelo Laboratório de Pesquisa Naval em Washington, D.C na década de 70. Com esse investimento inicial ele construiu um dispositivo de mesa que simula o reator utilizando pulsos elétricos. Isso foi suficiente para produzir uns poucos nêutrons, sinais de que uma reação de fusão está ocorrendo. Em 2002, Laberge e seus parceiros fundaram a General Fusion. Desde 2009, eles já levantaram 62 milhões de dólares canadenses, 80% vindos de fontes privadas, que incluem uma empresa de petróleo e a companhia de investimentos do fundador da Amazon.com, Jeff Bezos. Com o dinheiro em mãos, eles construíram uma máquina que parece ter saído de um livro de ficção científica. Em volta de uma câmara de reação esférica ficam 14 pistões pneumáticos. O modo de funcionamento soa apocalíptico. Primeiramente os pesquisadores fazem chumbo derretido girar dentro da câmara, criando um vórtice com o centro vazio. Neste espaço eles disparam um “toróide compacto” de combustível de fusão - essencialmente um anel de plasma. Em seguida, os pistões vêm a 50 metros por segundo e batem em plugs na parede da câmara, enviando uma onda de choque através do chumbo. A onda de choque esmaga o combustível a uma enorme pressão e temperatura e… bang! Uma pequena explosão de fusão ocorre (em teoria). O sistema atual não deve atingir fusão; serve somente para validar o sistema de compressão. No momento eles ainda não tem dados suficientes para estimar o ponto de equilíbrio. Até agora a estimativa é de que será necessário construir uma “versão monstro” do equipamento, com uma câmara três vezes maior e até 400 pistões. Foto: Eric Lerner, Lawrenceville Plasma Physics Lawrenceville Plasma Physics O projeto começou com o trabalho de Eric Lerner, que ao estudar dispositivos de fusão se deparou com o dense plasma focus (DPF), inventado na Rússia na década de 50. O DPF cria um toróide compacto de combustível de fusão e o comprime a um tamanho minúsculo por meio de um efeito eletromagnético conhecido como pinch. Depois de 10 anos de pesquisa, Lerner recebeu investimentos do Laboratório de Propulsão a Jato da NASA, mas depois de investir 300 mil dólares a NASA cancelou o financiamento. Depois de 7 anos, Lerner conseguiu levantar 1,2 milhões de dólares e mais tarde mais 2 milhões de mais de 60 investidores diferentes. A verdade é que o monstro pneumático da General Fusion faz o dispositivo de Lerner parecer um brinquedo. O coração da máquina da Lawrenceville Plasma Physics é composto por dois eletrodos cilíndricos, um dentro do outro. O eletrodo externo tem somente 18 centímetros de diâmetro, e o dispositivo inteiro fica dentro de um recipiente preenchido com gás difuso. Um pulso elétrico é descarregado do eletrodo externo para o interno, criando um anel de plasma que escapa para o interior do recipiente. Em seguida, o campo magnético gerado pela corrente faz o anel virar uma pequena e densa esfera de plasma. O colapso do campo magnético induz um campo elétrico, que faz com que um feixe de elétrons atravesse o plasma, aquecendo-o a temperaturas superiores a bilhões de graus Celsius. Se tudo ocorrer como planejado, a bola de plasma, que dura apenas 10 bilionésimos de segundo, ficará quente e densa o suficiente para que a fusão ocorra. Foto: Norman Rostoker, Science 278, 5342, 1419-1422 (1997) Tri Alpha Energy O time da Tri Alpha começa com um diferencial: dinheiro. Já receberam centenas de milhões de dólares da iniciativa privada. “Tri Alpha entrou para a história da fusão como a única vez em que tal quantia foi investida num projeto de iniciativa privada.” Segundo Stewart Prager, diretor do Laboratório de Física de Plasmas de Princeton em Nova Jersey. Tri Alpha é “filha” do físico de plasmas canadense Norman Rostoker, que agora é professor emérito na Universidade da Califórnia, Irvine. A empresa nasceu após a publicação de um paper em 1997, na revista Science, descrevendo um Reator de Fusão por Colisão de Feixes (Colliding Beam Fusion Reactor, em inglês). A empresa já tem mais de 150 empregados e recebeu investimento de fontes como o banco Goldman Sachs e Paul Allen, co-fundador da Microsoft. O reator da empresa tem o tamanho de uma quadra de tênis e funciona com a criação de dois toróides compactos, seguidos pela sua aceleração a 250 quilômetros por segundo para então colidirem de frente. Os toróides se fundem e são confinados em configuração invertida de campo (FRC), convertendo sua energia cinética em calor. Calor extra é fornecido por feixes de íons. O dispositivo da Tri Alpha não comprime o plasma, o processo de fusão baseia-se em altas temperaturas e longo confinamento. Por isso, a equipe vem desenvolvendo algumas maneiras de aumentar a vida útil do confinamento após a colisão dos toróides. Num artigo de 2012 para a Physical Review Letters, descreveram durações de até 4 milissegundos, muito superiores às atuais reações de nanosegundos encontradas outros reatores. A empresa se envolve em mistério. Não tem website e não faz anúncios públicos. Os detalhes sobre o trabalho ali desenvolvido vêm de artigos ocasionalmente publicados em periódicos. www.polyteck.com.br | Revista Polyteck | 13 Fotos: National Ignition Facility (NIF) Novos desafios É difícil dizer qual desses projetos vai realmente funcionar. A maior parte deles produziu dispositivos em escala de laboratório e todos convenceram alguns investidores de que poderiam, um dia, iniciar uma indústria altamente lucrativa. Os cientistas de fusão têm opiniões diferentes sobre estas startups. Em geral, há certo ceticismo quanto à viabilidade estes projetos independentes, o mesmo não ocorre com o NIF e ITER - gigantes publicamente financiados. Dispositivos de fusão são complexos e possuem muitos subsistemas interativos, e parece que muitas destas empresas estão exagerando em quão rápidas e baratas são as suas soluções. O próximo passo para elas - construir um reator de demonstração que atinja ou chegue perto do ponto de equilíbrio irá requerer um novo nível de investimento: não milhões de dólares, mas sim centenas de milhões. Mas é justamente o desafio que inspira essas startups: seja de conseguir construir um dispositivo de fusão eficiente, ou conseguir dinheiro para pelo menos tentar. E, apesar do ceticismo que paira sobre a viabilidade destes projetos, seria ótimo se algum deles fosse bem sucedido. ■ Fontes: »» http://www.iter.org/ »» https://lasers.llnl.gov/ »» Daniel Clery, Science 345, 6195, 370-375 (2014) »» Norman Rostoker et al., Science 278, 5342, 1419-1422 (1997) »» R. F. Smith et al., Nature 511, 330-333 (2014) »» M. Tuszewski et al., Phys. Rev. Lett. 108, 255008 (2012) 14 | Revista Polyteck | www.polyteck.com.br UM CILINDRO HOHLRAUM UTILIZADO NO NIF. ESTE CILINDRO DE OURO CONTÉM A CÁPSULA DE COMBUSTÍVEL DE FUSÃO. O HOHLRAUM TEM APENAS ALGUNS MILÍMETROS DE LARGURA, APROXIMADAMENTE O TAMANHO DE UMA BORRACHA, COM ORIFÍCIOS PARA A ENTRADA DO FEIXE DE LASER EM CADA EXTREMIDADE. A CÁPSULA DE COMBUSTÍVEL É DO TAMANHO DE UMA ERVILHA PEQUENA. NA IMAGEM À ESQUERDA: VISTA EXTERNA DO NIF. Diamante tão denso quanto chumbo Em um trabalho publicado em julho deste ano na revista Nature, pesquisadores do National Ignition Facility (NIF) demonstraram que é possível comprimir diamante a uma pressão de 5 terapascal (5 x 1012 Pa) - 11 vezes a pressão no centro da Terra. Nestes experimentos, 176 feixes de laser entregaram um pico total de potência de 2,2 terawatts durante 20 nanosegundos. Segundo os pesquisadores, se o diamante for comprimido muito rapidamente, ele fica muito quente e derrete, virando apenas carbono líquido. Para evitar isso, foi utilizada uma técnica, chamada de ramp compression, que os engenheiros do NIF desenvolveram para implodir cápsulas de combustível para pesquisas de fusão termonuclear. A equipe fixou o diamante dentro de um buraco cortado em um pequeno cilindro de ouro, e então pulsos de laser atingiram as paredes internas do cilindro. Isso fez com que o ouro emitisse uma avalanche de raios-x que bombardearam o diamante, desencadeando poderosas ondas de compressão dentro dele. O trabalho publicado pelos pesquisadores é de grande importância, mesmo ainda longe de atingir o ponto de equilíbrio numa reação de fusão. Replicar as condições de pressão e temperatura existentes no interior dos chamados “gigantes gasosos”, planetas de grandes dimensões compostos majoritariamente de matéria gasosa, ajuda no entendimento e ajuste de teorias utilizadas para descrever matéria sujeita a altíssimas pressões. Foto: Mulher holandesa durante o Inverno da Fome de 1944. Capturado por Menno Huizinga em janeiro de 1945 Subnutrição durante a gestação pode alterar a expressão de DNA por duas gerações Pais expostos a condições ambientais desfavoráveis podem causar doenças metabólicas na prole e nas gerações seguintes. Apesar de o mecanismo ainda ser desconhecido, modelos animais e dados epidemiológicos indicam que estas condições implicam em herança epigenética. Por Raisa Jakubiak e Felipe Luiz U ma grande quantidade de estudos sugere que condições ambientais desfavoráveis a um genitor podem afetar – negativamente – a saúde das gerações subsequentes. Por exemplo, mulheres holandesas que estavam grávidas durante uma grande fome em 1944, conhecido como o Inverno Holandês da Fome, tiveram filhos e netos que eram incomumente pequenos ou propensos à diabetes ou obesidade. Estudos com animais também mostraram que, expor uma rata grávida a compostos tóxicos ou simplesmente fazê-la sentir medo de um odor, pode resultar em efeitos como infertilidade e mudanças de comportamento que podem persistir por duas gerações. No entanto, os mecanismos ainda não podem ser explicados por mutações genéticas. Alguns cientistas suspeitam que estes efeitos sejam passados adiante através de mudanças epigenéticas. O termo epigenética é relativo às mudanças reversíveis e herdáveis do genoma funcional que não alteram a sequência de nucleotídeos do DNA. Fazem parte da epigenética o estudo de como os padrões de expressão são passados para os descendentes; A investigação da mudança de expressão espaço temporal de genes durante a diferenciação de um tipo de célula; E também o estudo de como fatores www.polyteck.com.br | Revista Polyteck | 15 Efeitos epigenéticos da subnutrição Uma equipe de cientistas liderada pela geneticista Anne Ferguson-Smith, da Universidade de Cambridge no Reino Unido, e a pesquisadora em diabetes Mary-Elizabeth Patti, da Escola de Medicina de Harvard, explorou a abrangência dos efeitos epigenéticos através do estudo do DNA de duas gerações de ratos descendentes de uma mãe com subnutrição. Durante a última semana de gestação de um grupo de ratas, os cientistas as alimentaram com ração contendo apenas metade das calorias necessárias para uma gestação saudável. Durante este período gestacional para uma rata, os padrões epigenéticos no esperma de um embrião masculino são apagados e então ressetados. O tratamento resultou em uma prole e em netos abaixo do peso normal e com tendências à diabetes. Nucleossomo Nucleossomo é uma unidade básica da cromatina. Consiste em aproximadamente 146 pares de bases de DNA enroladas ao redor de um octâmero central de proteínas, conhecidas como histonas. Essas proteínas básicas foram inicialmente consideradas como componentes meramente estruturais, mas agora são reconhecidas pelo importante papel que desempenham na manutenção do equilíbrio dinâmico da cromatina. 16 | Revista Polyteck | www.polyteck.com.br O grupo analisou então o DNA do esperma dos machos nascidos das mães subnutridas (F1). Comparados com a prole dos ratos controle, seu esperma tinha muito menos grupos metil em cerca de 110 braços do DNA. Frequentemente, o grupo metil estava faltando perto de genes envolvidos no metabolismo. Basicamente, o ambiente nutricional dos embriões F1 alterou o metiloma da linhagem germinativa no DNA dos machos adultos F1 no locus específico. Essa mutação do locus específico é caracterizada por uma alteração genética que acontece a partir de uma lesão de DNA, causando alterações em proteínas que podem ser detectadas por métodos de eletroforese. Diferentes regiões de metilação do DNA (relacionadas ao silenciamento de genes) apresentaram hipometilação e retenção de nucleossomos. Uma parte substancial é resistente à reprogramação da metilação inicial, impactando fortemente no desenvolvimento dos netos (F2). Assim, quando o útero é exposto à subnutrição durante o desenvolvimento de células germinativas, pode haver impacto no metiloma da linhagem germinativa masculina, o que é associado a doenças metabólicas em F2. No entanto, apesar de os tecidos fetais nos netos das ratas que sofreram desnutrição também apresentarem mudanças na expressão dos genes, surpreendentemente o DNA nestes tecidos não carregavam estas mudanças na metilação. Isto sugere que as mudanças eventualmente desaparecem. Ferguson-Smith acredita que as mudanças na metilação do esperma de F1 refletem o legado na sua subnutrição enquanto estava no útero mas, como este estado não persistiu, não é suficiente para explicar a doença na geração F2. A pesquisadora disse em entrevista à Science que os marcadores de metilação “não são a memória a longo prazo que relacionam a doença de uma geração com a outra”. Para continuar os estudos e demonstrar que esses padrões de metilação realmente causam efeitos negativos na saúde de gerações subsequentes, é necessário desligar ou ligar artificialmente os genes em questão e mostrar que isto leva aos mesmos resultados. Este é o grande desafio para a área. ■ Fontes: »»1) Elizabeth J. Radford et al., Science (2014) DOI: 10.1126/ science.1255903 »»2) Jocelyn Kaiser, Science (10/07/2014) »» 3) Fernanda Salvato, Epigenética, Seminários em Genética e Melhoramento de Plantas - USP Ilustração: Thiago Rennó AS CÉLULAS DE LINHAGEM GERMINATIVA TÊM A CAPACIDADE DE GERAR GAMETAS. MUTAÇÕES QUE OCORREM NAS CÉLULAS GERMINATIVAS PODEM SER TRANSMITIDAS PARA GERAÇÕES SEGUINTES. LOGO, A LINHAGEM GERMINATIVA É DE GRANDE IMPORTÂNCIA NO ESTUDO DAS CONSEQUÊNCIAS DAS MUTAÇÕES GENÉTICAS. ambientais podem gerar alterações na maneira como os genes são expressos. A pesquisa na área da epigenética inclui implicações em agricultura, na biologia e em doenças humanas, incluindo o entendimento sobre células-tronco, câncer e envelhecimento. THE OXFORD COMPONENT OF THE EPIC-OXFORD STUDY HAS AS MAIN OBJECTIVE STUDYING HOW PEOPLE’S DIET INFLUENCES THE RISK OF CANCER AND OTHER DISEASES. IT BEGAN IN 1993 AND HAS A PROSPECTIVE COHORT OF 65,000 MEN AND WOMEN LIVING IN THE UK. V egetarian militants and meat eaters have been fighting for years over the pros and cons of eating meat. You have probably already stumbled over this discussion in some social media yourself. Meat eaters defend that meat has lots of nutrients which are fundamental to a healthy nutrition of the human body, such as proteins, aminoacids and B12 vitamin. On the other hand, vegetarians and vegans defend several points of view, like seeking a healthier life and the defense of animal rights. But nowadays the global warming brings up a new field of discussion and, with it, a new branch of study: what is better for Earth’s atmosphere, meat eating or vegetarian and vegan diets? A recent study performed by researchers in the University of Oxford, involved in the European Prospective Investigation into Cancer and Nutrition (EPIC - Oxford Study), gives clues that the less meat you eat, the lower your carbon footprint is. EPIC - Oxford Study Dietary greenhouse gas emissions By Raisa Jakubiak In order to estimate the difference in CO2 emissions between diets in the UK, a team at the University of Oxford analyzed the diets of 2,041 vegans, 15,751 vegetarians, 8,123 fish-eaters (people who eat only fish and seafood) and 29,589 meat-eaters aged between 20 and 79 years. Data were assessed using a validated food frequency questionnaire that estimates the intake of 130 different food items over the previous 12 months. Subjects were participants in the EPIC- Oxford Study. First of all, dietary groups were divided as far as the meat intake is concerned: heavy meat-eaters (people who consume more than 100 g of meat per day), medium meat-eaters (50 to 99 g/day), low meat-eaters (>0 and <50 g/day), fish-eaters, vegetarians and vegans. These options were self-chosen. The nutritional analyses of the 130 items were based on nutritional data for 289 food codes taken from UK food composition tables, primarily the McCance & Widdowson series. The researchers estimated the GHG emissions associated with these 289 food codes, measured as kgCO2-eq, i.e.: kg of GHG weighted by global warming potential over a 100 year time frame, with carbon dioxide weighted as 1, methane weighted as 25 and nitrous oxide weighted as 298 per 100g of food. Audrey table, the source document for GHG parameters, estimates comparable GHG emissions for 94 food commodities consumed in the UK. These parameters incorporate the life cycle of food commodities from the earliest stages of production to the retail distribution center. Different parameters are estimated for foods produced in the UK, the EU and outside the EU. The dietary data were standardized to a 2000 kcal diet. The results have shown that the CHG emissions related to food are strongly associated with the quantity of www.polyteck.com.br | Revista Polyteck | 17 animal-based products consumed in the diet. After the data were adjusted for sex and age, it was shown that an average meat eater has 2.5 times as many CGH emissions than an average vegan. Not only that, but the analysis also revealed that even eating less meat can diminish the CGH emissions in your diet. Considering that a recent research performed by the National Diet and Nutrition Survey estimated the average meat consumption of meat per adult in UK to be of 110 g/day, you can say that most adults in the UK are heavy meat eaters. Although the vegan diet presents the most environment friendly results, it does not mean that you must stop eating meat since, according to the study, reducing the consumption a bit can already produce good drop in your carbon footprint. ■ Sources: »» Peter Scarborough et al., Climate Change 125, 179– 192 (2014) »» Laurence A. Wright et al., Carbon Management Vol. 2, No. 1, 61-72 (2011) »» EPIC-Oxford, http://www.epic-oxford.org/ Carbon footprint and what we eat When we think about greenhouse gas (GHG) emissions the first things that come to our mind are certainly fossil fuels and energy production. However, almost every activity has something called carbon footprint. Historically, the term is defined as the total sets of greenhouse gas emissions caused by an organization, event, production or person. Being impossible to calculate the real carbon footprint of an activity due to the enormous amount of data necessary, Wright, Kempf and Willians suggested in a paper to the journal Carbon Management that “A measure of the total amount of carbon dioxide (CO2) and methane (CH4) emissions of a defined population, system or activity, considering all relevant sources, sinks and storage within the spatial and temporal boundary of the population, system or activity of interest. Calculated as carbon dioxide equivalent (CO2-eq) using the relevant 100-year global warming potential (GWP100)”. Although transports and energy have the larger GHG emissions, production, transport, storage, cooking and wastage of food are also substantial contributors to the greenhouse effect. In the UK, it is estimated that food is responsible for about one fifth of the total GHG emissions. This number rises to one fourth considering the whole world. The majority of the emissions are in the form of carbon dioxide from food transport and farm machinery, methane from enteric fermentation of ruminant livestock and nitrate (NO3-) from fertilized fields. As far as these gases are concerned, CH4 and NO3- are far more powerful GHGs than CO2, and animal-based foods are associated with higher GHG emissions than plant-based food. Less meat, fewer emissions Carbon footprint of various UK diets, in kg of CO2-eq per day. Source: Scarborough et al. (2014) Patrocínio: Edição 07 | agosto de 2014 Tiragem: 10 mil exemplares Distribuição Gratuita A Polyteck é uma revista interdisciplinar de tecnologia e ciência distribuída gratuitamente dentro das principais universidades e centros de pesquisa. Informações sobre anúncios e parcerias estão disponíveis em: www.polyteck.com.br/anuncie Envie sua crítica, elogio ou sugestão para: [email protected] Editora Polyteck Ltda - ME Rua Irene Túlio, 192, casa 4 Santa Felicidade, Curitiba - PR 82.410-440 CNPJ: 18.786.870/0001-01 Diretor Executivo: André Sionek Diretora de Redação: Raisa Requi Jakubiak Diretor Comercial: Fábio A. S. Rahal Revisão: Tainan Pantano Tomaz Imagens: Shutterstock, stock.xchng Impressão: Gráfica Radial Parceiros: Este trabalho é licenciado sob Creative Commons Attribution-NonCommercial 4.0 International License. Os pontos de vista expressos nos artigos não refletem necessariamente a posição da Editora Polyteck.